JP2022101330A - Image projection method, image projection device, unmanned aerial vehicle, and image projection program - Google Patents

Image projection method, image projection device, unmanned aerial vehicle, and image projection program Download PDF

Info

Publication number
JP2022101330A
JP2022101330A JP2020215849A JP2020215849A JP2022101330A JP 2022101330 A JP2022101330 A JP 2022101330A JP 2020215849 A JP2020215849 A JP 2020215849A JP 2020215849 A JP2020215849 A JP 2020215849A JP 2022101330 A JP2022101330 A JP 2022101330A
Authority
JP
Japan
Prior art keywords
image
user
image projection
projection
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020215849A
Other languages
Japanese (ja)
Inventor
郁子 岸田
Ikuko Kishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sakai Sogo Kenkyusho LLC
Original Assignee
Sakai Sogo Kenkyusho LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sakai Sogo Kenkyusho LLC filed Critical Sakai Sogo Kenkyusho LLC
Priority to JP2020215849A priority Critical patent/JP2022101330A/en
Publication of JP2022101330A publication Critical patent/JP2022101330A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To view image information even when a user does not carry a display device such as a mobile terminal device, or even when the user does not have a display device such as a display or a screen around the user.SOLUTION: Any part of the user's body to which the user's gaze is directed is identified, the user wears an image transmitted or delivered to the user on the head by using the identified part as a screen. Alternatively, the projection is performed using a projector (wearable projector 1100) that can be worn over the ear. As a result, a palmtop screen is realized in the left and right palms of the user. For example, a video call image is displayed on the palmtop screen on the right hand side, and a chat image is displayed on the palmtop screen on the left hand side. The body part is not limited to the hand, but may be an arm, a wrist, a leg, a foot, or the like. The user does not need a terminal device, a display or a dedicated screen to view the image.SELECTED DRAWING: Figure 11

Description

この発明は、画像を投影する画像投影方法、当該画像投影方法を実現する画像投影装置、無人航空機、および、画像投影プログラムに関する。 The present invention relates to an image projection method for projecting an image, an image projection device for realizing the image projection method, an unmanned aerial vehicle, and an image projection program.

近年、スマートフォンなどの情報端末装置での画像を視覚する機会の多様性が高まっている。関連する技術として、従来、具体的には、たとえば、自律走行が可能なロボットに投影部を搭載し、ロボットの周囲に存在する投影面の状態を検知しながら当該投影面に映像を投影することにより、不特定の人から見えやすい映像を表示することができるようにした映像表示システムに関する技術があった(たとえば、下記特許文献1を参照。)。 In recent years, the variety of opportunities for visualizing images on information terminal devices such as smartphones has increased. As a related technique, conventionally, specifically, for example, a projection unit is mounted on a robot capable of autonomous traveling, and an image is projected on the projection surface while detecting the state of the projection surface existing around the robot. As a result, there was a technique related to a video display system that made it possible to display a video that was easy for an unspecified person to see (see, for example, Patent Document 1 below).

特開2018-125816号公報Japanese Unexamined Patent Publication No. 2018-125816

しかしながら、情報端末装置などの表示機器を有していなければ、あるいは、ディスプレイなどの表示装置が設置されていないところでは、画像情報を見ることができなかった。また、プロジェクターは、あらかじめ決められたスクリーンにしか画像を投影することはできなかった。 However, if the user does not have a display device such as an information terminal device, or if a display device such as a display is not installed, the image information cannot be viewed. Also, the projector could only project an image on a predetermined screen.

また、上述した特許文献1に記載された従来の技術においては、個人宛の画像情報を見るには適していないという問題点があった。 Further, the conventional technique described in Patent Document 1 described above has a problem that it is not suitable for viewing image information addressed to an individual.

この発明は、上述した従来技術による問題点を解消するため、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像情報を見ることができる画像投影方法、当該画像投影方法を実現する画像投影装置、無人航空機、および、画像投影プログラムを提供することを目的とする。 In order to solve the problems caused by the above-mentioned prior art, the present invention provides image information even if a display device such as a portable terminal device is not carried or a display device such as a display or a screen is not around. It is an object of the present invention to provide an image projection method that can be seen, an image projection device that realizes the image projection method, an unmanned aircraft, and an image projection program.

上述した課題を解決し、目的を達成するため、この発明にかかる画像投影方法は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the image projection method according to the present invention specifies the positions of the user and any part of the user's body, and the specified arbitrary part is used as a screen for the user. It is characterized by projecting an image transmitted or delivered to.

また、この発明にかかる画像投影方法は、上記の発明において、前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the image projection device for projecting the image is moved to a position where the image can be projected on the arbitrary portion.

また、この発明にかかる画像投影方法は、上記の発明において、前記画像投影装置を無人航空機を用いて移動させることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the image projection device is moved by using an unmanned aerial vehicle.

また、この発明にかかる画像投影方法は、上記の発明において、前記画像投影装置を屋内の設備を用いて移動させることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the image projection device is moved by using indoor equipment.

また、この発明にかかる画像投影方法は、上記の発明において、前記屋内の設備が、屋内の壁面、天井および床の少なくともいずれか一つであり、当該屋内の設備に沿って前記画像投影装置を移動させることを特徴とする。 Further, in the image projection method according to the present invention, in the above invention, the indoor equipment is at least one of an indoor wall surface, a ceiling and a floor, and the image projection device is mounted along the indoor equipment. It is characterized by moving.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、当該ユーザの指定により設定されることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is set by the designation of the user.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記画像の内容に基づいて選定されることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user to be the screen is selected based on the content of the image.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位の状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the projection method for projecting the image is changed based on the state of the arbitrary portion of the user as the screen.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位の周辺の状況に基づいて、前記画像を投影する投影方法を変更することを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the projection method for projecting the image is changed based on the situation around the arbitrary portion of the user as the screen. ..

また、この発明にかかる画像投影方法は、上記の発明において、前記任意の部位の周辺の状況が、当該周辺の明るさであることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the situation around the arbitrary portion is the brightness of the periphery.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンに投影された画像を認識し、認識された画像の状況に基づいて、投影方法を変更することを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the image projected on the screen is recognized and the projection method is changed based on the situation of the recognized image.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの身体であって当該ユーザが視認可能な部位であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the body of the user and is visible to the user. ..

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの手または腕であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the hand or arm of the user.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの脚または足であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the leg or foot of the user.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの手の指または足の指の爪であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the fingernail of the finger or the toenail of the user.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの身体であって当該ユーザが鏡を用いて視認可能な部位であることを特徴とする。 Further, in the image projection method according to the present invention, in the above invention, the arbitrary part of the user as the screen is the body of the user and the part that can be visually recognized by the user using a mirror. It is characterized by.

また、この発明にかかる画像投影方法は、上記の発明において、前記ユーザが鏡を用いて視認可能な部位に前記画像を投影する場合に、当該画像の左右を反転させることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, when the user projects the image onto a visible portion using a mirror, the left and right sides of the image are inverted.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの顔、頭部または頸部であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the face, head or neck of the user.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位が、前記ユーザの体幹部または臀部であることを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the arbitrary portion of the user as the screen is the trunk or buttocks of the user.

また、この発明にかかる画像投影方法は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする。 Further, in the image projection method according to the present invention, the position of the user and an arbitrary part of the user's body is specified, and the image transmitted or distributed to the user using the clothes on the specified arbitrary part as a screen. It is characterized by projecting.

また、この発明にかかる画像投影方法は、上記の発明において、前記着衣が、衣服、手袋、靴、靴下、帽子およびマスクの少なくともいずれか一つを含むことを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the clothing includes at least one of clothes, gloves, shoes, socks, a hat and a mask.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位における着衣の種類または状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする。 Further, the image projection method according to the present invention is characterized in that, in the above invention, the projection method for projecting the image is changed based on the type or state of clothing of the user at the arbitrary portion of the screen. And.

また、この発明にかかる画像投影方法は、上記の発明において、前記スクリーンとなる前記ユーザの前記任意の部位における着衣の色および材質の少なくともいずれか一方に基づいて、前記画像を投影する投影方法を変更することを特徴とする。 Further, the image projection method according to the present invention is the projection method for projecting the image based on at least one of the color and the material of the clothes in the arbitrary portion of the user as the screen in the above invention. It is characterized by changing.

上述した課題を解決し、目的を達成するため、この発明にかかる画像投影装置は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、制御部を備えたことを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the image projection device according to the present invention identifies the positions of the user and any part of the user's body, and the specified arbitrary part is used as a screen for the user. It is characterized by having a control unit that projects an image transmitted or delivered to the screen.

また、この発明にかかる画像投影装置は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、制御部を備えたことを特徴とする。 Further, the image projection device according to the present invention identifies the position of the user and an arbitrary part of the user's body, and the image transmitted or distributed to the user with the clothes on the specified arbitrary part as a screen. It is characterized by having a control unit for projecting.

また、この発明にかかる画像投影装置は、上記の発明において、前記制御部が、前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the control unit moves the image projection device for projecting the image to a position where the image can be projected on the arbitrary portion. do.

上述した課題を解決し、目的を達成するため、この発明にかかる無人航空機は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the unmanned aerial vehicle according to the present invention identifies the position of the user and any part of the body of the user, and uses the specified arbitrary part as a screen for the user. It is characterized by projecting an image transmitted or delivered to the object.

また、この発明にかかる無人航空機は、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする。 Further, the unmanned aerial vehicle according to the present invention identifies the position of the user and an arbitrary part of the user's body, and uses the clothing at the specified arbitrary part as a screen to transmit or deliver an image to the user. It is characterized by projecting.

また、この発明にかかる無人航空機は、上記の発明において、前記画像が前記任意の部位に投影可能な位置へ移動し、当該画像を投影することを特徴とする。 Further, the unmanned aerial vehicle according to the present invention is characterized in that, in the above invention, the image moves to a position where it can be projected onto the arbitrary portion and the image is projected.

上述した課題を解決し、目的を達成するため、この発明にかかる画像投影プログラムは、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、画像投影装置に実行させることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the image projection program according to the present invention identifies the positions of the user and any part of the user's body, and the specified arbitrary part is used as a screen for the user. It is characterized in that an image projection device is made to execute a process of projecting an image transmitted or delivered to the image.

また、この発明にかかる画像投影プログラムは、ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、画像投影装置に実行させることを特徴とする。 Further, the image projection program according to the present invention identifies the position of the user and an arbitrary part of the user's body, and the image transmitted or distributed to the user using the clothes on the specified arbitrary part as a screen. It is characterized in that an image projection device is made to execute a process of projecting.

また、この発明にかかる画像投影プログラムは、上記の発明において、前記画像投影装置に、前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させる処理を実行させることを特徴とする。 Further, the image projection program according to the present invention executes a process of moving the image projection device for projecting the image to the image projection device at a position where the image can be projected onto the arbitrary portion in the above invention. It is characterized by letting it.

上述した課題を解決し、目的を達成するため、この発明にかかる画像投影装置は、ユーザの視線が向けられた身体の任意の部位をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the image projection device according to the present invention is transmitted or delivered to the user by using an arbitrary part of the body to which the user's line of sight is directed as a screen, or It is provided with a control unit for projecting a pre-stored image, and is characterized in that the user wears it on the head or over the ear.

また、この発明にかかる画像投影装置は、ユーザの視線が向けられた身体の任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 Further, the image projection device according to the present invention projects an image transmitted or delivered to the user, or stored in advance, using clothes on an arbitrary part of the body to which the user's line of sight is directed as a screen. A control unit is provided, and the user wears the control unit on the head or wears the control unit on the ear.

また、この発明にかかる画像投影装置は、ユーザの視線が向けられた面をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 Further, the image projection device according to the present invention includes a control unit for projecting an image transmitted or delivered to the user or stored in advance using the surface to which the user's line of sight is directed as a screen. It is characterized in that the user wears it on the head or over the ear.

また、この発明にかかる画像投影装置は、上記の発明において、投影部を自装置に着脱可能に設けたことを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the projection unit is detachably provided on the own device.

また、この発明にかかる画像投影装置は、上記の発明において、複数設けられた前記投影部により、前記画像を同時に投影することを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the images are simultaneously projected by the plurality of projection units provided.

また、この発明にかかる画像投影装置は、上記の発明において、複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで異なる画像を同時に投影することを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, different images are simultaneously projected by the first projection unit and the second projection unit among the plurality of the projection units provided. ..

また、この発明にかかる画像投影装置は、上記の発明において、複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで同じ画像を重ねて同時に投影することを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the same image is superimposed and simultaneously projected on the first projection unit and the second projection unit among the plurality of the projection units provided. And.

また、この発明にかかる画像投影装置は、上記の発明において、投影する画像を複数個に分割し、複数設けられた各前記投影部によって、それぞれ分割された画像を同時に投影することを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the image to be projected is divided into a plurality of parts, and the divided images are simultaneously projected by each of the plurality of provided projection units. ..

また、この発明にかかる画像投影装置は、上記の発明において、自装置に、画像を受信し、記憶し、投影するための電池を設けたことを特徴とする。 Further, the image projection device according to the present invention is characterized in that, in the above invention, the self-device is provided with a battery for receiving, storing, and projecting an image.

また、この発明にかかる画像投影装置は、上記の発明において、前記制御部が、前記ユーザによって自装置が装着されていることを検知し、前記検知の結果、自装置が装着されていると判断した場合に、前記画像を投影することを特徴とする。 Further, in the above invention, in the image projection device according to the present invention, the control unit detects that the own device is attached by the user, and as a result of the detection, it is determined that the own device is attached. When this is done, the image is projected.

また、この発明にかかる画像投影装置は、上記の発明において、前記制御部が、自装置が装着されているユーザがあらかじめ登録されているユーザであることを認識し、前記認識の結果、自装置が装着されているユーザがあらかじめ登録されているユーザであると判断した場合に、前記画像を投影することを特徴とする。 Further, in the above-mentioned invention, the image projection device according to the present invention recognizes that the user to which the own device is attached is a registered user, and as a result of the recognition, the own device. It is characterized in that the image is projected when it is determined that the user wearing the is a registered user in advance.

また、この発明にかかる画像投影装置は、上記の発明において、自装置に、ID情報およびパスワード情報の少なくともいずれかの入力を受け付ける受付部を備え、前記制御部が、入力された情報に基づいて、あらかじめ登録されているユーザであることを認識することを特徴とする。 Further, in the above-mentioned invention, the image projection device according to the present invention includes a reception unit for receiving at least one of ID information and password information in its own device, and the control unit is based on the input information. , It is characterized by recognizing that it is a user registered in advance.

また、この発明にかかる画像投影装置は、上記の発明において、自装置に、ユーザの音声の入力を受け付ける音声受付部を備え、前記制御部が、入力された音声に基づいて、音声認識によって、あらかじめ登録されているユーザであることを認識することを特徴とする。 Further, in the above-mentioned invention, the image projection device according to the present invention includes a voice receiving unit for receiving the input of the user's voice, and the control unit performs voice recognition based on the input voice. It is characterized by recognizing that the user is a registered user in advance.

また、この発明にかかる画像投影装置は、上記の発明において、前記制御部が、自装置に対して接触されたことを検知し、前記検知の結果、接触された場合に、前記画像の投影を開始することを特徴とする。 Further, in the above invention, the image projection device according to the present invention detects that the control unit is in contact with the own device, and as a result of the detection, when the contact is made, the projection of the image is performed. It is characterized by starting.

また、この発明にかかる画像投影装置は、上記の発明において、前記制御部が、自装置に対して接触されたことを検知し、前記検知の結果、接触された場合に、前記画像の投影を中止することを特徴とする。 Further, in the above invention, the image projection device according to the present invention detects that the control unit is in contact with the own device, and as a result of the detection, when the contact is made, the projection of the image is performed. It is characterized by discontinuing.

この発明にかかる画像投影方法、画像投影装置、無人航空機および画像投影プログラムによれば、ユーザは、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像情報を見ることができるという効果を奏する。 According to the image projection method, the image projection device, the unmanned aircraft, and the image projection program according to the present invention, the user does not have to carry a display device such as a portable terminal device, or a display device such as a display or a screen is used. It has the effect of being able to see the image information even if it is not around.

画像投影方法の概要(「パームトップスクリーン」)を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the outline (“palmtop screen”) of an image projection method. 画像投影方法の概要(「ドローンプロジェクター」)を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the outline (“drone projector”) of an image projection method. 画像投影方法の概要(「パームトップスクリーン」)を示す説明図(その3)である。It is explanatory drawing (the 3) which shows the outline (“palmtop screen”) of an image projection method. 画像投影方法の概要(「アームトップスクリーン」)を示す説明図(その4)である。It is explanatory drawing (the 4) which shows the outline (“arm top screen”) of an image projection method. 画像投影方法の概要(「リストトップスクリーン」)を示す説明図(その5)である。It is explanatory drawing (the 5) which shows the outline (“list top screen”) of an image projection method. 画像投影装置(「ドローンプロジェクター」)の外観の一例を示す説明図である。It is explanatory drawing which shows an example of the appearance of the image projection apparatus (“drone projector”). 画像投影装置のハードウエア構成の一例を示す説明図である。It is explanatory drawing which shows an example of the hardware composition of the image projection apparatus. 画像投影装置の機能的構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of an image projection apparatus. 画像投影装置の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of an image projection apparatus. この発明にかかる別の実施例の画像投影装置(「ムーバブルプロジェクター」)および画像投影装置の移動環境の一例を示す説明図である。It is explanatory drawing which shows an example of the moving environment of the image projection apparatus (“movable projector”) and the image projection apparatus of another embodiment which concerns on this invention. この発明にかかる別の実施の形態(実施の形態2)の画像投影装置(「ウエアラブルプロジェクター」)の一例を示す説明図である。It is explanatory drawing which shows an example of the image projection apparatus (“wearable projector”) of another Embodiment (embodiment 2) which concerns on this invention.

以下に添付図面を参照して、この発明にかかる画像投影方法、画像投影方法を実現する画像投影装置、無人航空機および画像投影プログラムの好適な実施の形態を詳細に説明する。 Hereinafter, preferred embodiments of an image projection method according to the present invention, an image projection device for realizing the image projection method, an unmanned aerial vehicle, and an image projection program will be described in detail with reference to the accompanying drawings.

(画像投影方法の概要)
図1~図5は、画像投影方法の概要を示す説明図である。図1においては、ユーザの右手(RIGHT HAND)101には、ビデオ通話に関する画像情報110を投影している。また、左手(LEFT HAND)102には、チャットの画面に関する画像情報120を投影している。
(Overview of image projection method)
1 to 5 are explanatory views showing an outline of an image projection method. In FIG. 1, image information 110 related to a video call is projected on the user's right hand (RIGHT HAND) 101. Further, the image information 120 related to the chat screen is projected on the left hand (LEFT HAND) 102.

これに限らず、右手101、左手102には、ユーザの所望の画像情報を投影することができる。たとえば、右手101、左手102の両手にそれぞれ、異なる相手とのビデオ通話に関する画像情報110を投影するようにしてもよい。このように、ユーザの少なくとも一方の手の手のひらに画像を投影する。発明者は、手のひらをスクリーンとして用いることを『パームトップスクリーン(“PALM TOP SCREEN”)』と名付けた。 Not limited to this, the user's desired image information can be projected on the right hand 101 and the left hand 102. For example, the image information 110 relating to the video call with a different party may be projected on both the right hand 101 and the left hand 102, respectively. In this way, the image is projected onto the palm of at least one of the user's hands. The inventor named the use of the palm as a screen "Palm TOP Screen (" PALM TOP SCREEN ")".

ビデオ通話に関する画像を投影する際のビデオ通話相手からの音声など、画像情報に付随する音声は、ユーザが装着しているイヤホンあるいはユーザの周辺に設置されたスピーカーなどから出力することができる。スピーカーは、図2に示す画像投影装置200に搭載されていてもよい(後述する図7に示すスピーカー707)。また、ユーザの音声は、ユーザが装着しているイヤホンあるいはユーザの周辺に設置されたマイクなどから入力(集音)することができる。マイクは、画像投影装置200に搭載されていてもよい(後述する図7に示すマイク706)。 The voice accompanying the image information, such as the voice from the video call partner when projecting the image related to the video call, can be output from the earphone worn by the user or the speaker installed around the user. The speaker may be mounted on the image projection device 200 shown in FIG. 2 (speaker 707 shown in FIG. 7 described later). Further, the user's voice can be input (collected) from an earphone worn by the user or a microphone installed around the user. The microphone may be mounted on the image projection device 200 (microphone 706 shown in FIG. 7 described later).

図2は、画像投影装置200がユーザ201の手のひらにビデオ通話に関する画像情報110を投影している様子を示している。図2に示すように、画像投影装置200からユーザ201の身体の任意の部位である手のひらに画像情報110を投影することによって、ユーザ201の身体の任意の部位である手のひらをスクリーンとして用いることができる。 FIG. 2 shows how the image projection device 200 projects the image information 110 related to the video call on the palm of the user 201. As shown in FIG. 2, by projecting the image information 110 from the image projection device 200 onto the palm, which is an arbitrary part of the body of the user 201, the palm, which is an arbitrary part of the body of the user 201, can be used as a screen. can.

画像投影装置200は、プロジェクターをドローン(無人航空機)に搭載し、飛行しながら所定の空間に停止し、そこから画像情報をユーザ201の身体の任意の部位である手のひらに画像を投影する。発明者は、この画像投影装置200を『ドローンプロジェクター(“DRONE PROJECTOR”、略称:「ドロプロ」、「ドロプ」または「ドロップ」)』と名付けた。 The image projection device 200 mounts a projector on a drone (unmanned aerial vehicle), stops in a predetermined space while flying, and projects image information from the image information onto the palm of the user 201 at any part of the body. The inventor has named this image projection device 200 "drone projector (" DRONE PROJECTOR ", abbreviation:" drop pro "," drop "or" drop ")".

手のひらをスクリーンとすることによって、画像情報を見るための専用の表示装置を必要としない。手のひらを向ける方向によって、近くにいる他の者に画像情報をのぞき見されることを防止することができる。また、手のひらを向ける方向によって、隣や向かい側にいる他の者と画像情報を共有して見ることもできる。 By using the palm as a screen, there is no need for a dedicated display device for viewing image information. Depending on the direction in which the palm is turned, it is possible to prevent other people nearby from peeping at the image information. Also, depending on the direction in which the palm is turned, the image information can be shared and viewed with other people next to or opposite.

図1に示すように、両手を用いることによって、ユーザは、少なくとも2つの異なる画面を同時に見ることができる。2つの異なる画像情報を表示するためには、一機のドローンに2つ以上のプロジェクターを搭載していてもよく、また、複数機のドローンプロジェクターを用いて、それぞれから投影させるようにしてもよい。また、図2に示すように、両手を接近または接触させることによって、一つの画像を両手に渡って拡大して表示することもできる。 As shown in FIG. 1, by using both hands, the user can see at least two different screens at the same time. In order to display two different image information, one drone may be equipped with two or more projectors, or a plurality of drone projectors may be used to project from each of them. .. Further, as shown in FIG. 2, one image can be enlarged and displayed over both hands by bringing both hands close to each other or in contact with each other.

図1、図2からもわかるように、これらの画像情報110、120は、広げられた手のひらに対して、画像投影装置200から投影された投影画像である。このように画像情報110、120をユーザ201の手のひらに投影するためには、画像投影装置200は、まずは画像情報を投影すべきユーザ201を特定する。 As can be seen from FIGS. 1 and 2, these image information 110 and 120 are projected images projected from the image projection device 200 on the spread palm. In order to project the image information 110 and 120 onto the palm of the user 201 in this way, the image projection device 200 first identifies the user 201 to which the image information should be projected.

そして、特定したユーザ201の手のひらの位置を特定し、特定した手のひらをスクリーンとして、当該ユーザ201に対して送信された画像を投影する。それにより、当該ユーザ201は、自身の手のひらに投影された当該画像情報110、120を視認することが可能となる。 Then, the position of the palm of the specified user 201 is specified, and the image transmitted to the user 201 is projected using the specified palm as a screen. As a result, the user 201 can visually recognize the image information 110 and 120 projected on the palm of his / her hand.

図3に示すように、画像情報110の向きは、ユーザの視線(両方の眼球の位置)と手のひら101の位置との関係から決定されるようにしてもよい。したがって、指先が向いている方向にかかわらず、ユーザ201の左右の眼球の位置からユーザが見やすい角度を推測し、画像情報の向きを決定するようにしてもよい。 As shown in FIG. 3, the orientation of the image information 110 may be determined from the relationship between the user's line of sight (positions of both eyeballs) and the position of the palm 101. Therefore, regardless of the direction in which the fingertip is facing, the angle that is easy for the user to see may be estimated from the positions of the left and right eyeballs of the user 201, and the direction of the image information may be determined.

図3では、図1とは手のひらにおける画像情報110が投影される向きが違うことがわかる。ユーザ201が右手101をどのような方向に広げるかによって画像情報110の向きを変更する。したがって、ユーザ201は、手の角度を変えても、ユーザ201の視線に対して常に画像が投影される向きが一定となるようにするので、画像情報110の視認性を向上することができる。 In FIG. 3, it can be seen that the direction in which the image information 110 on the palm is projected is different from that in FIG. The direction of the image information 110 is changed depending on the direction in which the user 201 spreads the right hand 101. Therefore, even if the user 201 changes the angle of the hand, the direction in which the image is projected with respect to the line of sight of the user 201 is always constant, so that the visibility of the image information 110 can be improved.

また、画像情報が投影される向きは、ユーザ201の音声(たとえば、『向かいの人に見えるようにして』など)やジェスチャーなどによる指示によって変更する(たとえば、画像情報の上下を反転するなど)ことができるようにしてもよい。これにより、ユーザ201だけでなく、隣や向かい側にいる他の者が画像情報を見やすくすることができる。 In addition, the direction in which the image information is projected is changed by the voice of the user 201 (for example, "make it visible to the opposite person") or an instruction by a gesture (for example, flipping the image information upside down). You may be able to do it. As a result, not only the user 201 but also other people next to or on the opposite side can easily see the image information.

手のひらの角度を変えたり、手のひらの位置が移動した場合は、画像投影装置200は、その変化を認識し、手のひらの角度や位置の変化に追従して、引き続き、画像情報を手のひらに投影し続けることができるようにする。したがって、ユーザ201からの投影終了の指示があるまでは、たとえば表示装置などに表示するのと同様に、連続して画像情報を手のひらに投影することができる。 When the angle of the palm is changed or the position of the palm is moved, the image projection device 200 recognizes the change, follows the change in the angle or position of the palm, and continuously projects the image information on the palm. To be able to. Therefore, until the user 201 gives an instruction to end the projection, the image information can be continuously projected on the palm of the hand, as in the case of displaying on a display device or the like, for example.

画像情報の寸法は、ユーザ201の手のひらの大きさ、形状などに基づいて決定されるようにしてもよい。手のひらに投影する場合の画像情報の寸法は、ユーザ201ごとにあらかじめ定められていてもよい。これにより、手のひらには常に同じ寸法の画像情報が表示されるので、ユーザ201は毎回、画像情報を見る際に違和感を感じることが少なくなる。 The dimensions of the image information may be determined based on the size, shape, and the like of the palm of the user 201. The dimensions of the image information when projected on the palm may be predetermined for each user 201. As a result, the image information having the same dimensions is always displayed on the palm, so that the user 201 is less likely to feel a sense of discomfort when viewing the image information each time.

また、画像情報の寸法は、ユーザ201の指示によって変更できるようにしてもよい。寸法の変更にかかるユーザ201の指示は、音声(たとえば『大きくして』あるいは『小さくして』と発声する)やジェスチャー(たとえば所望のサイズを指で差し示す)などであってもよい。 Further, the dimensions of the image information may be changed according to the instruction of the user 201. The instruction of the user 201 to change the dimension may be a voice (for example, saying "larger" or "smaller") or a gesture (for example, pointing at a desired size with a finger).

音声は、画像投影装置200などに搭載されたマイク706によって集音し、音声認識などによってユーザ201の指示を判断するようにしてもよい。ジェスチャーは、画像投影装置200などに搭載されたカメラ(後述する図6、図7に示すカメラ603)によって撮影し、画像認識などによってユーザ201の指示を判断するようにしてもよい。 The voice may be collected by a microphone 706 mounted on the image projection device 200 or the like, and the instruction of the user 201 may be determined by voice recognition or the like. The gesture may be taken by a camera mounted on the image projection device 200 or the like (camera 603 shown in FIGS. 6 and 7 described later), and the instruction of the user 201 may be determined by image recognition or the like.

画像受信の通知は、チャイム、アラーム、音声(『○○さんからメッセージが届いています』)などによっておこなわれる。音声は、後述する図7に示すスピーカー707あるいはユーザのイヤホンに出力することができる。 Notification of image reception is performed by chime, alarm, voice ("Message has arrived from Mr. XX"), etc. The voice can be output to the speaker 707 shown in FIG. 7, which will be described later, or the user's earphone.

また、画像受信の通知は、発光することや、所持品などを振動(バイブレーション)させることによって通知をおこなうようにしてもよい。さらには、ドローンプロジェクター200がユーザ201の目の前を飛行することによって通知するようにしてもよい。 Further, the notification of image reception may be given by emitting light or by vibrating the belongings or the like. Further, the drone projector 200 may be notified by flying in front of the user 201.

画像受信の通知があった場合、ユーザ201は、投影開始の指示をおこなう。投影開始の指示は、具体的には、たとえば、発声(『表示して』)あるいは所定のジェスチャーなどによっておこなうことができる。つぎに、ユーザ201は、投影位置の指示をおこなう。投影位置の指示は、具体的には、たとえば、発声(『左手の甲』)やジェスチャー(手のひらを上に向けて広げる。腕時計を見る仕草をする。指で所望位置を指し示す。)によっておこなわれる。 Upon receiving the notification of image reception, the user 201 gives an instruction to start projection. Specifically, the instruction to start projection can be given, for example, by vocalization (“displaying”) or a predetermined gesture. Next, the user 201 gives an instruction on the projection position. Specifically, the projection position is instructed by, for example, vocalization (“the back of the left hand”) or a gesture (spreading the palm upwards, making a gesture of looking at a wristwatch, and pointing to a desired position with a finger).

投影開始の指示と投影位置の指示は一連の動作であってもよい。(たとえば『左足の太ももに表示して』と発声する。また、左腕を右手の人差し指で指し示す。)このようにして、ユーザ201の意志を確認することができる。 The projection start instruction and the projection position instruction may be a series of operations. (For example, say "display on the thigh of the left foot". Also, point the left arm with the index finger of the right hand.) In this way, the intention of the user 201 can be confirmed.

図4は、ユーザ201の身体部位のうち、手のひら以外の部位に投影した例を示す。図4に示すように、表示する画像情報の表示形態によっては、たとえば、画像情報を左手の手首付近から腕部に沿って肩側へ、長く連続して表示するようにしてもよい。発明者は、このように腕をスクリーンとして用いることを『アームトップスクリーン(“ARM TOP SCREEN”)』と名付けた。 FIG. 4 shows an example of projection on a part of the body part of the user 201 other than the palm. As shown in FIG. 4, depending on the display form of the image information to be displayed, for example, the image information may be continuously displayed for a long time from the vicinity of the wrist of the left hand to the shoulder side along the arm portion. The inventor named the use of the arm as a screen in this way as an "arm top screen (" ARM TOP SCREEN ")".

図4において、アームトップスクリーン400は、画像情報の一例として地図情報を表示している。このように、腕の長さを利用して、比較的大きな画像を表示することができ、よりわかりやすいナビゲーション機能を実現することができる。アームトップスクリーン400は、地図情報のほか、腕を立てることによって、縦長の画像、たとえばチャット画面を長く(チャット数を多く)投影することができる。 In FIG. 4, the arm top screen 400 displays map information as an example of image information. In this way, the length of the arm can be used to display a relatively large image, and a more understandable navigation function can be realized. In addition to the map information, the arm top screen 400 can project a vertically long image, for example, a chat screen long (a large number of chats) by raising the arm.

(画像情報が投影される身体部位の一例)
画像情報が投影される身体部位は、ユーザ201が視認可能な身体部位であればよい。画像情報が投影される身体部位は、ユーザ201の手または腕であってもよい。ただし、手は、手のひらに限定されない。手のひらに限らず、具体的には、たとえば手の甲であってもよい(図示省略)。発明者は、手のひら以外の手の甲などをスクリーンとして用いることを「ハンドトップスクリーン(“HAND TOP SCREEN”)」と名付けた。
(An example of a body part on which image information is projected)
The body part on which the image information is projected may be a body part that can be visually recognized by the user 201. The body part on which the image information is projected may be the hand or arm of the user 201. However, the hand is not limited to the palm. Not limited to the palm, specifically, for example, the back of the hand may be used (not shown). The inventor named the use of the back of the hand other than the palm as a screen as a "hand top screen (" HAND TOP SCREEN ")".

また、画像情報が投影される身体部位は、たとえば指であってもよい。発明者は、指(ゆび)をスクリーンとしても用いることを「フィンガートップスクリーン(“FINGER TOP SCREEN”)」と名付けた。指において投影される部分は、手のひら側でもよく、手の甲側でもよく、その両方であってもよく、また、手のひら側と手の甲側の間の部分であってもよい。 Further, the body part on which the image information is projected may be, for example, a finger. The inventor named the use of a finger (yubi) as a screen as a "finger top screen (" FINGER TOP SCREEN ")". The portion projected on the finger may be the palm side, the back side of the hand, both of them, or the part between the palm side and the back side of the hand.

また、指には、たとえば1行ないし3行程度のメッセージなどの文字情報を指の長手方向に沿って表示することができる。各指にそれぞれ別々の文字情報を表示するようにしてもよく、各指に連続した文字情報などを表示するようにしてもよい。 Further, on the finger, character information such as a message of about one line or three lines can be displayed along the longitudinal direction of the finger. Separate character information may be displayed on each finger, or continuous character information or the like may be displayed on each finger.

また、「フィンガートップスクリーン」の一例として指の爪をスクリーンとする「ネイルトップスクリーン(“NAIL TOP SCREEN”)」が含まれていてもよい。このように、スクリーンとして肌よりも硬くて光沢がある爪を用いることで、画像をより鮮明に投影することができる。 Further, as an example of the "finger top screen", a "nail top screen (" NAIL TOP SCREEN ")" having a fingernail as a screen may be included. In this way, by using nails that are harder and glossier than the skin as the screen, the image can be projected more clearly.

画像情報の送信先によってどの指の爪に投影されるかをあらかじめ決めておくことによって、画像情報の送信先を瞬時にかつ直感的に把握することができる(右手の親指の爪はAさん、左手の中指の爪はBさんなど)ようにしてもよい。また、画像情報の内容に基づいて、どの指の爪に投影するかをあらかじめ決めておいてもよい。たとえば、緊急のメッセージは右手の親指の爪とするなどである。 By deciding in advance which fingernail is projected by the destination of the image information, the destination of the image information can be grasped instantly and intuitively (Mr. A, the thumb nail of the right hand). The nail of the middle finger of the left hand may be Mr. B, etc.). Further, it may be decided in advance which fingernail to project on based on the content of the image information. For example, an urgent message might be the thumb nail of your right hand.

また、画像情報が投影される身体部位であるユーザの手または腕の別の一例として、図5に示す手首であってもよい。発明者は、手首をスクリーンとして用いることを「リストトップスクリーン(“WRIST TOP SCREEN”)」と名付けた。 Further, as another example of the user's hand or arm, which is the body part on which the image information is projected, the wrist shown in FIG. 5 may be used. The inventor named the use of the wrist as a screen "Wrist TOP SCREEN".

図5に示すように、リストトップスクリーン500は、腕時計の表示位置とほぼ同じ位置に画像情報を投影する。したがって、ユーザは腕時計の表示を見る感覚と同様の感覚で、リストトップスクリーン500を見ることができる。リストトップスクリーン500は、図5に示したように手の甲側の手首であってもよく、その反対側の手のひら側の手首であってもよく、また、手の甲側と手のひら側の間の手首部分であってもよい。 As shown in FIG. 5, the list top screen 500 projects image information at substantially the same position as the display position of the wristwatch. Therefore, the user can see the wristwatch screen 500 as if he / she sees the display of the wristwatch. As shown in FIG. 5, the wrist top screen 500 may be the wrist on the back side of the hand, the wrist on the palm side on the opposite side thereof, or the wrist portion between the back side and the palm side. You may.

また、画像情報が投影される身体部位は、ユーザ201の脚または足であってもよい。たとえば、ユーザ201が座っている場合など、脚または足をスクリーンにすることによって、容易に投影された画像を見ることができる。 Further, the body part on which the image information is projected may be the leg or foot of the user 201. For example, when the user 201 is sitting, the projected image can be easily viewed by using the legs or feet as a screen.

具体的には、「ラップトップスクリーン(“LAP TOP SCREEN”)」(膝、あるいは、いすなどに座ったときの膝から股関節までの間の脚)、「レッグトップスクリーン(“LEG TOP SCREEN”)」(足を組んだときのふくらはぎなど、脚全体)、「フットトップスクリーン(“FOOT TOP SCREEN”)」(足の甲、足の裏(ソール(sole))、足の指など)であってもよい。足首(アンクル(ankle))は「レッグトップスクリーン」または「フットトップスクリーン」のいずれかに含まれる。 Specifically, "laptop screen (" LAP TOP SCREEN ")" (knee or leg between knee and hip joint when sitting on a chair), "leg top screen (" LEG TOP SCREEN ")) "(The entire leg, such as the calf when the legs are crossed)," Foot top screen (" FOOT TOP SCREEN") "(instep, sole, toes, etc.) May be good. The ankle is included in either the "leg top screen" or the "foot top screen".

脚または足は、手や腕に比べてスクリーンができる面積が比較的大きいため、画像をより大きく投影することができる。また、手や腕とともにスクリーンとして用いることによって、より多くの画像情報を見ることができる。 The legs or feet have a relatively large screen area compared to the hands and arms, so the image can be projected larger. Also, by using it as a screen together with the hands and arms, more image information can be seen.

また、指の爪と同様に、「フットトップスクリーン」の一例として足の爪をスクリーンとする「ネイルトップスクリーン」が含まれていてもよい。 Further, as with the fingernail, an "nail top screen" having the toenail as a screen may be included as an example of the "foottop screen".

また、画像情報が投影される身体部位は、通常は視認しづらいが、鏡などを用いることによって視認可能な身体部位であってもよい。 Further, the body part on which the image information is projected is usually difficult to see, but may be a body part that can be visually recognized by using a mirror or the like.

たとえば、ユーザ自身の顔(「フェイストップスクリーン(“FACE TOP SCREEN”)」、特に頬など)や、頭部(「ヘッドトップスクリーン(“HEAD TOP SCREEN”)」、特におでこ、あるいは頭髪が生えている部分など)、頸部(「ネックトップスクリーン(“NECK TOP SCREEN”)」)や、肩(ショルダートップスクリーン(“SHOULDER TOP SCREEN”)」などであってもよい。これらの名称は、いずれも発明者が名付けた。 For example, the user's own face (“FACE TOP SCREEN”, especially cheeks, etc.) and head (“HEAD TOP SCREEN””, especially with a forehead or hair. It may be a neck (“NECK TOP SCREEN”), a shoulder (shoulder top screen (“SHOULDER TOP SCREEN”), etc.), and all of these names may be used. Named by the inventor.

また、画像情報が投影される身体部位は、背中(「バックトップスクリーン(“BACK TOP SCREEN”)」)や、腹部(「アブトップスクリーン(”ABD TOP SCREEN”)」)などの体幹部や、臀部(「ヒップトップスクリーン(“HIP TOP SCREEN”)」など)であってもよい。これらの名称も、発明者が名付けた。 In addition, the body parts on which the image information is projected include the trunk such as the back (“BACK TOP SCREEN”) and the abdomen (“ABD TOP SCREEN”). It may be the buttocks (such as "hip top screen (" HIP TOP SCREEN ")"). These names were also named by the inventor.

鏡などを用いる場合は、鏡反転(画像の左右を反転させる)加工を施した画像情報を投影することができる。鼻(ノーズ(nose))や耳(イヤ(ear))は「フェイストップスクリーン」に含まれる。 When a mirror or the like is used, it is possible to project image information that has undergone mirror inversion (reversing the left and right of the image). The nose and ears are included in the "face top screen".

特に、ユーザ201自身の顔(「フェイストップスクリーン」)や頸部(「ネックトップスクリーン」)や肩(「ショルダートップスクリーン」)や頭部(「ヘッドトップスクリーン」)に鏡を用いて画像投影することによって、たとえば化粧をしながら、あるいは、洗髪や散髪をしながら、画像情報を確認することができる。 In particular, the image is projected on the user 201's own face (“face top screen”), neck (“neck top screen”), shoulders (“shoulder top screen”), and head (“head top screen”) using a mirror. By doing so, it is possible to check the image information while, for example, making up, washing the hair, or cutting the hair.

また、体幹部または臀部などである場合は、ユーザ201は、鏡で自身の全身などを見ながら、画像情報を確認することができる。 Further, in the case of the trunk or the buttocks, the user 201 can confirm the image information while looking at his / her whole body or the like with a mirror.

これらの応用として、画像情報を化粧や被服、装着品(眼鏡など)、装飾品(ネックレスなど)、タトゥーにかかる画像とすることができる。これらの画像情報を直接ユーザ201の身体部位に投影し、バーチャルな化粧や試着などを楽しむことができる。 As an application of these, the image information can be an image of makeup, clothing, wearing items (glasses, etc.), ornaments (necklace, etc.), and tattoos. It is possible to directly project these image information onto the body part of the user 201 and enjoy virtual makeup and fitting.

また、患部の位置などを身体部位における該当位置に表示するなど、外科手術の際に用いることができる。また、理想とするボディラインなどを直接身体に投影することによって、ダイエットの目標とすることもできる。 In addition, it can be used in surgical operations such as displaying the position of the affected area at the corresponding position on the body part. It can also be a diet goal by projecting an ideal body line directly onto the body.

このように、ユーザの全身の各部位をスクリーンとして用いることで、画像を見るに際して、スクリーンなど専用の装置を必要としない。また、ユーザは、表示画面を備えた情報端末装置を所持する必要もない(いわゆる「手ぶら(Empty-handed)」でよい)。 In this way, by using each part of the user's whole body as a screen, a dedicated device such as a screen is not required when viewing an image. Further, the user does not need to have an information terminal device provided with a display screen (so-called "empty-handed" may be used).

身体のどの部位に画像情報を投影するかは、ユーザの指示により選択される。ユーザの指示は音声(たとえば『右手の甲に表示して』や、『左手の手首』と発声するなど)や、ジェスチャー(たとえば投影を所望する位置を指さすなど)であってもよい。 The part of the body on which the image information is projected is selected according to the user's instruction. The user's instructions may be voice (eg, "display on the back of the right hand" or "left wrist") or gestures (eg, pointing to the desired position for projection).

また、画像情報の種類によって、画像情報が投影される身体部位が選択されるようにしてもよい。たとえば、秘密性の高い情報は、手のひらに表示し、手のひらの向きや角度、顔からの距離などを調整することによって、近くにいる者に画像内容が見られないようにすることもできる。 Further, depending on the type of image information, the body part on which the image information is projected may be selected. For example, highly confidential information can be displayed on the palm of the hand, and the orientation and angle of the palm, the distance from the face, and the like can be adjusted so that the image contents cannot be seen by nearby people.

また、ユーザの姿勢によって部位が選択されるようにしてもよい。いすなどに座っているときは、膝や脚などに投影することができる。また、片方の手で物を持っていたり、作業などをしている場合は、他方の手や他の身体部位に投影することができる。 Further, the portion may be selected according to the posture of the user. When sitting on a chair, it can be projected onto the knees and legs. Also, if you are holding an object with one hand or working, you can project it on the other hand or another body part.

画像情報の投影は、直接、ユーザの身体部位の肌に投影してもよく、衣服などを着用している場合は、当該衣服(着衣)に投影してもよい。肌に投影する場合と、衣服に投影する場合とで、投影方法(色、光度など)を変更することができる。また、衣服の種類(素材、色など)によっても変更することができる。それらの違いは、画像投影装置に搭載されているカメラによって撮影した画像を解析することで、判断することができる。 The projection of the image information may be directly projected on the skin of the user's body part, or may be projected on the clothes (clothes) when wearing clothes or the like. The projection method (color, luminosity, etc.) can be changed depending on whether the projection is on the skin or on clothes. It can also be changed depending on the type of clothing (material, color, etc.). The difference between them can be determined by analyzing the image taken by the camera mounted on the image projection device.

(画像投影装置200の外観の一例)
つぎに、この発明にかかる実施の形態の画像投影装置の外観の一例について説明する。図6は、画像投影装置の外観の一例を示す説明図である。図6に示すように、画像投影装置(ドローンプロジェクター)200は、プロジェクター(投影部)601と、ドローン(無人航空機)602と、カメラ603と、人感センサー604と、を備えている。すなわち、プロジェクター601と、カメラ603と、人感センサー604が、ドローン602に搭載されている。
(An example of the appearance of the image projection device 200)
Next, an example of the appearance of the image projection device according to the embodiment of the present invention will be described. FIG. 6 is an explanatory diagram showing an example of the appearance of the image projection device. As shown in FIG. 6, the image projection device (drone projector) 200 includes a projector (projection unit) 601, a drone (unmanned aerial vehicle) 602, a camera 603, and a motion sensor 604. That is, the projector 601 and the camera 603 and the motion sensor 604 are mounted on the drone 602.

プロジェクター601は、プロジェクター光源、光学系、投影レンズなどを備えている(いずれも図示を省略する)。プロジェクター601は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ601aを介してプロジェクター601の外部に照射することによって、光が照射された場所に画像を投影する。 The projector 601 includes a projector light source, an optical system, a projection lens, and the like (all of which are not shown). The projector 601 guides the light emitted from the projector light source to a predetermined path by an optical system and irradiates the outside of the projector 601 through the projection lens 601a to project an image on the irradiated place.

光学系は、プロジェクター光源から発した光の照度の均一性を高めるインテグレーターレンズ、非偏光光源から出射する光を所定の偏光方向に変換(偏光)する偏光変換素子、プロジェクター光からの光をR・G・Bの三原色に分離するダイクロイック・ミラー、R・G・Bの各色の光に応じた画像を表示する液晶パネル、各液晶パネルが表示した各色の画像を合成するダイクロイック・プリズムなどによって構成される(いずれも図示を省略する)。 The optical system consists of an integrator lens that enhances the uniformity of the illuminance of the light emitted from the projector light source, a polarization conversion element that converts (polarizes) the light emitted from the non-polarized light source into a predetermined polarization direction, and R. It is composed of a dichroic mirror that separates into the three primary colors of GB, a liquid crystal panel that displays images corresponding to the light of each color of R, GB, and a dichroic prism that synthesizes images of each color displayed by each liquid crystal panel. (In each case, the illustration is omitted).

プロジェクター601としては、たとえば、プロジェクター光源にレーザーを採用したレーザー方式のプロジェクターを用いることができる。レーザー方式のプロジェクターを用いることにより、プロジェクター601の小型化を図ることができる。 As the projector 601 for example, a laser type projector that employs a laser as a projector light source can be used. By using a laser type projector, the size of the projector 601 can be reduced.

具体的に、レーザー方式のプロジェクターは、プロジェクター光源に水銀ランプを採用した水銀ランプ方式のプロジェクターよりも発熱を低く抑えることができるため、冷却ファンなどの機構を省くことによる小型化および軽量化を図ることができる。 Specifically, a laser-type projector can suppress heat generation lower than a mercury lamp-type projector that uses a mercury lamp as the projector light source, so it is possible to reduce the size and weight by omitting a mechanism such as a cooling fan. be able to.

また、レーザー方式のプロジェクターを用いることにより、迅速に起動して画像の投影を開始することができる。また、レーザー方式のプロジェクターを用いることにより、水銀ランプ方式のプロジェクターよりも、消費電力を抑えつつ、投影される画像の高輝度化を図ることができる。 Further, by using a laser type projector, it is possible to start up quickly and start projecting an image. Further, by using the laser type projector, it is possible to increase the brightness of the projected image while suppressing the power consumption as compared with the mercury lamp type projector.

水銀ランプ方式のプロジェクターは、投影(光軸)方向が水平方向になる状態で使用することが推奨されているため投影方向の自由度が制限される一方で、レーザー方式のプロジェクターは、光軸を水平方向に対して傾けた状態で使用することができる。このため、レーザー方式のプロジェクターは、投影方向の高い自由度を確保することができ、壁面のみならず地面・床面にも画像を投影することができる。 Since it is recommended to use a mercury lamp type projector in a state where the projection (optical axis) direction is horizontal, the degree of freedom in the projection direction is limited, while a laser type projector uses an optical axis. It can be used in a state of being tilted with respect to the horizontal direction. Therefore, the laser type projector can secure a high degree of freedom in the projection direction, and can project an image not only on the wall surface but also on the ground / floor surface.

ドローン602は、プロジェクター601を移動させる。無人航空機などと称されるドローン602によってプロジェクター601を移動させることにより、プロジェクター601による画像の投影場所を移動させることができる。 The drone 602 moves the projector 601. By moving the projector 601 by a drone 602 called an unmanned aerial vehicle or the like, the projection location of the image by the projector 601 can be moved.

ドローン602は、具体的には、たとえば、4つのプロペラ605を備えたクアッドコプターを採用することができる。ドローン602は、クアッドコプターに限るものではなく、6つのプロペラを備えたヘキサコプター、8つのプロペラを備えたオクトコプターなど、各種のマルチコプターを採用することができる。 Specifically, the drone 602 can employ, for example, a quadcopter equipped with four propellers 605. The drone 602 is not limited to a quadcopter, and various multicopters such as a hexacopter equipped with six propellers and an octocopter equipped with eight propellers can be adopted.

プロジェクター601は、ドローン602に固定されており、ドローン602の移動(飛行)にともなって移動する。プロジェクター601は、ドローン602に対して、姿勢調整が可能な状態で連結されていてもよい。 The projector 601 is fixed to the drone 602 and moves with the movement (flying) of the drone 602. The projector 601 may be connected to the drone 602 in a state in which the posture can be adjusted.

具体的には、たとえば、プロジェクター601は、ドローン602の底面部にボールジョイントなどの自在継手を介して連結することができる。プロジェクター601を、ボールジョイントなどの自在継手を介してドローン602に連結することにより、プロジェクター601の姿勢の調整にかかる高い自由度を確保することができる。 Specifically, for example, the projector 601 can be connected to the bottom surface of the drone 602 via a universal joint such as a ball joint. By connecting the projector 601 to the drone 602 via a universal joint such as a ball joint, it is possible to secure a high degree of freedom in adjusting the posture of the projector 601.

この場合、画像投影装置200は、ドローン602に対するプロジェクター601の姿勢を人手を介さずに調整するために、ドローン602に対するプロジェクター601の姿勢を変化させる駆動機構を備えていてもよい。 In this case, the image projection device 200 may include a drive mechanism that changes the posture of the projector 601 with respect to the drone 602 in order to adjust the posture of the projector 601 with respect to the drone 602 without human intervention.

駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローン602に対するプロジェクター601の姿勢を調整可能とすることにより、画像を投影する場所に応じた最適な角度で画像を投影することができる。 The drive mechanism can be configured by, for example, a motor, a gear train, or the like. By making it possible to adjust the posture of the projector 601 with respect to the drone 602, it is possible to project the image at an optimum angle according to the place where the image is projected.

カメラ603は、図2に示したユーザ201の画像を撮影したり、また、プロジェクター601が投影した画像を撮影する。カメラ603は、具体的には、たとえば、汎用的なデジタルカメラによって実現することができる。カメラ603は、たとえば、プロジェクター601による画像の投影方向と同じ方向にレンズ603aを向けた状態で、ドローン602に固定される。 The camera 603 captures an image of the user 201 shown in FIG. 2 and also captures an image projected by the projector 601. Specifically, the camera 603 can be realized by, for example, a general-purpose digital camera. The camera 603 is fixed to the drone 602, for example, with the lens 603a directed in the same direction as the image projected by the projector 601.

カメラ603は、プロジェクター601による画像の投影方向に対する、レンズを向ける方向を調整可能な状態でドローン602に連結されていてもよい。図6においては、カメラ603をドローン602に連結する軸部分を中心として、カメラ603を回動させることができる。 The camera 603 may be connected to the drone 602 in a state in which the direction in which the lens is directed with respect to the projection direction of the image by the projector 601 can be adjusted. In FIG. 6, the camera 603 can be rotated around a shaft portion connecting the camera 603 to the drone 602.

カメラ603は、ドローン602の底面部にボールジョイントなどの自在継手を介して連結してもよい。カメラ603を、ボールジョイントなどの自在継手を介してドローン602に連結することにより、カメラ603の姿勢の調整にかかる高い自由度を確保することができる。 The camera 603 may be connected to the bottom surface of the drone 602 via a universal joint such as a ball joint. By connecting the camera 603 to the drone 602 via a universal joint such as a ball joint, it is possible to secure a high degree of freedom in adjusting the posture of the camera 603.

この場合、画像投影装置200は、レンズ603aを向ける方向を人手を介さずに調整するために、ドローン602に対するカメラ603の姿勢を変化させる駆動機構を備えていてもよい。駆動機構は、たとえば、モーターやギア列などによって構成することができる。 In this case, the image projection device 200 may include a drive mechanism that changes the posture of the camera 603 with respect to the drone 602 in order to adjust the direction in which the lens 603a is directed without human intervention. The drive mechanism can be configured by, for example, a motor, a gear train, or the like.

プロジェクター601による画像の投影方向に対する、レンズ603aを向ける方向を調整可能とすることにより、1台のカメラ603を用いて、プロジェクター601が投影した画像を撮影したり、画像投影装置200の周囲の画像を撮影したりすることができる。 By making it possible to adjust the direction in which the lens 603a is directed with respect to the projection direction of the image by the projector 601, one camera 603 can be used to capture an image projected by the projector 601 or an image around the image projection device 200. Can be photographed.

画像投影装置200において、ドローン602に対するプロジェクター601の姿勢を調整する駆動機構と、ドローン602に対するカメラ603の姿勢を調整する駆動機構とは、それぞれ独立して動作するものであってもよい。これにより、プロジェクター601により画像を投影しながら、投影した画像をカメラ603により撮影することができる。また、当該カメラ603の姿勢を調整して画像の投影方向とは異なる方向を撮影することができる。 In the image projection device 200, the drive mechanism for adjusting the posture of the projector 601 with respect to the drone 602 and the drive mechanism for adjusting the posture of the camera 603 with respect to the drone 602 may operate independently of each other. As a result, the projected image can be captured by the camera 603 while the image is projected by the projector 601. Further, the posture of the camera 603 can be adjusted to take a picture in a direction different from the projection direction of the image.

カメラ603は、汎用的なデジタルカメラに限るものではなく、たとえば、光に対して感度を増幅させることによって暗い場所を撮影する暗視カメラや、赤外線に感度を有する赤外線カメラによって実現してもよい。 The camera 603 is not limited to a general-purpose digital camera, and may be realized by, for example, a night-vision camera that captures a dark place by amplifying the sensitivity to light, or an infrared camera that has sensitivity to infrared rays. ..

このようなカメラ603を搭載することにより、夜間であっても、撮像補助用の光源を用いることなく、ユーザおよびユーザの任意の部位や、プロジェクター601が投影した画像を鮮明に撮影することができる。これによって、画像投影装置200の重量や消費電力の増大を抑制することができる。 By mounting such a camera 603, it is possible to clearly capture the user, any part of the user, and the image projected by the projector 601 even at night without using a light source for assisting imaging. .. This makes it possible to suppress an increase in the weight and power consumption of the image projection device 200.

人感センサー604は、画像投影装置200から所定範囲内に存在するユーザを検出する。ユーザは、画像投影装置200が投影する画像を視覚させる対象となる。人感センサー604は、具体的には、たとえば、赤外線センサーによって実現することができる。 The motion sensor 604 detects a user who is within a predetermined range from the image projection device 200. The user is the target for visualizing the image projected by the image projection device 200. Specifically, the motion sensor 604 can be realized by, for example, an infrared sensor.

赤外線センサーは、ユーザなどの被検知体が放射する赤外線を、受光素子が吸収することによる温度上昇(温度変化)を温度センサーで検出し、所定の電気信号を出力する。赤外線センサーを用いることにより、視覚者の有無および当該視覚者の移動を検出することができる。 The infrared sensor detects a temperature rise (temperature change) caused by the light receiving element absorbing infrared rays radiated by an object to be detected such as a user, and outputs a predetermined electric signal. By using an infrared sensor, it is possible to detect the presence or absence of a visual person and the movement of the visual person.

赤外線センサーによって実現される人感センサー604によるユーザの検出範囲は、たとえば、赤外線センサーの感度、センサー素子(画素)の数や配置形状、センサー素子(画素)が感知した電流の増幅率などを調整することにより、調整することができる。 The user's detection range realized by the infrared sensor adjusts, for example, the sensitivity of the infrared sensor, the number and arrangement shape of the sensor elements (pixels), the amplification factor of the current sensed by the sensor elements (pixels), and the like. By doing so, it can be adjusted.

人感センサー604は、赤外線センサーによって実現されるものに限らず、たとえば、超音波や可視光などを用いてユーザ201を検出するものであってもよく、赤外線と超音波とを組み合わせた方式によりユーザ201を検出するものであってもよい。 The motion sensor 604 is not limited to the one realized by the infrared sensor, and may be, for example, the one that detects the user 201 by using ultrasonic waves, visible light, or the like, by a method that combines infrared rays and ultrasonic waves. It may be the one that detects the user 201.

このように、画像投影装置200は、屋内、屋外において、飛行することで空間における位置を移動することができるドローンプロジェクターである。このドローンプロジェクターは、個人専用のドローンプロジェクターであってもよく、また、複数のユーザで共有する公共のドローンプロジェクターであってもよい。 As described above, the image projection device 200 is a drone projector capable of moving a position in space by flying indoors or outdoors. The drone projector may be a personal drone projector or a public drone projector shared by a plurality of users.

(画像投影装置200のハードウエア構成)
つぎに、画像投影装置200のハードウエア構成について説明する。図7は、画像投影装置200のハードウエア構成を示す説明図である。
(Hardware configuration of image projection device 200)
Next, the hardware configuration of the image projection device 200 will be described. FIG. 7 is an explanatory diagram showing a hardware configuration of the image projection device 200.

図7に示すように、画像投影装置200のハードウエアは、バッテリー701、制御回路702、通信I/F703、GPS受信機704、モーター705、プロジェクター601、カメラ603、人感センサー604、マイク706、スピーカー707などによって構成される。画像投影装置200が備える各部601、603、604、701~707は、バス700によって接続されている。 As shown in FIG. 7, the hardware of the image projection device 200 includes a battery 701, a control circuit 702, a communication I / F 703, a GPS receiver 704, a motor 705, a projector 601 and a camera 603, a motion sensor 604, and a microphone 706. It is composed of speakers 707 and the like. Each unit 601, 603, 604, 701 to 707 included in the image projection device 200 is connected by a bus 700.

バッテリー701は、画像投影装置200が備える各部の動作に要する電源を供給する。バッテリー701は、たとえば、リチウム電池などの二次電池(充電式電池、蓄電池)によって実現することができる。二次電池によって実現されるバッテリー701は、ドローン602に対して着脱可能であってもよい。 The battery 701 supplies power required for the operation of each part of the image projection device 200. The battery 701 can be realized by, for example, a secondary battery (rechargeable battery, storage battery) such as a lithium battery. The battery 701 realized by the secondary battery may be detachable from the drone 602.

また、画像投影装置200は、バッテリー701の充電のための充電用接点を備えていてもよい。充電用接点は、たとえば、端子が露出した形状であってもよく、コネクタ形状であってもよい。 Further, the image projection device 200 may include a charging contact for charging the battery 701. The charging contact may have, for example, a shape with exposed terminals or a connector shape.

画像投影装置200は、バッテリー701の充電のための充電用接点に代えて、あるいは、加えて、ワイヤレス電力伝送(Wireless Power Transfer、Contactless Power Transmission)における受電コイルを備えていてもよい。 The image projection device 200 may include a power receiving coil in place of or in addition to the charging contact for charging the battery 701 in wireless power transfer (Wireless Power Transfer, Contactless Power Transfer).

ワイヤレス給電は、バッテリー701に対して、充電用接点を介することなく電力を受電する技術であって、非接触給電あるいは無線給電などとも称される。受電コイルは、ドローン602の外装面よりも内側に設けられている。これにより、雨露などの水滴による画像投影装置200の劣化や故障を回避することができる。なおバッテリー701は、直流電力の放電のみをおこなう一次電池によって実現してもよい。 Wireless power transfer is a technique for receiving electric power to the battery 701 without going through a charging contact, and is also called non-contact power supply or wireless power supply. The power receiving coil is provided inside the exterior surface of the drone 602. This makes it possible to avoid deterioration and failure of the image projection device 200 due to water droplets such as rain and dew. The battery 701 may be realized by a primary battery that discharges only DC power.

制御回路702は、CPUやメモリなどによって構成され、画像投影装置200が備える各部を駆動制御する。CPUは、メモリに記憶されたプログラムを実行することによって、画像投影装置200の装置全体の制御をつかさどる。メモリは、CPUが実行するプログラムを記憶する。また、メモリは、たとえば、投影する画像に関する画像情報を含む各種情報を記憶する。 The control circuit 702 is composed of a CPU, a memory, and the like, and drives and controls each part of the image projection device 200. The CPU controls the entire device of the image projection device 200 by executing a program stored in the memory. The memory stores a program executed by the CPU. Further, the memory stores various information including image information regarding the image to be projected, for example.

メモリは、具体的には、たとえば、ICメモリやSSD(Solid State Drive)などによって実現することができる。また、メモリは、画像投影装置200に対して、画像投影装置200に設けられたカードスロットを介して着脱可能なメモリカードであってもよい。 Specifically, the memory can be realized by, for example, an IC memory or an SSD (Solid State Drive). Further, the memory may be a memory card that can be attached to and detached from the image projection device 200 via a card slot provided in the image projection device 200.

メモリカードは、たとえば、SD(Secure Digital)メモリカードなどのICカードによってその機能を実現することができる。メモリは、外付けのハードディスクやUSBメモリなどによって、その機能を実現するようにしてもよい。 The function of the memory card can be realized by an IC card such as an SD (Secure Digital) memory card. The memory may realize its function by an external hard disk, a USB memory, or the like.

制御回路702は、具体的には、たとえば、フライトコントローラやESC(Electronic Speed Controller)などを備えている。制御回路702は、さらに、BEC(Battery Elimination Circuit)やUBEC(Universal BEC)を備えていてもよい。また、バッテリー701を二次電池によって実現する場合、制御回路702は、バッテリー701への充電(蓄電)をおこなう充電回路を含んでいてもよい。 Specifically, the control circuit 702 includes, for example, a flight controller, an ESC (Electronic Speed Controller), and the like. The control circuit 702 may further include a BEC (Battery Elimination Circuit) or a UBEC (Universal BEC). Further, when the battery 701 is realized by a secondary battery, the control circuit 702 may include a charging circuit for charging (storage) the battery 701.

フライトコントローラは、モーター705の回転制御にかかる演算をおこない、制御信号を出力する。ESCは、フライトコントローラから出力された制御信号に基づきモーター705を回転制御する。フライトコントローラは、画像投影装置200の飛行中、画像投影装置200の傾きなどを検知して演算を繰り返しおこない、モーター705に対する制御信号を再帰的に出力する。 The flight controller performs an operation related to the rotation control of the motor 705 and outputs a control signal. The ESC rotates and controls the motor 705 based on the control signal output from the flight controller. During the flight of the image projection device 200, the flight controller detects the tilt of the image projection device 200 and repeats the calculation, and recursively outputs the control signal to the motor 705.

フライトコントローラは、ESCに対して、プロペラ(プロペラのモーター705)の回転方向や回転数を制御する制御信号を出力する。具体的には、たとえば、隣り合うプロペラどうしを逆回転させるように制御する制御信号を出力することによって画像投影装置200の回転を防止する。 The flight controller outputs a control signal for controlling the rotation direction and rotation speed of the propeller (propeller motor 705) to the ESC. Specifically, for example, the rotation of the image projection device 200 is prevented by outputting a control signal for controlling the adjacent propellers to rotate in the reverse direction.

また、たとえば、進行方向前方のプロペラを進行方向後方のプロペラよりも遅く回転させるように制御することによって画像投影装置200を前進させる。また、たとえば、進行方向右側のプロペラを進行方向左側のプロペラよりも遅く回転させるように制御することによって画像投影装置200を右方向に旋回させる。 Further, for example, the image projection device 200 is advanced by controlling the propeller in the front in the traveling direction to rotate slower than the propeller in the rear in the traveling direction. Further, for example, the image projection device 200 is rotated to the right by controlling the propeller on the right side in the traveling direction to rotate slower than the propeller on the left side in the traveling direction.

また、制御回路702は、具体的には、たとえば、プロジェクター601が投影する画像にかかる画像処理に特化したGPU(Graphics Processing Unit)を含んでいる。GPUを備えることにより、動きの速い動画などを高画質で投影することができる。 Further, the control circuit 702 specifically includes, for example, a GPU (Graphics Processing Unit) specialized in image processing related to an image projected by the projector 601. By providing a GPU, it is possible to project a fast-moving moving image with high image quality.

通信I/F703は、通信回線を通じて画像投影装置200とネットワークNとを接続するインタフェースであって、ネットワークNと画像投影装置200の内部とのインタフェースをつかさどり、ネットワークNを介して接続されている外部装置からのデータの入力および外部装置へのデータの出力を制御する。ネットワークNは、たとえば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現される。 The communication I / F 703 is an interface that connects the image projection device 200 and the network N through a communication line, controls the interface between the network N and the inside of the image projection device 200, and is connected via the network N. Controls the input of data from the device and the output of data to the external device. The network N is realized by, for example, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), and the like.

通信I/F703は、たとえば、Wi-Fi(登録商標)による無線インタフェースである。また、通信I/F703は、携帯電話回線(たとえばLTE(Long Term Evolution)、PHS(Personal Handy-phone System)などの無線通信のインタフェースであってもよい。 The communication I / F703 is, for example, a Wi-Fi® wireless interface. Further, the communication I / F703 may be an interface for wireless communication such as a mobile phone line (for example, LTE (Long Term Evolution), PHS (Personal Handy-phone System)).

制御回路702は、通信I/F703を介して外部装置と通信をおこなうことにより、たとえば、投影対象とする画像に関する画像情報を含む各種情報を、当該外部装置から取得することができる。また、制御回路702は、外部装置から各種情報を取得するごとに、取得した情報をメモリに記憶したり、取得した情報に基づいてメモリの記憶内容を更新したりしてもよい。 The control circuit 702 can acquire various information including image information about the image to be projected from the external device by communicating with the external device via the communication I / F 703. Further, the control circuit 702 may store the acquired information in the memory or update the stored contents of the memory based on the acquired information each time various information is acquired from the external device.

GPS受信機704は、画像投影装置200の現在位置を特定する。GPS受信機704は、具体的には、たとえば、GPSアンテナ、RF(Radio Frequency)部、ベースバンド部などを備えている。GPSアンテナは、GPS衛星が放送する電波を受信する。RF部は、GPSアンテナが受信した変調前の信号をベースバンド信号に復調する。ベースバンド部は、RF部が復調したベースバンド信号に基づいて画像投影装置200の現在位置を算出する。 The GPS receiver 704 identifies the current position of the image projection device 200. Specifically, the GPS receiver 704 includes, for example, a GPS antenna, an RF (Radio Frequency) unit, a baseband unit, and the like. The GPS antenna receives radio waves broadcast by GPS satellites. The RF unit demodulates the unmodulated signal received by the GPS antenna into a baseband signal. The baseband unit calculates the current position of the image projection device 200 based on the baseband signal demodulated by the RF unit.

GPS受信機704は、さらに、不要成分を除去するフィルタや、LNA(Low Noise Amplifier)やパワーアンプPA(Power Amplifier)などの増幅器を備えていてもよい。 The GPS receiver 704 may further include a filter for removing unnecessary components and an amplifier such as an LNA (Low Noise Amplifier) or a power amplifier PA (Power Amplifier).

画像投影装置200の現在位置は、複数のGPS衛星から送信される電波に基づく測位によって特定することができる。ベースバンド部は、4機のGPS衛星との距離をそれぞれ算出し、それぞれの距離が一つに交わる位置を算出することによって測位をおこなう。GPS衛星から受信した電波に基づいて、GPS衛星と画像投影装置200との幾何学的位置を求めるGPSに代えて、みちびき、グローナス(GLONASS)、ガリレオ(Galileo)などの衛星測位システムを用いて画像投影装置200の現在位置を特定してもよい。 The current position of the image projection device 200 can be specified by positioning based on radio waves transmitted from a plurality of GPS satellites. The baseband unit calculates the distances to each of the four GPS satellites, and performs positioning by calculating the position where each distance intersects with one. Images using satellite positioning systems such as Michibiki, GLONASS, and Galileo instead of GPS, which determines the geometrical position of the GPS satellite and the image projection device 200 based on the radio waves received from the GPS satellites. The current position of the projection device 200 may be specified.

モーター705は、制御回路702によって制御され、回転することによってプロペラ605を回転させる。モーター705は、具体的には、たとえば、回転子が永久磁石であって、固定子がコイルによって構成されるブラシレスモーターを使用することができる。モーター705は、プロペラ605の数と同数設けることができる。これにより、各プロペラ605をそれぞれ独立して回転させ、画像投影装置200を前進させたり、後進させたり左右方向に旋回させたりすることができる。 The motor 705 is controlled by the control circuit 702 and rotates to rotate the propeller 605. Specifically, as the motor 705, a brushless motor in which the rotor is a permanent magnet and the stator is composed of a coil can be used. The number of motors 705 can be the same as the number of propellers 605. As a result, each propeller 605 can be rotated independently, and the image projection device 200 can be moved forward, backward, or swiveled in the left-right direction.

プロジェクター601やカメラ603の姿勢を調整する駆動機構を備えている場合、制御回路702は、これらの駆動機構がそれぞれ備えるモーター705の動作も制御する。これにより、画像投影装置200は移動しながら、プロジェクター601やカメラ603の姿勢をそれぞれ独立(個別)に調整することができる。 When a drive mechanism for adjusting the posture of the projector 601 or the camera 603 is provided, the control circuit 702 also controls the operation of the motor 705 included in each of these drive mechanisms. As a result, the image projection device 200 can independently (individually) adjust the postures of the projector 601 and the camera 603 while moving.

上記のように、プロジェクター601は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ601aを介してプロジェクター601の外部に照射することによって、光が照射された場所に画像を投影する。プロジェクター601は、画像を投影する位置からの距離に応じて、プロジェクター光源から発する光の強度を調整することにより、投影される画像の画質を調整するようにしてもよい。 As described above, the projector 601 guides the light emitted from the projector light source to a predetermined path by an optical system and irradiates the outside of the projector 601 via the projection lens 601a to produce an image at a place where the light is irradiated. Project. The projector 601 may adjust the image quality of the projected image by adjusting the intensity of the light emitted from the projector light source according to the distance from the position where the image is projected.

プロジェクター601と、画像を投影する位置との間の距離は、たとえば、距離センサーを用いて特定することができる。距離センサーは、たとえば、レーザー距離センサー、超音波センサー、赤外線センサーなど公知の各種のセンサーを用いることができる。 The distance between the projector 601 and the position where the image is projected can be specified, for example, by using a distance sensor. As the distance sensor, various known sensors such as a laser distance sensor, an ultrasonic sensor, and an infrared sensor can be used.

カメラ603は、撮像素子を備え、撮像素子が撮影レンズを通して受光した光を電気信号に変換することによって、画像情報(撮影データ)を生成する。生成した画像情報は、制御回路702に出力される。カメラ603は、静止画を撮影するものであってもよく、動画を撮影するものであってもよい。 The camera 603 includes an image pickup element, and generates image information (shooting data) by converting the light received by the image pickup element through the photographing lens into an electric signal. The generated image information is output to the control circuit 702. The camera 603 may capture a still image or may capture a moving image.

動画は、所定時間間隔で撮影された静止画を連続して再生するものを含む。画像情報は、所定の動画・音声データの圧縮方式の標準規格(たとえば、MPEG(Moving Picture Experts Group)など)によって圧縮されたものであってもよい。 The moving image includes a continuous reproduction of still images taken at predetermined time intervals. The image information may be compressed by a standard of a predetermined video / audio data compression method (for example, MPEG (Moving Picture Experts Group) or the like).

人感センサー604は、受光素子が赤外線を吸収することによる温度変化に応じた電気信号を、制御回路702に対して出力する。具体的に、人感センサー604は、たとえば、温度変化に応じた電流信号を電圧信号に変換して増幅し、増幅した電圧信号が所定の閾値を超えた場合に、制御回路702に対して所定の電気信号を出力する。制御回路702は、人感センサー604から出力された所定の電気信号の入力を受け付けた場合に、ユーザ201を検出する。 The motion sensor 604 outputs an electric signal corresponding to the temperature change due to the light receiving element absorbing infrared rays to the control circuit 702. Specifically, the human sensor 604 converts a current signal corresponding to a temperature change into a voltage signal and amplifies it, and when the amplified voltage signal exceeds a predetermined threshold value, the human sensor 604 determines the control circuit 702. Outputs the electrical signal of. The control circuit 702 detects the user 201 when the input of the predetermined electric signal output from the motion sensor 604 is received.

マイク706は、画像投影装置200の周囲の音声を集音する。マイク706は、アナログデータとして入力された音声を電気信号に変換する。具体的に、マイク706は、アナログデータとして入力されたアナログの音声信号を、アナログ/デジタル変換し、デジタル形式の音声データを生成する。 The microphone 706 collects sound around the image projection device 200. The microphone 706 converts the voice input as analog data into an electric signal. Specifically, the microphone 706 converts an analog audio signal input as analog data into analog / digital to generate digital audio data.

スピーカー707は、音声信号である電気信号によって振動板を振動させて音を発生させる。また、スピーカー707は、音声信号を出力する出力端子であってもよく、当該出力端子に外部スピーカーを接続して、音を発生させるようにしてもよい。 The speaker 707 vibrates the diaphragm by an electric signal which is an audio signal to generate sound. Further, the speaker 707 may be an output terminal that outputs an audio signal, and an external speaker may be connected to the output terminal to generate sound.

画像投影装置200は、その他、図示は省略するが、画像投影装置200の状態を案内するLEDランプや、画像投影装置200に対する入力指示をおこなうキーまたはボタンなどの入出力デバイスなどを備えていてもよい。入出力デバイスは、他の情報処理装置を接続可能な接続端子などによって実現されるものであってもよい。 Although the image projection device 200 is not shown, the image projection device 200 may include an LED lamp for guiding the state of the image projection device 200, an input / output device such as a key or a button for giving an input instruction to the image projection device 200, and the like. good. The input / output device may be realized by a connection terminal or the like to which another information processing device can be connected.

また、画像投影装置200は、カードスロットを介して画像投影装置200と接続されるインタフェースであるメモリカードI/Fを備えていてもよい。メモリカードI/Fは、メモリカードと内部のインタフェースをつかさどり、メモリカードからのデータの入力およびメモリカードへのデータの出力を制御する。 Further, the image projection device 200 may include a memory card I / F, which is an interface connected to the image projection device 200 via the card slot. The memory card I / F controls the memory card and the internal interface, and controls the input of data from the memory card and the output of data to the memory card.

これにより、画像投影装置200が投影する画像をメモリカードに記憶しておき、メモリカードを交換するだけで画像投影装置200が投影する画像を切り替えることができる。 As a result, the image projected by the image projection device 200 can be stored in the memory card, and the image projected by the image projection device 200 can be switched by simply exchanging the memory card.

(画像投影装置200の機能的構成の一例)
つぎに、画像投影装置200の機能的構成の一例について説明する。図8は、画像投影装置200の機能的構成の一例を示すブロック図である。
(An example of the functional configuration of the image projection device 200)
Next, an example of the functional configuration of the image projection device 200 will be described. FIG. 8 is a block diagram showing an example of the functional configuration of the image projection device 200.

図8に示すように、この発明にかかる実施の形態の画像投影装置200の機能は、ユーザ指示受付部801と、投影対象ユーザ特定部802と、身体部位情報取得部803と、投影画像情報取得部804と、身体部位特定部805と、投影位置・投影寸法決定部806と、警告出力部807と、移動位置・投影角度決定部808と、移動・投影角度制御部809と、画像情報投影部810と、投影画像撮影部811、指示出力部812と、によって実現される。したがって、これらの構成部801~812によって、画像投影装置200の制御部の機能を実現することができる。 As shown in FIG. 8, the functions of the image projection device 200 according to the embodiment of the present invention are the user instruction reception unit 801, the projection target user identification unit 802, the body part information acquisition unit 803, and the projection image information acquisition. Unit 804, body part identification unit 805, projection position / projection dimension determination unit 806, warning output unit 807, movement position / projection angle determination unit 808, movement / projection angle control unit 809, and image information projection unit. It is realized by the 810, the projection image capturing unit 811 and the instruction output unit 812. Therefore, the functions of the control unit of the image projection device 200 can be realized by these components 801 to 812.

ユーザ指示受付部801は、ユーザ201に対する画像情報の投影指示を受け付ける。そして、受け付けた投影指示を投影対象ユーザ特定部802へ出力する。ユーザ指示受付部801は、具体的には、たとえば、図6、図7に示したカメラ603、マイク706、図7に示した制御回路702、通信I/F703などによってその機能を実現することができる。ユーザ指示受付部801は、投影終了の指示を受け付けることができる。受け付け投影終了の指示を画像情報投影部810へ出力する。 The user instruction receiving unit 801 receives a projection instruction of image information to the user 201. Then, the received projection instruction is output to the projection target user identification unit 802. Specifically, the user instruction receiving unit 801 can realize its function by, for example, the camera 603 and the microphone 706 shown in FIGS. 6 and 7, the control circuit 702 shown in FIG. 7, the communication I / F 703, and the like. can. The user instruction receiving unit 801 can receive an instruction to end the projection. The instruction of the end of acceptance projection is output to the image information projection unit 810.

また、ユーザ指示受付部801は、投影されている画像情報に対する各種操作指示を受け付けることができる。受け付けた各種指示は、指示出力部812から外部へ出力(送信)することができる。なお、ユーザからの各種指示の全部または一部は、画像投影装置200を介することなく、直接外部へ送信するようにしてもよい。 Further, the user instruction receiving unit 801 can receive various operation instructions for the projected image information. Various received instructions can be output (transmitted) from the instruction output unit 812 to the outside. It should be noted that all or part of the various instructions from the user may be directly transmitted to the outside without going through the image projection device 200.

投影対象ユーザ特定部802は、ユーザ指示受付部801によって投影指示を受け付けた投影対象ユーザを特定する。投影対象ユーザ特定部802は、具体的には、たとえば、図7に示したカメラ603、マイク706、図7に示した制御回路702、通信I/F703によってその機能を実現することができる。投影対象ユーザ特定部802は、以下のようにして投影対象ユーザを特定する。 The projection target user identification unit 802 identifies the projection target user who has received the projection instruction by the user instruction reception unit 801. Specifically, the projection target user identification unit 802 can realize its function by, for example, the camera 603 and the microphone 706 shown in FIG. 7, the control circuit 702 shown in FIG. 7, and the communication I / F 703. The projection target user specifying unit 802 specifies the projection target user as follows.

ユーザ専用の画像投影装置200の場合は、あらかじめユーザの情報(ユーザが発信するID情報あるいはユーザの身体的特徴から特定された情報)を記憶しているので、その情報に基づいて、ユーザの現在位置を特定する。ユーザの位置は、一定の時間間隔で把握する。そして、ユーザが移動した場合は、その位置を捕捉する。 In the case of the user-dedicated image projection device 200, since the user's information (ID information transmitted by the user or information specified from the physical characteristics of the user) is stored in advance, the user's current state is based on the information. Identify the location. The user's position is grasped at regular time intervals. Then, when the user moves, the position is captured.

共用の画像投影装置の場合は、ユーザの情報を受信し、その情報に基づいて、該当するユーザ201を探索する。ユーザ201の探索は、たとえばユーザ201が発信するユーザID信号に基づいて算出されたユーザ201の位置情報に基づいておこなうようにしてもよい。また、ユーザ201の探索は、ユーザ201の形態の特徴にかかる情報に基づいて、カメラ603によって撮影した画像を解析することで該当するユーザ201を特定することでおこなうようにしてもよい。 In the case of the shared image projection device, the user's information is received, and the corresponding user 201 is searched for based on the information. The search for the user 201 may be performed based on the position information of the user 201 calculated based on the user ID signal transmitted by the user 201, for example. Further, the search for the user 201 may be performed by identifying the corresponding user 201 by analyzing the image taken by the camera 603 based on the information related to the characteristics of the form of the user 201.

ユーザ201の現在位置が探索できた場合は、そのユーザ201の位置の現在位置を特定し、一定の時間間隔で把握する。そして、ユーザ201が移動した場合は、その位置を捕捉する。 If the current position of the user 201 can be searched, the current position of the position of the user 201 is specified and grasped at regular time intervals. Then, when the user 201 moves, the position is captured.

投影対象ユーザ特定部802は、特定した投影対象ユーザ201に関する情報、具体的には、当該ユーザの位置情報などを、身体部位特定部805へ出力する。 The projection target user specifying unit 802 outputs information about the specified projection target user 201, specifically, the position information of the user, and the like to the body part specifying unit 805.

身体部位情報取得部803は、画像情報を投影するスクリーンとなる身体部位に関する情報を取得する。身体部位情報取得部803は、具体的には、たとえば、図7に示したカメラ603、マイク706、通信I/F703によってその機能を実現することができる。 The body part information acquisition unit 803 acquires information about a body part that serves as a screen on which image information is projected. Specifically, the body part information acquisition unit 803 can realize its function by, for example, the camera 603, the microphone 706, and the communication I / F 703 shown in FIG. 7.

身体部位情報取得部803は、ユーザ201からの身体部位の指定があった場合にその指定情報をカメラ603、マイク706、通信I/F703などを用いて取得する。身体部位情報取得部803は、取得した身体部位情報を、身体部位特定部805へ出力する。 When the body part information acquisition unit 803 receives the designation of the body part from the user 201, the body part information acquisition unit 803 acquires the designated information by using the camera 603, the microphone 706, the communication I / F 703, and the like. The body part information acquisition unit 803 outputs the acquired body part information to the body part identification unit 805.

投影画像情報取得部804は、投影する画像情報を取得する。投影画像情報取得部804は、具体的には、たとえば、図7に示した通信I/F703によってその機能を実現することができる。投影画像情報は、静止画であっても動画であってもよい。 The projection image information acquisition unit 804 acquires the image information to be projected. Specifically, the projected image information acquisition unit 804 can realize its function by, for example, the communication I / F 703 shown in FIG. 7. The projected image information may be a still image or a moving image.

また取得する画像情報には、画像の内容(プロファイル)に関する情報も含まれる。具体的には、画像の種類(チャットか、ビデオ通話かなど)、当該画像の解像度、データ量などである。投影画像情報取得部804は、取得した画像情報を画像情報投影部810へ出力する。また、取得した画像情報のうちの画像の内容に関する情報を、身体部位特定部805および投影位置・投影寸法決定部806へ出力する。 The acquired image information also includes information on the content (profile) of the image. Specifically, it is the type of image (chat, video call, etc.), the resolution of the image, the amount of data, and the like. The projected image information acquisition unit 804 outputs the acquired image information to the image information projection unit 810. Further, the information regarding the content of the image among the acquired image information is output to the body part specifying unit 805 and the projection position / projection dimension determination unit 806.

身体部位特定部805は、投影対象ユーザ特定部802によって特定された投影対象ユーザに関する情報、身体部位情報取得部803によって取得された身体部位に関する情報、画像情報を投影するスクリーンとなる身体部位を特定する。 The body part specifying unit 805 identifies a body part that serves as a screen for projecting information about the projection target user specified by the projection target user specifying unit 802, information about the body part acquired by the body part information acquisition unit 803, and image information. do.

さらには投影画像情報取得部804によって取得された画像の内容に関する情報に基づいて、身体部位を特定するようにしてもよい。たとえば、比較的大きな画像であれば、ユーザ201が手のひらを指定していても、腕に変更することができる。その際は、指定された身体部位を変更する旨もあわせてユーザに通知(投影)することができる。 Further, the body part may be specified based on the information regarding the content of the image acquired by the projected image information acquisition unit 804. For example, a relatively large image can be changed to an arm even if the user 201 specifies the palm. At that time, it is possible to notify (project) the user that the designated body part is changed.

身体部位特定部805は、具体的には、たとえば、図6、図7に示したカメラ603、人感センサー604、図7に示した制御回路702などによってその機能を実現することができる。 Specifically, the body part specifying unit 805 can realize its function by, for example, the camera 603 shown in FIGS. 6 and 7, the motion sensor 604, the control circuit 702 shown in FIG. 7, and the like.

身体部位特定部805は、具体的には、以下のようにして身体部位を特定する。身体部位が手のひらの場合、まず、画像情報の投影指示があった場合は、位置を把握しているユーザの手のひらがどの位置にあるかを特定する。位置の特定は、画像投影装置200に搭載しているカメラ603によって撮影された画像を解析しておこなう。 Specifically, the body part specifying unit 805 specifies the body part as follows. When the body part is the palm, first, when the projection instruction of the image information is given, the position of the palm of the user who knows the position is specified. The position is specified by analyzing the image taken by the camera 603 mounted on the image projection device 200.

また、カメラの代替えとしてあるいはカメラの補足として、赤外線センサーなどの人感センサー604を用いて位置を特定するようにしてもよい。具体的には、ユーザの身体の各部位の位置、頭、肩、腕などから、ユーザの向いている向きや姿勢を特定し、ユーザの手のひらの位置を推測する。 Further, as a substitute for the camera or as a supplement to the camera, a motion sensor 604 such as an infrared sensor may be used to specify the position. Specifically, the position and posture of the user are specified from the position of each part of the user's body, the head, shoulders, arms, and the like, and the position of the user's palm is estimated.

そして、手のひらの形状に基づいて、手のひらの位置を把握する。さらに、手のひらの身体的特徴(指の長さ、指紋、手相、静脈など)から、当該ユーザの手のひらであることを認証するようにしてもよい。 Then, the position of the palm is grasped based on the shape of the palm. Further, the physical characteristics of the palm (finger length, fingerprint, palmistry, vein, etc.) may be used to authenticate the user's palm.

身体部位特定部805は、このようにして、身体部位(手のひら)を特定する。その他の各身体部位は、それぞれの特徴に基づいて、特定することができる。身体部位特定部805は、特定した身体部位に関する情報を投影位置・投影寸法決定部806へ出力する。 The body part specifying part 805 identifies the body part (palm) in this way. Each other body part can be identified based on its characteristics. The body part specifying unit 805 outputs information about the specified body part to the projection position / projection dimension determination unit 806.

投影位置・投影寸法決定部806は、身体部位特定部805によって特定された身体部位に基づいて、画像情報を投影する投影位置および投影画像の寸法を決定する。また、投影画像情報取得部804によって取得した画像情報の内容などを参照し、当該内容に基づいて、画像情報を投影する投影位置および投影画像の寸法を決定するようにしてもよい。 The projection position / projection dimension determination unit 806 determines the projection position on which the image information is projected and the dimensions of the projected image based on the body part specified by the body part identification unit 805. Further, the content of the image information acquired by the projected image information acquisition unit 804 may be referred to, and the projection position on which the image information is projected and the dimension of the projected image may be determined based on the content.

投影位置・投影寸法決定部806は、具体的には、たとえば、図7に示した制御回路702によってその機能を実現することができる。 Specifically, the projection position / projection dimension determination unit 806 can realize its function by the control circuit 702 shown in FIG. 7, for example.

投影位置・投影寸法決定部806は、具体的には、身体部位特定部805によって特定された身体部位にかかるユーザ201の手のひらの位置に関する情報に基づいて、指の方向、手首の角度などから、投影位置、投影向きを特定するようにしてもよい。 Specifically, the projection position / projection dimension determination unit 806 can be used from the direction of the finger, the angle of the wrist, etc., based on the information regarding the position of the palm of the user 201 on the body part specified by the body part identification unit 805. The projection position and the projection direction may be specified.

また、身体部位特定部805によって特定された身体部位にかかるユーザ201の手のひらに関する情報から、当該手のひらの大きさを把握し、当該手のひらに画像が収まるように、投影する画像情報の寸法を決定するようにしてもよい。 Further, from the information about the palm of the user 201 related to the body part specified by the body part specifying unit 805, the size of the palm is grasped, and the dimension of the image information to be projected is determined so that the image fits in the palm. You may do so.

また、投影位置・投影寸法決定部806は、身体部位特定部805によって特定された身体部位の状態に基づいて、画像を投影する投影方法を変更するようにしてもよい。身体部位の状態は、具体的には、手袋をしているなどである。投影位置・投影寸法決定部806は、決定した投影位置・投影寸法などに関する情報を移動位置・投影角度決定部808へ出力する。 Further, the projection position / projection dimension determination unit 806 may change the projection method for projecting an image based on the state of the body part specified by the body part identification unit 805. Specifically, the condition of the body part is, for example, wearing gloves. The projection position / projection dimension determination unit 806 outputs information regarding the determined projection position / projection dimension to the movement position / projection angle determination unit 808.

また、投影位置・投影寸法決定部806は、指の方向、手首の角度などから、手のひらには投影できないと判断した場合は、警告出力部807へ、投影できない旨の情報、さらには手のひらの位置を変更するように促す情報を出力する。 If the projection position / projection dimension determination unit 806 determines that the projection cannot be performed on the palm from the direction of the finger, the angle of the wrist, etc., the information that the projection cannot be performed on the warning output unit 807, and the position of the palm Outputs information prompting you to change.

警告出力部807は、投影位置・投影寸法決定部806が投影位置および投影寸法を決定する際、身体部位特定部805によって特定された身体部位には投影ができない場合などに、その旨およびユーザの位置や身体部位の位置を移動させることを促すような警告を出力する。警告出力部807は、具体的には、たとえば、図7に示した通信I/F703、スピーカー707などによってその機能を実現することができる。 When the projection position / projection dimension determination unit 806 determines the projection position and the projection dimension, the warning output unit 807 can not project to the body part specified by the body part identification unit 805. It outputs a warning that prompts you to move the position or the position of the body part. Specifically, the warning output unit 807 can realize its function by, for example, the communication I / F 703 and the speaker 707 shown in FIG. 7.

移動位置・投影角度決定部808は、投影位置・投影寸法決定部806によって決定された投影位置および投影寸法に基づいて、画像投影装置200の移動位置および画像投影装置200の投影角度の少なくともいずれかを決定する。移動位置・投影角度決定部808は、具体的には、移動させる位置の緯度経度情報およびプロジェクター601の投影角度を算出し、算出結果を移動・投影角度制御部809へ出力する。 The moving position / projection angle determining unit 808 is at least one of the moving position of the image projection device 200 and the projection angle of the image projection device 200 based on the projection position and projection dimension determined by the projection position / projection dimension determination unit 806. To determine. Specifically, the movement position / projection angle determination unit 808 calculates the latitude / longitude information of the position to be moved and the projection angle of the projector 601 and outputs the calculation result to the movement / projection angle control unit 809.

移動位置・投影角度決定部808は、具体的には、たとえば、図7に示した制御回路702によってその機能を実現することができる。 Specifically, the moving position / projection angle determining unit 808 can realize its function by, for example, the control circuit 702 shown in FIG. 7.

移動・投影角度制御部809は、移動位置・投影角度決定部808によって決定された画像投影装置200の移動位置に基づいて、モーター705を制御して自装置を移動させる。また、移動位置・投影角度決定部808によって決定された画像投影装置200の移動位置に基づいて、画像投影装置200の投影角度を調整する。 The movement / projection angle control unit 809 controls the motor 705 to move the own device based on the movement position of the image projection device 200 determined by the movement position / projection angle determination unit 808. Further, the projection angle of the image projection device 200 is adjusted based on the movement position of the image projection device 200 determined by the movement position / projection angle determination unit 808.

移動・投影角度制御部809は、具体的には、たとえば、図7に示した制御回路702、GPS受信機704、モーター705などによってその機能を実現することができる。 Specifically, the movement / projection angle control unit 809 can realize its function by, for example, the control circuit 702, the GPS receiver 704, the motor 705, etc. shown in FIG. 7.

画像情報投影部810は、投影画像情報取得部804によって取得した画像情報を、特定した身体部位をスクリーンとして投影する。また、画像情報投影部810は、ユーザ指示受付部801によって受け付けた投影の終了の指示に応じて、当該画像情報の投影を中止するようにしてもよい。 The image information projection unit 810 projects the image information acquired by the projection image information acquisition unit 804 on the specified body part as a screen. Further, the image information projection unit 810 may stop the projection of the image information in response to the instruction to end the projection received by the user instruction reception unit 801.

画像情報投影部810は、具体的には、たとえば、図6、図7に示したプロジェクター601、図7に示した制御回路702などによって実現することができる。 Specifically, the image information projection unit 810 can be realized by, for example, the projector 601 shown in FIGS. 6 and 7, the control circuit 702 shown in FIG. 7, and the like.

投影画像撮影部811は、任意の身体部位をスクリーンとして投影された画像を撮影し、または当該画像の周辺の状況を撮影または取得する。投影画像撮影部811は、撮影した画像または取得した当該画像の周辺の状況に関する情報は、投影位置・投影寸法決定部806へ出力する。 The projected image capturing unit 811 captures an image projected by using an arbitrary body part as a screen, or captures or acquires a situation around the image. The projection image capturing unit 811 outputs the captured image or the acquired information regarding the surrounding conditions of the image to the projection position / projection dimension determination unit 806.

投影画像撮影部811は、具体的には、たとえば、図6、図7に示したカメラ603、人感センサー604などによってその機能を実現することができる。 Specifically, the projection image capturing unit 811 can realize its function by, for example, the camera 603 and the motion sensor 604 shown in FIGS. 6 and 7.

投影位置・投影寸法決定部806は、取得された任意の部位の周辺の状況に基づいて、画像を投影する投影方法を変更し、変更した投影方法にかかる情報を画像情報投影部810へ出力するようにしてもよい。任意の部位の周辺の状況は、具体的には、当該周辺の明るさであってもよい。周辺が比較的明るい場合は、投影画像の照度を高くするようにしてもよい。一方、夜間など、周辺が比較的暗い場合は、投影画像の照度を低くするようにしてもよい。 The projection position / projection dimension determination unit 806 changes the projection method for projecting an image based on the situation around the acquired arbitrary part, and outputs the information related to the changed projection method to the image information projection unit 810. You may do so. Specifically, the situation around the arbitrary portion may be the brightness of the periphery. If the surroundings are relatively bright, the illuminance of the projected image may be increased. On the other hand, when the surroundings are relatively dark, such as at night, the illuminance of the projected image may be lowered.

投影位置・投影寸法決定部806は、投影画像撮影部811によって撮影された画像を認識(解析)し、認識された画像の状況に基づいて、投影方法を変更するようにしてもよい。具体的には、投影されている画像の画質が低下していたり、ユーザ201が当該画像を視認しづらくなっている場合には、投影位置や投影寸法などを変更し、視認性を改善するようにしてもよい。そして、変更した投影方法にかかる情報を画像情報投影部810へ出力するようにしてもよい。 The projection position / projection dimension determination unit 806 may recognize (analyze) the image captured by the projection image capture unit 811 and change the projection method based on the status of the recognized image. Specifically, when the image quality of the projected image is deteriorated or it is difficult for the user 201 to visually recognize the image, the projection position, the projection dimension, etc. are changed to improve the visibility. You may do it. Then, the information related to the changed projection method may be output to the image information projection unit 810.

指示出力部812は、ユーザ指示受付部801によって受け付けた、投影されている画像情報に対するユーザ201の指示に関する情報を出力する。指示出力部812は、具体的には、たとえば、図7に示した通信I/F703などによってその機能を実現することができる。また、バス700を介して、指示に関する情報を各構成部へ送信するようにしてもよい。 The instruction output unit 812 outputs information regarding the instruction of the user 201 to the projected image information received by the user instruction reception unit 801. Specifically, the instruction output unit 812 can realize its function by, for example, the communication I / F 703 shown in FIG. 7. Further, the information regarding the instruction may be transmitted to each component via the bus 700.

(画像投影装置200の処理手順の一例)
つぎに、画像投影装置200の処理手順の一例について説明する。図9は、画像投影装置200の処理手順の一例を示すフローチャートである。図9のフローチャートにおいて、画像投影装置200は、まず、画像情報を投影する投影対象ユーザの現在位置を特定する(ステップS901)。
(Example of processing procedure of image projection device 200)
Next, an example of the processing procedure of the image projection device 200 will be described. FIG. 9 is a flowchart showing an example of the processing procedure of the image projection device 200. In the flowchart of FIG. 9, the image projection device 200 first specifies the current position of the projection target user who projects the image information (step S901).

つぎに、特定した投影対象ユーザの身体部位のうち、画像情報を投影する身体部位に関する情報を取得する(ステップS902)。そして、取得した身体部位に関する情報に基づいて、現時点における投影する身体部位の位置・向きを特定する(ステップS903)。そして、特定した身体部位の位置・向きに基づいて、当該位置・向きにかかる身体部位に対して画像情報を投影することが可能か否かを判断する(ステップS904)。 Next, among the body parts of the specified projection target user, information regarding the body part on which the image information is projected is acquired (step S902). Then, based on the acquired information about the body part, the position and orientation of the body part to be projected at the present time are specified (step S903). Then, based on the position / orientation of the specified body part, it is determined whether or not it is possible to project the image information on the body part related to the position / orientation (step S904).

ステップS904において、投影が可能でないと判断した場合(ステップS904:No)は、投影できない旨の警告を当該投影対象ユーザに対しておこなう(ステップS905)。これにより、当該投影対象ユーザに対して、位置を移動したり、身体部位の位置や向きを変えることを促す。その後、ステップS901へ戻り、ステップS901~S905の処理を繰り返しおこなう。 If it is determined in step S904 that projection is not possible (step S904: No), a warning to the effect that projection is not possible is given to the projection target user (step S905). This encourages the projection target user to move the position and change the position and orientation of the body part. After that, the process returns to step S901, and the processes of steps S901 to S905 are repeated.

ステップS904において、投影が可能であると判断した場合(ステップS904:Yes)は、投影する画像情報の投影位置・投影寸法を決定する(ステップS906)。そして、決定された画像情報の投影位置・投影寸法に基づいて、画像投影装置200の投影位置を決定する(ステップS907)。 When it is determined in step S904 that projection is possible (step S904: Yes), the projection position and projection dimension of the image information to be projected are determined (step S906). Then, the projection position of the image projection device 200 is determined based on the projection position / projection dimension of the determined image information (step S907).

つぎに、決定された投影位置に、画像投影装置(自装置)200を移動させ、投影角度を調整し(ステップS908)、移動・調整の終了後、(特定した)身体部位をスクリーンとして画像情報を投影する(ステップS909)。 Next, the image projection device (own device) 200 is moved to the determined projection position, the projection angle is adjusted (step S908), and after the movement / adjustment is completed, the (specified) body part is used as the screen for image information. Is projected (step S909).

その後、投影する身体部位の位置・向きが変更になったか否かを判断する(ステップS910)。投影する身体部位の位置・向きが変更になったか否かの判断は、たとえば、図8に示した身体部位特定部805による特定を所定時間(たとえば0.5秒)ごとにおこない、前回(たとえば0.5秒前)に特定した身体部位の位置に関する情報との差異に基づいて判断することができる。 After that, it is determined whether or not the position / orientation of the body part to be projected has been changed (step S910). Whether or not the position / orientation of the body part to be projected has changed is determined, for example, by the body part identification unit 805 shown in FIG. 8 at predetermined time intervals (for example, 0.5 seconds), and the previous time (for example, 0.5 seconds). It can be determined based on the difference from the information regarding the position of the body part specified (0.5 seconds ago).

ここで、投影する身体部位の位置・向きが変更になったと判断した場合(ステップS910:Yes)は、ステップS903へ戻り、再度、投影する身体部位の位置・向きを特定し(ステップS903)、以後、ステップS904以降の処理をおこなう。 Here, when it is determined that the position / orientation of the body part to be projected has changed (step S910: Yes), the process returns to step S903, and the position / orientation of the body part to be projected is specified again (step S903). After that, the processing after step S904 is performed.

ステップS910において、投影する身体部位の位置・向きが変更になっていないと判断した場合(ステップS910:No)は、つぎに、投影する身体部位が変更になったか否かを判断する(ステップS911)。投影する身体部位が変更になったか否かの判断は、たとえば、図8に示した身体部位情報取得部803において取得した情報に基づいて判断することができる。 If it is determined in step S910 that the position / orientation of the body part to be projected has not changed (step S910: No), then it is determined whether or not the body part to be projected has been changed (step S911). ). The determination as to whether or not the projected body part has been changed can be made based on, for example, the information acquired by the body part information acquisition unit 803 shown in FIG.

ここで、投影する身体部位が変更になった場合(ステップS911:Yes)は、ステップS902へ戻り、再度、画像情報を投影する身体部位に関する情報を取得し(ステップS902)、以後、ステップS903以降の処理をおこなう。 Here, when the body part to be projected is changed (step S9111: Yes), the process returns to step S902, the information regarding the body part to project the image information is acquired again (step S902), and thereafter, step S903 and subsequent steps. Perform the processing of.

ステップS911において、投影する身体部位が変更になっていない場合(ステップS911:No)は、つぎに、投影対象ユーザが移動したか否かを判断する(ステップS912)。投影対象ユーザが移動したか否かの判断は、たとえば、図8に示した投影対象ユーザ特定部802による特定を所定時間(たとえば0.5秒)ごとにおこない、前回(たとえば0.5秒前)に特定した投影対象ユーザの位置に関する情報との差異に基づいて判断することができる。 If the body part to be projected has not been changed in step S911 (step S9111: No), then it is determined whether or not the projection target user has moved (step S912). Whether or not the projection target user has moved is determined, for example, by the projection target user identification unit 802 shown in FIG. 8 at predetermined time intervals (for example, 0.5 seconds), and the previous time (for example, 0.5 seconds before). ) Can be determined based on the difference from the information regarding the position of the projection target user.

ここで、投影する投影対象ユーザが移動した場合(ステップS912:Yes)は、ステップS901へ戻り、再度、投影対象ユーザの現在位置を特定し(ステップS901)、以後、ステップS902以降の処理をおこなう。 Here, when the projection target user to be projected moves (step S912: Yes), the process returns to step S901, the current position of the projection target user is specified again (step S901), and then the processes after step S902 are performed. ..

ステップS912において、投影対象ユーザが移動していない場合(ステップS912:No)は、つぎに、投影終了指示があったか否かを判断する(ステップS913)。投影終了指示があったか否かの判断は、たとえば、ユーザ指示受付部801からの投影終了の指示があったか否かによって判断することができる。 In step S912, when the projection target user has not moved (step S912: No), it is next determined whether or not the projection end instruction has been given (step S913). The determination as to whether or not the projection end instruction has been given can be made, for example, by whether or not the projection end instruction has been given from the user instruction receiving unit 801.

ここで、投影終了の指示がない場合(ステップ913:No)は、ステップS910へ移行し、以後、ステップS910~S913の各処理を繰り返しおこなう。一方、投影終了の指示があった場合(ステップS913:Yes)は、画像情報の投影を停止し(ステップS914)、一連の処理を終了する。 Here, if there is no instruction to end the projection (step 913: No), the process proceeds to step S910, and thereafter, each process of steps S910 to S913 is repeated. On the other hand, when there is an instruction to end the projection (step S913: Yes), the projection of the image information is stopped (step S914), and the series of processes is terminated.

このようにして、画像投影装置200は、ユーザ201の身体の任意の部位に画像を投影することができる。また、身体部位の位置や向きが変更になった場合や、投影する身体部位が変更になった場合や、ユーザ201が移動した場合であっても、継続して画像の投影をおこなうことができる。 In this way, the image projection device 200 can project an image on any part of the body of the user 201. Further, even if the position or orientation of the body part is changed, the body part to be projected is changed, or the user 201 is moved, the image can be continuously projected. ..

(別の実施例)
画像投影装置として、ドローンプロジェクター200について説明したが、画像投影装置は、これに限定されない。たとえば、屋内の壁、天井に移動可能に設けられた画像投影装置であってもよい。発明者はこの画像投影装置を「ムーバブルプロジェクター(movable projector、略称:「ムバプロ」または「ムバプ」)」と名付けた。ムーバブルプロジェクターは、投影方向が可変、プロジェクター自体が、壁、天井を移動可能である。
(Another example)
Although the drone projector 200 has been described as an image projection device, the image projection device is not limited to this. For example, it may be an image projection device provided so as to be movable on an indoor wall or ceiling. The inventor has named this image projection device a "movable projector (abbreviation:" Mubapro "or" Mbap ")". The movable projector has a variable projection direction, and the projector itself can move on the wall and ceiling.

図10は、この発明にかかる別の実施例の画像投影装置(「ムーバブルプロジェクター」)1000および画像投影装置1000の移動環境の一例を示す説明図である。図10においては、上述した画像投影装置200と同一部分については、同一符号で示している。 FIG. 10 is an explanatory diagram showing an example of a mobile environment of the image projection device (“movable projector”) 1000 and the image projection device 1000 of another embodiment according to the present invention. In FIG. 10, the same parts as those of the above-mentioned image projection device 200 are indicated by the same reference numerals.

図10に示すように、画像投影装置(「ムーバブルプロジェクター」)1000は、移動体1001を備えている。移動体1001は、本体部1002、転動体1003、磁石1004、スライドシュー1005を備えている。 As shown in FIG. 10, the image projection device (“movable projector”) 1000 includes a moving body 1001. The moving body 1001 includes a main body 1002, a rolling element 1003, a magnet 1004, and a slide shoe 1005.

本体部1002は、略箱形状をなし、内側に制御回路702、アンテナ、モーター、バッテリーなどを収容する。制御回路702は、CPUやメモリなどによって構成され、画像投影装置1000が備える各部を駆動制御する。具体的には、たとえば、転動体1003に連結されたモーター705を駆動制御して、転動体1003を回転させ、画像投影装置1000を移動させる。 The main body 1002 has a substantially box shape, and houses a control circuit 702, an antenna, a motor, a battery, and the like inside. The control circuit 702 is composed of a CPU, a memory, and the like, and drives and controls each part included in the image projection device 1000. Specifically, for example, the motor 705 connected to the rolling element 1003 is driven and controlled to rotate the rolling element 1003 and move the image projection device 1000.

転動体1003は、本体部1002に対して回動(転動)可能に連結されている。転動体1003は、本体部1002の端面よりも、天井1006や壁1007側に突出している。転動体1003は、3つ以上設けられていることが好ましい。これにより、画像投影装置1000を安定して円滑に移動させることができる。 The rolling element 1003 is rotatably connected to the main body portion 1002. The rolling element 1003 projects toward the ceiling 1006 and the wall 1007 from the end surface of the main body 1002. It is preferable that three or more rolling elements 1003 are provided. As a result, the image projection device 1000 can be moved stably and smoothly.

転動体1003は、具体的には、たとえば、ローラやボールあるいはコロによって実現することができる。ボールやコロによって転動体1003を実現することにより、移動体1001の回転半径を小さくすることができるので、小回りが効き、移動にかかる高い自由度を確保することができる。ローラによって転動体1003を実現する場合、トー角やキャスター角を適宜調整する。 Specifically, the rolling element 1003 can be realized by, for example, a roller, a ball, or a roller. By realizing the rolling element 1003 with a ball or a roller, the turning radius of the moving body 1001 can be reduced, so that a small turn is effective and a high degree of freedom for movement can be ensured. When the rolling element 1003 is realized by the rollers, the toe angle and the caster angle are appropriately adjusted.

磁石1004は、本体部1002に対して、転動体1003と同じ側に設けられている。磁石1004は、磁力により画像投影装置1000を天井1006や壁1007に吸着させる。スライドシュー1005は、シート形状または平板形状をなす。スライドシュー1005は、具体的には、たとえば、硬質シリコンゴムなどを用いて形成することができる。 The magnet 1004 is provided on the same side as the rolling element 1003 with respect to the main body 1002. The magnet 1004 attracts the image projection device 1000 to the ceiling 1006 or the wall 1007 by magnetic force. The slide shoe 1005 has a sheet shape or a flat plate shape. Specifically, the slide shoe 1005 can be formed by using, for example, hard silicon rubber or the like.

スライドシュー1005は、画像投影装置1000を天井1006や壁1007に吸着させる磁石1004の磁力を損なわずかつ、画像投影装置1000の移動に際して抵抗とならない材料によって形成されている。 The slide shoe 1005 is made of a material that does not impair the magnetic force of the magnet 1004 that attracts the image projection device 1000 to the ceiling 1006 or the wall 1007 and does not become a resistance when the image projection device 1000 moves.

スライドシュー1005は、本体とは反対側の端面が、転動体1003の先端(転動体1003における天井1006や壁1007との接触位置)の位置と同一位置あるいは若干本体側の位置に位置するように設けられている。これにより、転動体1003を天井1006や壁1007に確実に接触させることができ、画像投影装置1000を良好に移動させることができる。 In the slide shoe 1005, the end surface on the opposite side to the main body is located at the same position as the position of the tip of the rolling element 1003 (the contact position between the ceiling 1006 and the wall 1007 in the rolling body 1003) or slightly on the main body side. It is provided. As a result, the rolling element 1003 can be reliably brought into contact with the ceiling 1006 and the wall 1007, and the image projection device 1000 can be moved satisfactorily.

スライドシュー1005は、磁石1004あるいは本体部1002に対して、接離可能に設けられていてもよい。具体的には、たとえば、スライドシュー1005は、磁石1004あるいは本体部1002に対して、バネなどの弾性部材を介して連結されていてもよい。これにより、転動体1003を天井1006や壁1007に確実に接触させることができ、画像投影装置1000を良好に移動させることができる。 The slide shoe 1005 may be provided so as to be in contact with and detachable from the magnet 1004 or the main body portion 1002. Specifically, for example, the slide shoe 1005 may be connected to the magnet 1004 or the main body 1002 via an elastic member such as a spring. As a result, the rolling element 1003 can be reliably brought into contact with the ceiling 1006 and the wall 1007, and the image projection device 1000 can be moved satisfactorily.

このような画像投影装置1000は、上記のようにGPS受信機704を用いて現在位置を特定してもよいが、これに限るものではない。画像投影装置1000は、たとえば、PHS(Personal Handy-phone System)などに用いられる三角測量の原理を用いて現在位置を特定してもよい。 Such an image projection device 1000 may specify the current position by using the GPS receiver 704 as described above, but is not limited to this. The image projection device 1000 may specify the current position by using, for example, the principle of triangulation used in PHS (Personal Handy-phone System) or the like.

具体的には、たとえば、天井1006や壁1007にPHSの基地局(図示を省略する)を複数設け、これらの基地局から出力される電波をアンテナを介して受信することにより自装置の位置を特定する。 Specifically, for example, a plurality of PHS base stations (not shown) are provided on the ceiling 1006 and the wall 1007, and the position of the own device is determined by receiving radio waves output from these base stations via an antenna. Identify.

これにより、天井1006や壁1007の存在によりGPS衛星からの電波を受信しにくい環境においても、画像投影装置1000の位置を高精度に特定し、制御することができる。そして、これにより、建物内における任意の位置に画像を投影することができる。画像投影装置1000は、天井1006や壁1007に沿って移動するため、ユーザ201が衝突することを確実に抑制し、ユーザ201の安全を確保することができる。 As a result, even in an environment where it is difficult to receive radio waves from GPS satellites due to the presence of the ceiling 1006 and the wall 1007, the position of the image projection device 1000 can be specified and controlled with high accuracy. As a result, the image can be projected at an arbitrary position in the building. Since the image projection device 1000 moves along the ceiling 1006 and the wall 1007, it is possible to reliably suppress the collision of the user 201 and ensure the safety of the user 201.

このように、画像投影装置1000を屋内の設備を用いて移動させることができる。屋内の設備は、屋内の壁面、天井、さらには床の少なくともいずれか一つであればよく、当該屋内の設備に沿って画像投影装置1000を移動させるようにすることができる。これにより、屋内において、所望の位置に画像投影装置1000を移動させ、ユーザ201の当該任意の部位に対して確実に画像を投影することができる。 In this way, the image projection device 1000 can be moved using indoor equipment. The indoor equipment may be at least one of an indoor wall surface, a ceiling, and even a floor, and the image projection device 1000 can be moved along the indoor equipment. This makes it possible to move the image projection device 1000 to a desired position indoors and reliably project an image onto the arbitrary portion of the user 201.

また、実施の形態として、画像投影装置は、図示を省略するが、ユーザ201の身体に取り付けられたプロジェクターであってもよい。たとえばユーザ201が着用する眼鏡や帽子などに充電式のプロジェクターが内蔵されていたり、あるいは、取り付けられている。後述する実施の形態2において、詳細に説明する。 Further, as an embodiment, the image projection device may be a projector attached to the body of the user 201, although not shown. For example, a rechargeable projector is built in or attached to glasses or a hat worn by the user 201. It will be described in detail in the second embodiment described later.

その他、片手で保持して操作する携帯型情報端末装置(たとえばスマートフォン)型プロジェクターであってもよい。その場合は、ユーザが所有する携帯型情報端末装置であってもよく、また、当該ユーザ以外の者が所有する携帯型情報端末装置であってもよい。 In addition, it may be a portable information terminal device (for example, a smartphone) type projector that is held and operated with one hand. In that case, it may be a portable information terminal device owned by the user, or may be a portable information terminal device owned by a person other than the user.

以上説明したように、この発明にかかる実施の形態の画像投影方法は、ユーザ201および当該ユーザ201の身体の任意の部位(たとえば符号101、102など)の位置を特定し、特定した任意の部位をスクリーン110、120、400、500として、ユーザ201に対して送信または配信された画像を投影することを特徴とする。これにより、身体をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As described above, in the image projection method of the embodiment according to the present invention, the positions of the user 201 and any part of the body of the user 201 (for example, reference numerals 101, 102, etc.) are specified, and the specified arbitrary part is specified. Is used as screens 110, 120, 400, and 500 to project an image transmitted or distributed to the user 201. As a result, the body can be used as a screen, so that the image can be viewed even if the display device such as a mobile terminal device is not carried or the display device such as a display or screen is not around. ..

また、この発明にかかる実施の形態の画像投影方法は、さらに、画像が任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置200、1000を移動させることを特徴とする。これにより、ユーザ201の当該任意の部位に対して確実に画像を投影することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that the image projection devices 200 and 1000 for projecting the image are moved to a position where the image can be projected on an arbitrary portion. This makes it possible to reliably project an image onto the arbitrary portion of the user 201.

また、この発明にかかる実施の形態の画像投影方法は、画像投影装置200を無人航空機602を用いて移動させることを特徴とする。これにより、三次元の空間を自由に飛行し、所望の位置に画像投影装置200を移動させることができる。 Further, the image projection method of the embodiment according to the present invention is characterized in that the image projection device 200 is moved by using an unmanned aerial vehicle 602. This makes it possible to freely fly in a three-dimensional space and move the image projection device 200 to a desired position.

また、この発明にかかる実施の形態の画像投影方法は、画像投影装置1000を屋内の設備を用いて移動させることを特徴とする。さらに、屋内の設備が、屋内の壁面、天井および床の少なくともいずれか一つであり、当該屋内の設備に沿って画像投影装置1000を移動させるようにしてもよい。これにより、屋内において、所望の位置に画像投影装置1000を移動させ、ユーザ201の当該任意の部位に対して確実に画像を投影することができる。 Further, the image projection method of the embodiment according to the present invention is characterized in that the image projection device 1000 is moved by using an indoor facility. Further, the indoor equipment may be at least one of an indoor wall surface, a ceiling, and a floor, and the image projection device 1000 may be moved along the indoor equipment. This makes it possible to move the image projection device 1000 to a desired position indoors and reliably project an image onto the arbitrary portion of the user 201.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位が、当該ユーザ201の指定により設定されることを特徴とする。これにより、ユーザ201は、自ら所望する位置に画像を投影させて当該画像を見ることができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that an arbitrary part of the user 201 to be a screen is set by the designation of the user 201. As a result, the user 201 can project the image at a position desired by himself / herself and view the image.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位が、画像の内容に基づいて選定されることを特徴とする。これにより、ユーザ201の任意の部位のうち、当該画像にとって最適な部位をスクリーンとすることができ、当該画像の視認性を向上することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that an arbitrary portion of the user 201 to be a screen is selected based on the content of the image. As a result, among any parts of the user 201, the most suitable part for the image can be used as a screen, and the visibility of the image can be improved.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位の状態に基づいて、画像を投影する投影方法を変更することを特徴とする。これにより、任意の部位の状態、具体的には、たとえば手のひらの場合、素手なのか、手袋をしているのかなどの違いを認識し、その違いに応じて投影方法を変更でき、より最適な投影を実現し、当該画像の視認性を向上することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that the projection method for projecting an image is changed based on the state of an arbitrary portion of the user 201 serving as a screen. This makes it possible to recognize the difference in the state of any part, specifically, for example, in the case of the palm, whether it is a bare hand or wearing gloves, and change the projection method according to the difference, which is more optimal. Projection can be realized and the visibility of the image can be improved.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位の周辺の状況に基づいて、画像を投影する投影方法を変更することを特徴とする。これにより、任意の部位の周辺の状況、具体的には、たとえば周辺の明るさや人の密集度合いなどの違いを認識し、その違いに応じて投影方法を変更でき、より最適な投影を実現し、当該画像の視認性を向上することができる。 Further, the image projection method according to the embodiment of the present invention is further characterized in that the projection method for projecting an image is changed based on the situation around an arbitrary portion of the user 201 as a screen. This makes it possible to recognize differences in the surrounding conditions of any part, specifically, for example, the brightness of the surroundings and the degree of crowding of people, and change the projection method according to the differences, achieving more optimal projection. , The visibility of the image can be improved.

また、この発明にかかる実施の形態の画像投影方法は、上記の発明において、スクリーンに投影された画像を認識し、認識された画像の状況に基づいて、投影方法を変更することを特徴とする。これにより、投影された画像を撮影し、撮影された画像を解析し、その解析結果に基づいて、投影画像を補正するように投影方法を変更でき、より最適な投影を実現し、当該画像の視認性を向上することができる。 Further, the image projection method of the embodiment according to the present invention is characterized in that, in the above invention, the image projected on the screen is recognized and the projection method is changed based on the situation of the recognized image. .. As a result, the projected image can be taken, the shot image can be analyzed, and the projection method can be changed so as to correct the projected image based on the analysis result. Visibility can be improved.

また、この発明にかかる実施の形態の画像投影方法は、上記の発明において、スクリーンとなるユーザ201の任意の部位が、ユーザ201の身体であって当該ユーザ201が視認可能な部位であることを特徴とする。たとえば、スクリーンとなるユーザ201の任意の部位が、ユーザ201の手または腕であることを特徴とする。これにより、手や腕を動かすだけで、簡単にスクリーンとすることができ、より迅速に画像を投影することができる。 Further, in the image projection method of the embodiment according to the present invention, in the above invention, an arbitrary part of the user 201 serving as a screen is a body of the user 201 and a part visible to the user 201. It is a feature. For example, any part of the user 201 that serves as a screen is a hand or an arm of the user 201. As a result, the screen can be easily created by simply moving the hand or arm, and the image can be projected more quickly.

また、たとえば、スクリーンとなるユーザ201の任意の部位が、ユーザ201の脚または足であることを特徴とする。これにより、たとえば、ユーザ201が座っている場合など、容易に投影された画像を見ることができる。また、脚または足は手や腕に比べてスクリーンのできる面積が比較的大きいため、画像を大きく投影することができる。 Further, for example, any part of the user 201 that serves as a screen is characterized by being the legs or feet of the user 201. This makes it possible to easily see the projected image, for example, when the user 201 is sitting. In addition, since the leg or foot has a relatively large screen area compared to the hand or arm, an image can be projected large.

また、たとえば、スクリーンとなるユーザ201の任意の部位が、ユーザ201の手の指または足の指の爪であることを特徴とする。このように、スクリーンとして肌よりも硬くて光沢がある爪を用いることで、画像をより鮮明に投影することができる。 Further, for example, any part of the user 201 that serves as a screen is characterized by being the fingernails of the fingers or toenails of the user 201. In this way, by using nails that are harder and glossier than the skin as the screen, the image can be projected more clearly.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位が、ユーザ201の身体であって当該ユーザ201が鏡を用いて視認可能な部位であることを特徴とする。これにより、鏡に映ったユーザ201自身の身体をスクリーンとして用いることができ、鏡を見ながら、画像の内容も同時に見ることができる。 Further, in the image projection method of the embodiment according to the present invention, an arbitrary part of the user 201 serving as a screen is a body of the user 201 and the part that can be visually recognized by the user 201 using a mirror. It is characterized by. As a result, the body of the user 201 reflected in the mirror can be used as a screen, and the contents of the image can be viewed at the same time while looking at the mirror.

また、この発明にかかる実施の形態の画像投影方法は、さらに、ユーザ201が鏡を用いて視認可能な部位に画像を投影する場合に、当該画像の左右を反転させることを特徴とする。これにより、画像情報が文字情報などの場合にも文字が鏡反転してしまって読みづらくなるのを解消することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that when the user 201 projects an image onto a visible portion using a mirror, the left and right sides of the image are inverted. As a result, even when the image information is character information or the like, it is possible to eliminate the fact that the characters are mirror-inverted and difficult to read.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位が、ユーザ201の顔、頭部または頸部であることを特徴とする。これにより、ユーザ201は、鏡で自身の顔などを見ながら、画像の内容を確認することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that any part of the user 201 serving as a screen is the face, head or neck of the user 201. As a result, the user 201 can confirm the content of the image while looking at his / her face or the like in the mirror.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位が、ユーザ201の体幹部または臀部であることを特徴とする。これにより、ユーザ201は、鏡で自身の全身などを見ながら、画像の内容を確認することができる。 Further, the image projection method of the embodiment according to the present invention is further characterized in that any part of the user 201 serving as a screen is the trunk or the buttocks of the user 201. As a result, the user 201 can confirm the content of the image while looking at his / her whole body or the like with a mirror.

また、この発明にかかる実施の形態の画像投影方法は、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位における着衣をスクリーンとして、ユーザ201に対して送信または配信された画像を投影することを特徴とする。たとえば、着衣は、衣服、手袋、靴、靴下、帽子およびマスクの少なくともいずれか一つを含んでいてもよい。 Further, in the image projection method of the embodiment according to the present invention, the positions of the user 201 and any part of the body of the user 201 are specified, and the clothes at the specified arbitrary parts are transmitted to the user 201 as a screen. Alternatively, it is characterized by projecting a delivered image. For example, clothing may include at least one of clothing, gloves, shoes, socks, a hat and a mask.

これにより、ユーザ201は、着衣をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As a result, the user 201 can use the clothes as a screen, so that the image can be displayed even if the user does not carry a display device such as a mobile terminal device or a display device such as a display or a screen is not around. You can see it.

また、この発明にかかる実施の形態の画像投影方法は、さらに、スクリーンとなるユーザ201の任意の部位における着衣の種類または状態に基づいて、画像を投影する投影方法を変更することを特徴とする。たとえば、スクリーンとなるユーザ201の任意の部位における着衣の色および材質の少なくともいずれか一方に基づいて、画像を投影する投影方法を変更することを特徴とする。 Further, the image projection method according to the embodiment of the present invention is further characterized in that the projection method for projecting an image is changed based on the type or state of clothing at an arbitrary portion of the user 201 to be a screen. .. For example, it is characterized in that the projection method for projecting an image is changed based on at least one of a color and a material of clothing at an arbitrary portion of the user 201 to be a screen.

これにより、着衣の色や材質などの違いを認識し、その違いに応じて投影方法を変更でき、より最適な投影を実現し、当該画像の視認性を向上することができる。 As a result, it is possible to recognize the difference in the color and material of the clothes, change the projection method according to the difference, realize more optimum projection, and improve the visibility of the image.

また、この発明にかかる実施の形態の画像投影装置200、1000は、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位をスクリーンとして、ユーザ201に対して送信または配信された画像を投影する、制御部(制御回路702)を備えたことを特徴とする。 Further, the image projection devices 200 and 1000 according to the embodiment of the present invention specify the positions of the user 201 and any part of the body of the user 201, and the specified arbitrary part is used as a screen for the user 201. It is characterized by including a control unit (control circuit 702) for projecting a transmitted or distributed image.

これにより、ユーザ201は、身体をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As a result, the user 201 can use the body as a screen, so that the image can be displayed even if the user does not carry a display device such as a mobile terminal device or a display device such as a display or a screen is not around. You can see it.

また、この発明にかかる実施の形態の画像投影装置200、1000は、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位における着衣(「clothes」)をスクリーンとして、ユーザ201に対して送信または配信された画像を投影する、制御部(制御回路702)を備えたことを特徴とする。 Further, the image projection devices 200 and 1000 according to the embodiment of the present invention specify the positions of the user 201 and any part of the body of the user 201, and screen the clothes (“closes”) at the specified arbitrary parts. As a result, a control unit (control circuit 702) for projecting an image transmitted or distributed to the user 201 is provided.

これにより、ユーザ201は、着衣をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As a result, the user 201 can use the clothes as a screen, so that the image can be displayed even if the user does not carry a display device such as a mobile terminal device or a display device such as a display or a screen is not around. You can see it.

また、この発明にかかる実施の形態の画像投影装置200、1000は、さらに、制御部(制御回路702)が、画像が任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置200、1000を移動させることを特徴とする。これにより、ユーザ201の当該任意の部位に対して確実に画像を投影することができる。 Further, in the image projection devices 200 and 1000 of the embodiment according to the present invention, the control unit (control circuit 702) further projects the image to a position where the image can be projected on an arbitrary portion. , 1000 are moved. This makes it possible to reliably project an image onto the arbitrary portion of the user 201.

また、この発明にかかる実施の形態の無人航空機602は、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位をスクリーンとして、ユーザ201に対して送信または配信された画像を投影することを特徴とする。また、この発明にかかる実施の形態の無人航空機602は、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位における着衣をスクリーンとして、ユーザ201に対して送信または配信された画像を投影する、制御部(制御回路702)を備えたことを特徴とする。さらに、この発明にかかる実施の形態の無人航空機602は、画像が任意の部位に投影可能な位置へ移動し、当該画像を投影することを特徴とする。 Further, the unmanned aerial vehicle 602 according to the embodiment of the present invention identifies the positions of the user 201 and any part of the body of the user 201, and transmits or distributes the specified arbitrary part as a screen to the user 201. It is characterized by projecting the created image. Further, the unmanned aerial vehicle 602 of the embodiment according to the present invention identifies the positions of the user 201 and any part of the body of the user 201, and transmits the clothes at the specified arbitrary part as a screen to the user 201. Alternatively, the control unit (control circuit 702) for projecting the delivered image is provided. Further, the unmanned aerial vehicle 602 according to the embodiment of the present invention is characterized in that an image is moved to a position where it can be projected onto an arbitrary portion and the image is projected.

これにより、三次元の空間を自由に飛行し、所望の位置に移動し、画像を投影することができる。ユーザ201は、身体または着衣をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As a result, it is possible to freely fly in a three-dimensional space, move to a desired position, and project an image. Since the user 201 can use the body or clothes as a screen, the user can view the image even if he / she does not carry a display device such as a mobile terminal device or does not have a display device such as a display or a screen around. be able to.

また、この発明にかかる実施の形態の画像投影プログラムは、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位をスクリーンとして、ユーザ201に対して送信または配信された画像を投影する処理を、画像投影装置に実行させることを特徴とする。 Further, the image projection program according to the embodiment of the present invention identifies the positions of the user 201 and any part of the body of the user 201, and transmits or distributes the specified arbitrary part as a screen to the user 201. It is characterized in that an image projection device is made to execute a process of projecting the image.

また、この発明にかかる実施の形態の画像投影プログラムは、ユーザ201および当該ユーザ201の身体の任意の部位の位置を特定し、特定した任意の部位における着衣をスクリーンとして、ユーザ201に対して送信または配信された画像を投影する処理を、画像投影装置に実行させることを特徴とする。 Further, the image projection program according to the embodiment of the present invention identifies the positions of the user 201 and any part of the body of the user 201, and transmits the clothes at the specified arbitrary part as a screen to the user 201. Alternatively, it is characterized in that an image projection device is made to execute a process of projecting a delivered image.

さらに、この発明にかかる実施の形態の画像投影プログラムは、画像投影装置200、1000に、画像が任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させる処理を実行させることを特徴とする。 Further, the image projection program of the embodiment according to the present invention causes the image projection devices 200 and 1000 to execute a process of moving the image projection device for projecting the image to a position where the image can be projected on an arbitrary portion. It is characterized by that.

これにより、画像投影装置200、1000を所望の位置に移動させて、画像を投影することができる。ユーザ201は、身体または着衣をスクリーンとすることができるので、携帯端末装置などの表示機器を携帯していなくても、あるいは、ディスプレイやスクリーンなどの表示機器が周囲になくても、画像を見ることができる。 As a result, the image projection devices 200 and 1000 can be moved to a desired position to project an image. Since the user 201 can use the body or clothes as a screen, the user can view the image even if he / she does not carry a display device such as a mobile terminal device or does not have a display device such as a display or a screen around. be able to.

<実施の形態2>
上述の実施の形態では、画像投影装置として、ドローンプロジェクター200、ムーバブルプロジェクター1000について説明したが、画像投影装置は、これに限定されない。頭部に装着し、または、耳にかけて装着するタイプのプロジェクターによる画像投影装置であってもよい。
<Embodiment 2>
In the above-described embodiment, the drone projector 200 and the movable projector 1000 have been described as the image projection device, but the image projection device is not limited thereto. It may be an image projection device by a projector of a type that is worn on the head or worn over the ears.

発明者はこの画像投影装置を、「ウエアラブルプロジェクター(WEARABLE PROJECTOR、略称:「ウェアプロ」、「ウエプ」または「ウエップ」)」と名付けた。 The inventor has named this image projection device a "wearable projector (WEARABLE PROJECTOR, abbreviation:" wear pro "," web "or" web ")".

図11は、この発明にかかる別の実施の形態(実施の形態2)の画像投影装置(「ウエアラブルプロジェクター」)の一例を示す説明図である。 FIG. 11 is an explanatory diagram showing an example of an image projection device (“wearable projector”) of another embodiment (embodiment 2) according to the present invention.

図11において、画像投影装置(ウエアラブルプロジェクター)1100は、ユーザが頭部に装着し、または、耳にかけて装着する。より具体的には、ウエアラブルプロジェクター1100は、本体1102と、本体1102の先端に投影部1101が設けられている。 In FIG. 11, the image projection device (wearable projector) 1100 is worn by the user on the head or over the ear. More specifically, the wearable projector 1100 is provided with a main body 1102 and a projection unit 1101 at the tip of the main body 1102.

本体1102の投影部1101とは反対側には、ユーザの耳にかけて、頭部に固定する装着部1103が設けられている。また、投影部1101は、本体1102から着脱可能に取り付けるようにしてもよい。 On the side of the main body 1102 opposite to the projection portion 1101, a mounting portion 1103 that is placed on the user's ear and fixed to the head is provided. Further, the projection unit 1101 may be detachably attached from the main body 1102.

装着部1103は、耳の上部にかけることで本体1102を固定してもよい。また装着部1103は、耳には触れずに、頭部に巻き付けたりして本体1102を固定してもよい。 The wearing portion 1103 may fix the main body 1102 by hanging it on the upper part of the ear. Further, the mounting portion 1103 may be wrapped around the head to fix the main body 1102 without touching the ears.

このように本体1102、あるいは、本体1102に配置される投影部1101は、左耳側のみであってもよく、また、図示は省略するが、右耳側のみであってもよい。また、図示は省略するが、右耳側と左耳側の両方の本体1102に配置されるようにしてもよい。 The projection unit 1101 arranged on the main body 1102 or the main body 1102 in this way may be only on the left ear side, or may be on the right ear side only, although not shown. Further, although not shown, they may be arranged on the main body 1102 on both the right ear side and the left ear side.

また、図11においては、投影部1101は、一つのみ配置したが、それには限定されない。右耳側と左耳側の両方の本体1102に対して投影部1101がそれぞれ複数個(2つ以上)であってもよい。複数個ある場合は、投影画像が重ならないように、それぞれの投影部1101の投影方向をずらして配置するようにしてもよい。 Further, in FIG. 11, only one projection unit 1101 is arranged, but the present invention is not limited to this. There may be a plurality (two or more) of projection units 1101 for both the right ear side and the left ear side main body 1102. When there are a plurality of them, the projection directions of the projection units 1101 may be staggered so that the projected images do not overlap.

着脱可能に配置された投影部1101は本体1102に対して投影される投影方向を調整することができる。具体的には、投影部1101を把持して、投影方向を調整し、調整した方向を固定する。 The detachably arranged projection unit 1101 can adjust the projection direction projected on the main body 1102. Specifically, the projection unit 1101 is gripped, the projection direction is adjusted, and the adjusted direction is fixed.

これにより、本体1102の装着具合を調整することなく、視線を向けている方向とは無関係に、ユーザが所望する方向(位置)に画像を投影することができる。特に、複数の投影部によって同時に画像を投影する場合に、互いの投影画像の位置を調整することができる。 As a result, the image can be projected in the direction (position) desired by the user regardless of the direction in which the line of sight is directed, without adjusting the mounting condition of the main body 1102. In particular, when images are projected simultaneously by a plurality of projection units, the positions of the projected images can be adjusted with each other.

投影部1101は、具体的には、たとえば、図6に示したプロジェクター(投影部)601などによってその機能を実現することができる。 Specifically, the projection unit 1101 can realize its function by, for example, the projector (projection unit) 601 shown in FIG.

また、図示は省略するが、本体1102には、電池(バッテリー701)が設けられていてもよい。電池は、本体1102に内蔵されていてもよく、また装着部1103に取り付けられていてもよい。この電池を用いて、画像を受信し、記憶し、投影することができる。 Although not shown, the main body 1102 may be provided with a battery (battery 701). The battery may be built in the main body 1102 or may be mounted in the mounting portion 1103. Images can be received, stored and projected using this battery.

さらに、図示を省略するが、カメラ603、マイク706、スピーカー707などが、本体1102に設けられていてもよい。また、本体1102には、図示は省略するが、各種の操作キーなどを備えていてもよい。 Further, although not shown, a camera 603, a microphone 706, a speaker 707, and the like may be provided in the main body 1102. Further, although not shown, the main body 1102 may be provided with various operation keys and the like.

そして、これらの投影部1101を制御して、ユーザの視線が向けられた自身の身体の任意の部位をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備えている。 Then, these projection units 1101 are controlled to project an image transmitted or delivered to the user or stored in advance by using an arbitrary part of the body to which the user's line of sight is directed as a screen. It has a control unit.

通常、正面に視線の焦点を合わせる場合に、頭を動かすため、その動きに合わせて、頭部に本体1102に設けられた投影部1101もその方向を変えることができる。したがって、投影部1101を本体1102に設けることによって、ユーザがウエアラブルプロジェクター1100(本体1102)を装着している限り、ユーザの視線が向けられた自身の身体の任意の部位に対して、確実に画像を投影することができる。 Normally, when the line of sight is focused on the front surface, the head is moved, so that the projection unit 1101 provided on the head body 1102 can also change the direction according to the movement. Therefore, by providing the projection unit 1101 on the main body 1102, as long as the user wears the wearable projector 1100 (main body 1102), the image is surely applied to any part of the body to which the user's line of sight is directed. Can be projected.

また、投影位置については、ユーザは、本体1102の装着具合を調整したり、頭を動かして本体1102に設けられた投影部1100の投影方向を微調整することによって、所望の位置に画像を正確に投影することができる。 Further, regarding the projection position, the user can adjust the mounting condition of the main body 1102 or move the head to finely adjust the projection direction of the projection unit 1100 provided on the main body 1102 to accurately position the image at a desired position. Can be projected onto.

制御部は、本体1102内に内蔵され、または、外付けされており、有線または無線により投影部1101と接続されるようにしてもよい。 The control unit may be built in or externally attached to the main body 1102 and may be connected to the projection unit 1101 by wire or wirelessly.

制御部は、図示は省略するが、CPU(マイコン)がメモリに記憶されたプログラムを実行することによって、その機能を実現することができる。また、制御部は、画像情報を送受信する通信インタフェースによってその機能を実現することができる。また、メモリは、投影する画像情報を記憶するようにしてもよい。 Although not shown, the control unit can realize its function by the CPU (microcomputer) executing a program stored in the memory. Further, the control unit can realize its function by a communication interface for transmitting and receiving image information. Further, the memory may store the image information to be projected.

また、制御部は、投影部1101を制御して、ユーザの視線が向けられた自身の身体の任意の部位における着衣をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影するようにしてもよい。 Further, the control unit controls the projection unit 1101 and transmits or distributes the clothes to the user at any part of the body to which the user's line of sight is directed as a screen, or is stored in advance. The image may be projected.

ユーザは本体1102を装着しているので、本体1102を装着した状態で視線を向けた方向に存在するユーザの身体の任意の部位、あるいは、身体の任意の部位における着衣の面をスクリーンとすることができる。 Since the user is wearing the main body 1102, the screen should be any part of the user's body or the surface of clothing on any part of the body that exists in the direction of the line of sight with the main body 1102 attached. Can be done.

また、制御部は、投影部1101を制御して、ユーザの視線が向けられた面をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影するようにしてもよい。 Further, the control unit may control the projection unit 1101 to project an image transmitted or distributed to the user or stored in advance using the surface to which the user's line of sight is directed as a screen. good.

ユーザの視線が向けられた面とは、平面であってもよく、また平面以外の面(たとえば曲面など)であってもよい。ユーザの視線が向けられた面は、具体的には、たとえば、壁面、机の上面、窓、鏡、床面、天井面などであってもよい。 The surface to which the user's line of sight is directed may be a plane or a surface other than a plane (for example, a curved surface). Specifically, the surface to which the user's line of sight is directed may be, for example, a wall surface, a desk upper surface, a window, a mirror, a floor surface, a ceiling surface, or the like.

ユーザは本体1102を装着しているので、本体1102を装着した状態で視線を向けた方向に存在する各種の面をスクリーンとすることができる。 Since the user wears the main body 1102, various surfaces existing in the direction in which the line of sight is directed can be used as the screen with the main body 1102 attached.

制御部は、複数設けられた投影部1101を制御して、当該複数設けられた投影部1101により、画像を同時に投影するようにしてもよい。 The control unit may control a plurality of projection units 1101 and simultaneously project an image by the plurality of projection units 1101.

ここで、複数設けられた投影部1101により、画像を同時に投影する際に、複数設けられた投影部1101のうちの第1の投影部(たとえば右耳側の本体1102に配置された投影部1101)と第2の投影部(たとえば左耳側の本体1102に配置された投影部1101)とで異なる画像を同時に投影するようにしてもよい。 Here, when the images are simultaneously projected by the plurality of projection units 1101, the first projection unit (for example, the projection unit 1101 arranged on the main body 1102 on the right ear side) of the plurality of projection units 1101 is provided. ) And the second projection unit (for example, the projection unit 1101 arranged on the main body 1102 on the left ear side) may simultaneously project different images.

具体的には、たとえば、図1に示したように、右手101、左手102のパームトップスクリーンに、それぞれ異なる画像情報を投影することができる。 Specifically, for example, as shown in FIG. 1, different image information can be projected on the palmtop screens of the right hand 101 and the left hand 102.

また、複数設けられた投影部1101のうちの第1の投影部と第2の投影部とで同じ画像を重ねて同時に投影するようにしてもよい。これにより、投影画像をより明るくすることができる。また、重なり具合を少しずらすことで、ユーザに画像を立体的(3D)に見せるようにすることができる。 Further, the same image may be superimposed and simultaneously projected on the first projection unit and the second projection unit among the plurality of projection units 1101 provided. This makes it possible to make the projected image brighter. In addition, by slightly shifting the degree of overlap, it is possible to make the image appear three-dimensional (3D) to the user.

また、制御部は、投影する画像を複数個に分割し、複数設けられた各投影部を制御して、各投影部によって、それぞれ分割された画像を同時に投影するようにしてもよい。この場合に、各投影部1101の投影方向は、手動または自動で調整することができる。 Further, the control unit may divide the image to be projected into a plurality of projection units, control each of the plurality of projection units provided, and simultaneously project the divided images by each projection unit. In this case, the projection direction of each projection unit 1101 can be adjusted manually or automatically.

また、制御部は、ユーザによってウエアラブルプロジェクター1100が装着されていることを検知し、検知の結果、ウエアラブルプロジェクター1100が装着されていると判断した場合に、画像を投影できるようにしてもよい。 Further, the control unit may detect that the wearable projector 1100 is attached by the user, and may be able to project an image when it is determined that the wearable projector 1100 is attached as a result of the detection.

これにより、不要な投影を回避し、消費電力を節約することができる。ユーザは、画像の投影を所望する場合は、ウエアラブルプロジェクター1100を装着し、画像の投影を所望しない場合は、ウエアラブルプロジェクター1100を外せばよい。 As a result, unnecessary projection can be avoided and power consumption can be saved. The user may attach the wearable projector 1100 when he / she wants to project an image, and remove the wearable projector 1100 when he / she does not want to project an image.

ウエアラブルプロジェクター1100が装着されているか否かは、たとえば、ウエアラブルプロジェクター1100の装着部1103の部分に接触センサーを設けて、その接触センサーによる検出結果に基づいて判断することができる。 Whether or not the wearable projector 1100 is mounted can be determined, for example, by providing a contact sensor in the mounting portion 1103 of the wearable projector 1100 and based on the detection result by the contact sensor.

また、ウエアラブルプロジェクター1100が装着されているか否かは、通常、ウエアラブルプロジェクター1100が装着されている場合には接触することがない部分に接触センサーを設けて、その接触センサーによる検出結果に基づいて判断するようにしてもよい。 Further, whether or not the wearable projector 1100 is attached is determined based on the detection result of the contact sensor by providing a contact sensor in a portion that does not normally come into contact when the wearable projector 1100 is attached. You may try to do it.

より具体的には、たとえば、本体1102や装着部1103のうち、装着時にはユーザの顔または頭部が接触しない部分が接触されていると検出した場合は、ウエアラブルプロジェクター1100(本体1102)が外されて、置かれている状態であると推測し、その場合には、ウエアラブルプロジェクター1100(本体1102)は装着されていないと判断することができる。 More specifically, for example, when it is detected that a portion of the main body 1102 or the mounting portion 1103 that the user's face or head does not touch is touched, the wearable projector 1100 (main body 1102) is removed. In that case, it can be determined that the wearable projector 1100 (main body 1102) is not attached.

また、制御部は、ウエアラブルプロジェクター1100(本体1102)が装着されているユーザがあらかじめ登録されているユーザであることを認識し、認識の結果、ウエアラブルプロジェクター1100(本体1102)が装着されているユーザがあらかじめ登録されているユーザであると判断した場合に、画像を投影するようにしてもよい。 Further, the control unit recognizes that the user wearing the wearable projector 1100 (main body 1102) is a registered user in advance, and as a result of the recognition, the user wearing the wearable projector 1100 (main body 1102) is mounted. If it is determined that is a user registered in advance, an image may be projected.

これにより、ユーザ以外の登録されていない者がウエアラブルプロジェクター1100(本体1102)を装着した場合であっても、ユーザ宛の画像情報が投影されないようにすることができる。したがって、ユーザに無断でのユーザ宛の情報の漏洩を防止することができる。 As a result, even when an unregistered person other than the user wears the wearable projector 1100 (main body 1102), the image information addressed to the user can be prevented from being projected. Therefore, it is possible to prevent the leakage of information addressed to the user without the permission of the user.

また、本体1102に、ID情報およびパスワード情報の少なくともいずれかの入力を受け付ける受付部を備えていてもよい。受付部は、図示を省略するが、本体1102に所定のキーを設け、そのキーを押下または接触することによって入力することができる。また、本体1102に接触センサーを設け、あらかじめ定められたユーザのみが知る接触の仕方(たとえばタッチの位置、タッチの回数など)によって、ID情報またはパスワード情報としてもよい。 Further, the main body 1102 may be provided with a reception unit that accepts input of at least one of ID information and password information. Although not shown, the reception unit can be input by providing a predetermined key on the main body 1102 and pressing or touching the key. Further, a contact sensor may be provided on the main body 1102, and ID information or password information may be used depending on the contact method (for example, the position of touch, the number of touches, etc.) known only to a predetermined user.

制御部は、入力された情報に基づいて、入力されたID情報およびパスワード情報が一致するか否かを判断し、その判断の結果、一致する場合に、あらかじめ登録されているユーザであることを認識することができる。 The control unit determines whether or not the entered ID information and password information match based on the entered information, and as a result of the determination, if they match, the user is a pre-registered user. Can be recognized.

また、本体1102に、図示を省略する、ユーザの音声の入力を受け付ける音声受付部を備えていてもよい。音声受付部は、具体的には、たとえば、マイク706などによってその機能を実現することができる。 Further, the main body 1102 may be provided with a voice receiving unit that accepts a user's voice input (not shown). Specifically, the voice reception unit can realize its function by, for example, a microphone 706.

制御部は、入力された音声に基づいて、音声認識によって、あらかじめ登録されているユーザであることを認識するようにしてもよい。 The control unit may recognize that the user is a pre-registered user by voice recognition based on the input voice.

また、制御部は、ウエアラブルプロジェクター1100に対して接触されたことを検知し、検知の結果、接触された場合に、画像の投影を開始することができる。ウエアラブルプロジェクター1100に対して接触されたことの検知は、具体的には、たとえば、ウエアラブルプロジェクター1100(本体1102または装着部1103)の所定の位置に設けられた接触センサーなどによってその機能を実現することができる。 Further, the control unit can detect that the wearable projector 1100 is in contact with the wearable projector 1100, and as a result of the detection, can start projecting an image when the contact is made. Specifically, the detection of contact with the wearable projector 1100 is realized by, for example, a contact sensor provided at a predetermined position of the wearable projector 1100 (main body 1102 or mounting portion 1103). Can be done.

このように、ユーザは、ウエアラブルプロジェクター1100に触れることで、容易に画像投影の開始の指示をおこなうことができる。 In this way, the user can easily instruct the start of image projection by touching the wearable projector 1100.

また、制御部は、ウエアラブルプロジェクター1100に対して接触されたことを検知し、検知の結果、接触された場合に、投影されている画像の投影を中止することができる。このように、ユーザは、ウエアラブルプロジェクター1100に触れることで、容易に画像投影の中止(終了)の指示をおこなうことができる。 Further, the control unit can detect that the wearable projector 1100 is in contact with the wearable projector 1100, and as a result of the detection, can stop the projection of the projected image when the contact is made. In this way, the user can easily give an instruction to stop (end) the image projection by touching the wearable projector 1100.

画像投影の開始と中止では、同じ接触センサーを用いることができる。1回目のタッチで画像の投影を開始し、同じ接触センサーの2回目のタッチで画像の投影を中止するようにしてもよい。このように、同じ接触センサーのタッチにより、投影の開始と中止を交互におこなうようにしてもよい。 The same contact sensor can be used to start and stop image projection. The first touch may start the image projection and the second touch of the same contact sensor may stop the image projection. In this way, the projection may be started and stopped alternately by touching the same contact sensor.

また、画像の投影の開始の指示と、投影されている画像の投影の中止の指示は、それぞれ別の接触センサーによっておこなうことができる。具体的には、たとえば、右耳側の本体1102に設けられた接触センサーに触れると画像の投影が開始され、左耳側の本体1102に設けられた接触センサーに触れると投影されている画像の投影が中止されるようにしてもよい。 Further, the instruction to start the projection of the image and the instruction to stop the projection of the projected image can be given by different contact sensors. Specifically, for example, when the contact sensor provided on the main body 1102 on the right ear side is touched, the projection of the image is started, and when the contact sensor provided on the main body 1102 on the left ear side is touched, the projected image is projected. The projection may be stopped.

このようにして、ウエアラブルプロジェクター1100(本体1102)に触れるという簡単な操作によって画像の投影の開始、終了の指示をおこなうことができる。 In this way, the start and end of image projection can be instructed by a simple operation of touching the wearable projector 1100 (main body 1102).

以上説明したように、この発明にかかる実施の形態2の画像投影装置は、ユーザの視線が向けられた身体の任意の部位をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 As described above, the image projection device of the second embodiment according to the present invention is transmitted or distributed to the user using an arbitrary part of the body to which the user's line of sight is directed as a screen, or is stored in advance. It is provided with a control unit for projecting a projected image, and is characterized in that the user wears it on the head or over the ear.

これにより、ユーザは、ユーザの視線が向けられた自身の身体の任意の部位において、所望する画像を容易に見ることができる。 This allows the user to easily see the desired image at any part of his body to which the user's line of sight is directed.

また、この発明にかかる実施の形態2の画像投影装置は、ユーザの視線が向けられた身体の任意の部位における着衣をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 Further, the image projection device of the second embodiment according to the present invention is transmitted or delivered to the user, or stored in advance, using the clothes on any part of the body to which the user's line of sight is directed as a screen. It is provided with a control unit for projecting an image, and is characterized in that the user wears it on the head or over the ear.

これにより、ユーザは、ユーザの視線が向けられた自身の身体の任意の部位における着衣において、所望する画像を容易に見ることができる。 This allows the user to easily see the desired image in clothing at any part of his body to which the user's gaze is directed.

また、この発明にかかる実施の形態2の画像投影装置は、ユーザの視線が向けられた面をスクリーンとして、ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention is a control unit that projects an image transmitted or distributed to the user or stored in advance using the surface to which the user's line of sight is directed as a screen. The user wears the image on the head or wears the image on the ear.

これにより、ユーザは、ユーザの視線が向けられた方向(位置)において、所望する画像を容易に見ることができる。 As a result, the user can easily see the desired image in the direction (position) to which the user's line of sight is directed.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、投影部1101をウエアラブルプロジェクター1100(本体1102)に着脱可能に設けたことを特徴とする。これにより、不要な場合には取り外すことができる。 Further, the image projection device according to the second embodiment of the present invention is further characterized in that the projection unit 1101 is detachably provided on the wearable projector 1100 (main body 1102). As a result, it can be removed when it is not needed.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、複数設けられた投影部1101により、画像を同時に投影することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention is further characterized in that images are simultaneously projected by a plurality of projection units 1101.

これにより、ユーザは複数の画像を同時に見ることができる。 This allows the user to view multiple images at the same time.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、複数設けられた投影部1101のうちの第1の投影部と第2の投影部とで異なる画像を同時に投影することを特徴とする。 Further, the image projection device of the second embodiment according to the present invention is further characterized in that different images are simultaneously projected by the first projection unit and the second projection unit among the plurality of projection units 1101 provided. And.

これにより、ユーザは別々の情報を同時に確認することができる。 This allows the user to see different information at the same time.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、複数設けられた投影部1101のうちの第1の投影部と第2の投影部とで同じ画像を重ねて同時に投影することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention further superimposes and simultaneously projects the same image on the first projection unit and the second projection unit of the plurality of projection units 1101 provided. It is characterized by.

これにより、投影される画像をより明るく見ることができる。また、ユーザは立体画像を楽しむことができる。 This makes it possible to see the projected image brighter. In addition, the user can enjoy the stereoscopic image.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、投影する画像を複数個に分割し、複数設けられた各投影部によって、それぞれ分割された画像を同時に投影することを特徴とする。これにより、ユーザは、解像度を下げることなく、画像を見ることができる。 Further, the image projection apparatus according to the second embodiment of the present invention is further characterized in that the image to be projected is further divided into a plurality of parts, and the divided images are simultaneously projected by each of the plurality of projection units provided. do. This allows the user to view the image without reducing the resolution.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、本体1102に、画像を受信し、記憶し、投影するための電池を設けたことを特徴とする。 Further, the image projection device according to the second embodiment of the present invention is further characterized in that the main body 1102 is provided with a battery for receiving, storing, and projecting an image.

これにより、ユーザは移動しながら、画像を受信したり、受信した画像を記憶したり、受信した画像や記憶された画像を投影して見ることができる。 As a result, the user can receive an image, store the received image, and project and view the received image or the stored image while moving.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、制御部が、ユーザによってウエアラブルプロジェクター1100(本体1102)が装着されていることを検知し、検知の結果、ウエアラブルプロジェクター1100(本体1102)が装着されていると判断した場合に、画像を投影することを特徴とする。 Further, in the image projection device of the second embodiment according to the present invention, the control unit further detects that the wearable projector 1100 (main body 1102) is attached by the user, and as a result of the detection, the wearable projector 1100 (main body). It is characterized in that an image is projected when it is determined that 1102) is attached.

これにより、所望の位置以外に画像が投影されることを防止することができる。また、投影が不要な場合に、電力消費を抑えることができる。 This makes it possible to prevent the image from being projected at a position other than the desired position. Further, when projection is unnecessary, power consumption can be suppressed.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、制御部が、ウエアラブルプロジェクター1100(本体1102)が装着されているユーザがあらかじめ登録されているユーザであることを認識し、認識の結果、ウエアラブルプロジェクター1100(本体1102)が装着されているユーザがあらかじめ登録されているユーザであると判断した場合に、画像を投影することを特徴とする。 Further, in the image projection device of the second embodiment according to the present invention, the control unit further recognizes that the user to which the wearable projector 1100 (main body 1102) is mounted is a registered user in advance. As a result, when it is determined that the user equipped with the wearable projector 1100 (main body 1102) is a pre-registered user, the image is projected.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、本体1102に、ID情報およびパスワード情報の少なくともいずれかの入力を受け付ける受付部を備え、制御部が、入力された情報に基づいて、あらかじめ登録されているユーザであることを認識することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention further includes a reception unit for receiving at least one of ID information and password information in the main body 1102, and the control unit is based on the input information. It is characterized by recognizing that the user is a registered user in advance.

これにより、ユーザ以外がウエアラブルプロジェクター1100(本体1102)を装着し、ユーザの情報を見てしまうことを防止することができる。 As a result, it is possible to prevent a person other than the user from wearing the wearable projector 1100 (main body 1102) and viewing the user's information.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、本体1102に、ユーザの音声の入力を受け付ける音声受付部を備え、制御部が、入力された音声に基づいて、音声認識によって、あらかじめ登録されているユーザであることを認識することを特徴とする。 Further, the image projection device of the second embodiment according to the present invention further includes a voice receiving unit for receiving the input of the user's voice in the main body 1102, and the control unit performs voice recognition based on the input voice. , It is characterized by recognizing that the user is a registered user in advance.

これにより、声を発するだけで容易にユーザを認識することができ、個人認証の手間を簡素にすることができる。 As a result, the user can be easily recognized just by speaking out, and the trouble of personal authentication can be simplified.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、制御部が、ウエアラブルプロジェクター1100(本体1102)に対して接触されたことを検知し、検知の結果、接触された場合に、画像の投影を開始することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention further detects that the control unit is in contact with the wearable projector 1100 (main body 1102), and as a result of the detection, when the control unit is in contact with the wearable projector 1100 (main body 1102). It is characterized by starting the projection of an image.

これにより、本体1102に触るという簡易な仕草によって、画像投影の開始の指示を容易におこなうことができる。 As a result, it is possible to easily instruct the start of image projection by a simple gesture of touching the main body 1102.

また、この発明にかかる実施の形態2の画像投影装置は、さらに、制御部が、ウエアラブルプロジェクター1100(本体1102)に対して接触されたことを検知し、検知の結果、接触された場合に、画像の投影を中止することを特徴とする。 Further, the image projection device according to the second embodiment of the present invention further detects that the control unit is in contact with the wearable projector 1100 (main body 1102), and as a result of the detection, when the control unit is in contact with the wearable projector 1100 (main body 1102). It is characterized by stopping the projection of the image.

これにより、本体1102に触るという簡易な仕草によって、投影されている画像の投影中止の指示を容易におこなうことができる。 As a result, it is possible to easily give an instruction to stop the projection of the projected image by a simple gesture of touching the main body 1102.

なお、この実施の形態で説明した画像投影方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、CD-ROM、MO、DVD、USBメモリ、SSDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The image projection method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, MO, DVD, USB memory, SSD, etc., and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.

以下、実施の形態の内容について付記として記載する。 Hereinafter, the contents of the embodiment will be described as an appendix.

(付記1)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする画像投影方法。
(Appendix 1)
Identify the location of the user and any part of the user's body and
An image projection method comprising projecting an image transmitted or delivered to the user using the specified arbitrary portion as a screen.

(付記2)
前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする付記1に記載の画像投影方法。
(Appendix 2)
The image projection method according to Appendix 1, wherein the image projection device for projecting the image is moved to a position where the image can be projected onto the arbitrary portion.

(付記3)
前記画像投影装置を無人航空機を用いて移動させることを特徴とする付記2に記載の画像投影方法。
(Appendix 3)
The image projection method according to Appendix 2, wherein the image projection device is moved by using an unmanned aerial vehicle.

(付記4)
前記画像投影装置を屋内の設備を用いて移動させることを特徴とする付記2に記載の画像投影方法。
(Appendix 4)
The image projection method according to Appendix 2, wherein the image projection device is moved by using an indoor facility.

(付記5)
前記屋内の設備は、屋内の壁面、天井および床の少なくともいずれか一つであり、当該屋内の設備に沿って前記画像投影装置を移動させることを特徴とする付記4に記載の画像投影方法。
(Appendix 5)
The image projection method according to Appendix 4, wherein the indoor equipment is at least one of an indoor wall surface, a ceiling, and a floor, and the image projection device is moved along the indoor equipment.

(付記6)
前記スクリーンとなる前記ユーザの前記任意の部位は、当該ユーザの指定により設定されることを特徴とする付記1~5のいずれか一つに記載の画像投影方法。
(Appendix 6)
The image projection method according to any one of Supplementary Provisions 1 to 5, wherein the arbitrary portion of the user serving as the screen is set according to the designation of the user.

(付記7)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記画像の内容に基づいて選定されることを特徴とする付記1~5のいずれか一つに記載の画像投影方法。
(Appendix 7)
The image projection method according to any one of Supplementary Provisions 1 to 5, wherein the arbitrary portion of the user serving as the screen is selected based on the content of the image.

(付記8)
前記スクリーンとなる前記ユーザの前記任意の部位の状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする付記1~7のいずれか一つに記載の画像投影方法。
(Appendix 8)
The image projection method according to any one of Supplementary note 1 to 7, wherein the projection method for projecting the image is changed based on the state of the arbitrary portion of the user to be the screen.

(付記9)
前記スクリーンとなる前記ユーザの前記任意の部位の周辺の状況に基づいて、前記画像を投影する投影方法を変更することを特徴とする付記1~8のいずれか一つに記載の画像投影方法。
(Appendix 9)
The image projection method according to any one of Supplementary note 1 to 8, wherein the projection method for projecting the image is changed based on the situation around the arbitrary portion of the user as the screen.

(付記10)
前記任意の部位の周辺の状況は、当該周辺の明るさであることを特徴とする付記9に記載の画像投影方法。
(Appendix 10)
The image projection method according to Appendix 9, wherein the condition around the arbitrary portion is the brightness of the periphery.

(付記11)
前記スクリーンに投影された画像を認識し、認識された画像の状況に基づいて、投影方法を変更することを特徴とする付記1~10のいずれか一つに記載の画像投影方法。
(Appendix 11)
The image projection method according to any one of Supplementary note 1 to 10, wherein the image projected on the screen is recognized and the projection method is changed based on the situation of the recognized image.

(付記12)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの身体であって当該ユーザが視認可能な部位であることを特徴とする付記1~11のいずれか一つに記載の画像投影方法。
(Appendix 12)
The image projection method according to any one of Supplementary note 1 to 11, wherein the arbitrary portion of the user serving as the screen is a portion of the user's body that can be visually recognized by the user.

(付記13)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの手または腕であることを特徴とする付記12に記載の画像投影方法。
(Appendix 13)
The image projection method according to Appendix 12, wherein the arbitrary portion of the user serving as the screen is the user's hand or arm.

(付記14)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの脚または足であることを特徴とする付記12に記載の画像投影方法。
(Appendix 14)
The image projection method according to Appendix 12, wherein the arbitrary portion of the user serving as the screen is the leg or foot of the user.

(付記15)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの手の指または足の指の爪であることを特徴とする付記12に記載の画像投影方法。
(Appendix 15)
The image projection method according to Appendix 12, wherein the arbitrary portion of the user serving as the screen is a fingernail or a toenail of the user's hand.

(付記16)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの身体であって当該ユーザが鏡を用いて視認可能な部位であることを特徴とする付記1~11のいずれか一つに記載の画像投影方法。
(Appendix 16)
The description in any one of the appendices 1 to 11, wherein the arbitrary portion of the user serving as the screen is a portion of the user's body that can be visually recognized by the user using a mirror. Image projection method.

(付記17)
前記ユーザが鏡を用いて視認可能な部位に前記画像を投影する場合に、当該画像の左右を反転させることを特徴とする付記16に記載の画像投影方法。
(Appendix 17)
The image projection method according to Appendix 16, wherein when the user projects the image onto a visible portion using a mirror, the left and right sides of the image are inverted.

(付記18)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの顔、頭部または頸部であることを特徴とする付記16に記載の画像投影方法。
(Appendix 18)
The image projection method according to Appendix 16, wherein the arbitrary portion of the user serving as the screen is the face, head, or neck of the user.

(付記19)
前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの体幹部または臀部であることを特徴とする付記12または16に記載の画像投影方法。
(Appendix 19)
The image projection method according to Appendix 12 or 16, wherein the arbitrary portion of the user serving as the screen is the trunk or buttocks of the user.

(付記20)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする画像投影方法。
(Appendix 20)
Identify the location of the user and any part of the user's body and
An image projection method comprising projecting an image transmitted or delivered to the user using clothes at the specified arbitrary portion as a screen.

(付記21)
前記着衣は、衣服、手袋、靴、靴下、帽子およびマスクの少なくともいずれか一つを含むことを特徴とする付記20に記載の画像投影方法。
(Appendix 21)
The image projection method according to Appendix 20, wherein the clothing includes at least one of clothing, gloves, shoes, socks, a hat, and a mask.

(付記22)
前記スクリーンとなる前記ユーザの前記任意の部位における着衣の種類または状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする付記20または21に記載の画像投影方法。
(Appendix 22)
The image projection method according to Appendix 20 or 21, wherein the projection method for projecting the image is changed based on the type or state of clothing of the user at the arbitrary portion of the screen.

(付記23)
前記スクリーンとなる前記ユーザの前記任意の部位における着衣の色および材質の少なくともいずれか一方に基づいて、前記画像を投影する投影方法を変更することを特徴とする付記20または21に記載の画像投影方法。
(Appendix 23)
The image projection according to Appendix 20 or 21, wherein the projection method for projecting the image is changed based on at least one of the color and the material of the clothes of the user at the arbitrary portion of the screen. Method.

(付記24)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、
制御部を備えたことを特徴とする画像投影装置。
(Appendix 24)
Identify the location of the user and any part of the user's body and
Using the specified arbitrary part as a screen, an image transmitted or delivered to the user is projected.
An image projection device characterized by having a control unit.

(付記25)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、
制御部を備えたことを特徴とする画像投影装置。
(Appendix 25)
Identify the location of the user and any part of the user's body and
An image transmitted or delivered to the user is projected using the clothes on the specified arbitrary part as a screen.
An image projection device characterized by having a control unit.

(付記26)
前記制御部は、
前記画像を前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする付記25に記載の画像投影装置。
(Appendix 26)
The control unit
25. The image projection device according to Appendix 25, wherein the image projection device for projecting the image is moved to a position where the image can be projected onto the arbitrary portion.

(付記27)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする無人航空機。
(Appendix 27)
Identify the location of the user and any part of the user's body and
An unmanned aerial vehicle characterized by projecting an image transmitted or delivered to the user using the specified arbitrary portion as a screen.

(付記28)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする無人航空機。
(Appendix 28)
Identify the location of the user and any part of the user's body and
An unmanned aerial vehicle characterized by projecting an image transmitted or delivered to the user using clothes at the specified arbitrary portion as a screen.

(付記29)
前記画像が前記任意の部位に投影可能な位置へ移動し、当該画像を投影することを特徴とする付記27または28に記載の無人航空機。
(Appendix 29)
The unmanned aerial vehicle according to Appendix 27 or 28, wherein the image is moved to a position where it can be projected onto the arbitrary portion and the image is projected.

(付記30)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、
画像投影装置に実行させることを特徴とする画像投影プログラム。
(Appendix 30)
Identify the location of the user and any part of the user's body and
A process of projecting an image transmitted or delivered to the user using the specified arbitrary part as a screen.
An image projection program characterized by being executed by an image projection device.

(付記31)
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、
画像投影装置に実行させることを特徴とする画像投影プログラム。
(Appendix 31)
Identify the location of the user and any part of the user's body and
A process of projecting an image transmitted or delivered to the user using the clothes on the specified arbitrary part as a screen.
An image projection program characterized by being executed by an image projection device.

(付記32)
前記画像投影装置に、前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させる処理を実行させることを特徴とする付記30または31に記載の画像投影プログラム。
(Appendix 32)
The image projection program according to Appendix 30 or 31, wherein the image projection device is made to execute a process of moving the image projection device for projecting the image to a position where the image can be projected on the arbitrary portion. ..

また、以下、実施の形態2の内容について付記として記載する。 In addition, the contents of the second embodiment will be described below as an appendix.

(付記33)
ユーザの視線が向けられた身体の任意の部位をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
(Appendix 33)
A control unit for projecting an image transmitted, delivered, or stored in advance to the user by using an arbitrary part of the body to which the user's line of sight is directed as a screen.
An image projection device, which is worn by the user on the head or over the ears.

(付記34)
ユーザの視線が向けられた身体の任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
(Appendix 34)
A control unit for projecting an image transmitted or delivered to the user or pre-stored using clothes on any part of the body to which the user's line of sight is directed is provided.
An image projection device, which is worn by the user on the head or over the ears.

(付記35)
ユーザの視線が向けられた面をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
(Appendix 35)
A control unit for projecting an image transmitted or delivered to the user or stored in advance with the surface to which the user's line of sight is directed as a screen is provided.
An image projection device, which is worn by the user on the head or over the ears.

(付記36)
投影部を自装置に着脱可能に設けたことを特徴とする付記33~35のいずれか一つに記載の画像投影装置。
(Appendix 36)
The image projection device according to any one of Supplementary note 33 to 35, wherein the projection unit is detachably provided on the own device.

(付記37)
複数設けられた前記投影部により、前記画像を同時に投影することを特徴とする付記33~36のいずれか一つに記載の画像投影装置。
(Appendix 37)
The image projection device according to any one of Supplementary note 33 to 36, wherein the images are simultaneously projected by the plurality of projection units provided.

(付記38)
複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで異なる画像を同時に投影することを特徴とする付記37に記載の画像投影装置。
(Appendix 38)
The image projection device according to Appendix 37, wherein different images are simultaneously projected by the first projection unit and the second projection unit among the plurality of projection units provided.

(付記39)
複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで同じ画像を重ねて同時に投影することを特徴とする付記37に記載の画像投影装置。
(Appendix 39)
The image projection device according to Appendix 37, wherein the first projection unit and the second projection unit of the plurality of projection units are provided so as to superimpose the same image and simultaneously project the same image.

(付記40)
投影する画像を複数個に分割し、複数設けられた各前記投影部によって、それぞれ分割された画像を同時に投影することを特徴とする付記37に記載の画像投影装置。
(Appendix 40)
The image projection device according to Appendix 37, wherein the image to be projected is divided into a plurality of parts, and the divided images are simultaneously projected by each of the plurality of projection units provided.

(付記41)
自装置に、画像を受信し、記憶し、投影するための電池を設けたことを特徴とする付記33~40のいずれか一つに記載の画像投影装置。
(Appendix 41)
The image projection device according to any one of Supplementary note 33 to 40, wherein the own device is provided with a battery for receiving, storing, and projecting an image.

(付記42)
前記制御部は、
前記ユーザによって自装置が装着されていることを検知し、
前記検知の結果、自装置が装着されていると判断した場合に、前記画像を投影することを特徴とする付記33~41のいずれか一つに記載の画像投影装置。
(Appendix 42)
The control unit
Detecting that the user is wearing the device,
The image projection device according to any one of Supplementary note 33 to 41, wherein the image is projected when it is determined that the own device is attached as a result of the detection.

(付記43)
前記制御部は、
自装置が装着されているユーザがあらかじめ登録されているユーザであることを認識し、
前記認識の結果、自装置が装着されているユーザがあらかじめ登録されているユーザであると判断した場合に、前記画像を投影することを特徴とする付記33~42のいずれか一つに記載の画像投影装置。
(Appendix 43)
The control unit
Recognizing that the user equipped with the own device is a pre-registered user,
Described in any one of Supplementary Provisions 33 to 42, which is characterized in that the image is projected when it is determined as a result of the recognition that the user equipped with the own device is a registered user in advance. Image projection device.

(付記44)
自装置に、ID情報およびパスワード情報の少なくともいずれかの入力を受け付ける受付部を備え、
前記制御部は、入力された情報に基づいて、あらかじめ登録されているユーザであることを認識することを特徴とする付記43に記載の画像投影装置。
(Appendix 44)
The own device is equipped with a reception unit that accepts at least one of ID information and password information.
The image projection device according to Appendix 43, wherein the control unit recognizes that the user is a pre-registered user based on the input information.

(付記45)
自装置に、ユーザの音声の入力を受け付ける音声受付部を備え、
前記制御部は、入力された音声に基づいて、音声認識によって、あらかじめ登録されているユーザであることを認識することを特徴とする付記43に記載の画像投影装置。
(Appendix 45)
The own device is equipped with a voice reception unit that accepts user's voice input.
The image projection device according to Appendix 43, wherein the control unit recognizes that the user is a pre-registered user by voice recognition based on the input voice.

(付記46)
前記制御部は、
自装置に対して接触されたことを検知し、
前記検知の結果、接触された場合に、前記画像の投影を開始することを特徴とする付記33~45のいずれか一つに記載の画像投影装置。
(Appendix 46)
The control unit
Detects contact with own device and detects
The image projection device according to any one of Supplementary note 33 to 45, wherein the projection of the image is started when the image is touched as a result of the detection.

(付記47)
前記制御部は、
自装置に対して接触されたことを検知し、
前記検知の結果、接触された場合に、前記画像の投影を中止することを特徴とする付記33~46のいずれか一つに記載の画像投影装置。
(Appendix 47)
The control unit
Detects contact with own device and detects
The image projection device according to any one of Supplementary note 33 to 46, wherein the projection of the image is stopped when the image is contacted as a result of the detection.

以上のように、この発明にかかる画像投影方法、画像投影装置、無人航空機および画像投影プログラムは、画像を投影する画像投影方法、画像投影装置、無人航空機および画像投影プログラムに有用であり、特に、身体をスクリーンとして画像を投影する画像投影方法、画像投影装置、無人航空機および画像投影プログラムに適している。 As described above, the image projection method, the image projection device, the unmanned aircraft and the image projection program according to the present invention are useful for the image projection method, the image projection device, the unmanned aircraft and the image projection program for projecting an image, and in particular, Suitable for image projection methods, image projection devices, unmanned aircraft and image projection programs that project images using the body as a screen.

110、120 パームトップスクリーン
200 画像投影装置(ドローンプロジェクター)
201 ユーザ
400 アームトップスクリーン
500 リストトップスクリーン
601 プロジェクター
602 ドローン
603 カメラ
604 人感センサー
801 ユーザ指示受付部
802 投影対象ユーザ特定部
803 身体部位情報取得部
804 投影画像情報取得部
805 身体部位特定部
806 投影位置・投影寸法決定部
807 警告出力部
808 移動位置・投影角度決定部
809 移動・投影角度制御部
810 画像情報投影部
811 投影画像撮影部
812 指示出力部
1000 画像投影装置(ムーバブルプロジェクター)
1100 画像投影装置(ウエアラブルプロジェクター)
1101 投影部
1102 本体
1103 装着部
110, 120 Palmtop screen 200 Image projection device (drone projector)
201 User 400 Arm top screen 500 List top screen 601 Projector 602 Drone 603 Camera 604 Human sensor 801 User instruction reception part 802 Projection target user identification part 803 Body part information acquisition part 804 Projection image information acquisition part 805 Body part identification part 806 Projection Position / projection dimension determination unit 807 Warning output unit 808 Movement / projection angle determination unit 809 Movement / projection angle control unit 810 Image information projection unit 811 Projection image capture unit 812 Instruction output unit 1000 Image projection device (movable projector)
1100 image projection device (wearable projector)
1101 Projection unit 1102 Main unit 1103 Mounting unit

Claims (47)

ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする画像投影方法。
Identify the location of the user and any part of the user's body and
An image projection method comprising projecting an image transmitted or delivered to the user using the specified arbitrary portion as a screen.
前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする請求項1に記載の画像投影方法。 The image projection method according to claim 1, wherein the image projection device for projecting the image is moved to a position where the image can be projected onto the arbitrary portion. 前記画像投影装置を無人航空機を用いて移動させることを特徴とする請求項2に記載の画像投影方法。 The image projection method according to claim 2, wherein the image projection device is moved by using an unmanned aerial vehicle. 前記画像投影装置を屋内の設備を用いて移動させることを特徴とする請求項2に記載の画像投影方法。 The image projection method according to claim 2, wherein the image projection device is moved by using an indoor facility. 前記屋内の設備は、屋内の壁面、天井および床の少なくともいずれか一つであり、当該屋内の設備に沿って前記画像投影装置を移動させることを特徴とする請求項4に記載の画像投影方法。 The image projection method according to claim 4, wherein the indoor equipment is at least one of an indoor wall surface, a ceiling, and a floor, and the image projection device is moved along the indoor equipment. .. 前記スクリーンとなる前記ユーザの前記任意の部位は、当該ユーザの指定により設定されることを特徴とする請求項1~5のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 5, wherein the arbitrary portion of the user serving as the screen is set according to the designation of the user. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記画像の内容に基づいて選定されることを特徴とする請求項1~5のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 5, wherein the arbitrary portion of the user serving as the screen is selected based on the content of the image. 前記スクリーンとなる前記ユーザの前記任意の部位の状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする請求項1~7のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 7, wherein the projection method for projecting the image is changed based on the state of the arbitrary portion of the user as the screen. 前記スクリーンとなる前記ユーザの前記任意の部位の周辺の状況に基づいて、前記画像を投影する投影方法を変更することを特徴とする請求項1~8のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 8, wherein the projection method for projecting the image is changed based on the situation around the arbitrary portion of the user as the screen. .. 前記任意の部位の周辺の状況は、当該周辺の明るさであることを特徴とする請求項9に記載の画像投影方法。 The image projection method according to claim 9, wherein the situation around the arbitrary portion is the brightness of the periphery. 前記スクリーンに投影された画像を認識し、認識された画像の状況に基づいて、投影方法を変更することを特徴とする請求項1~10のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 10, wherein the image projected on the screen is recognized and the projection method is changed based on the situation of the recognized image. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの身体であって当該ユーザが視認可能な部位であることを特徴とする請求項1~11のいずれか一つに記載の画像投影方法。 The image projection method according to any one of claims 1 to 11, wherein the arbitrary portion of the user serving as the screen is a portion of the user's body that can be visually recognized by the user. .. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの手または腕であることを特徴とする請求項12に記載の画像投影方法。 The image projection method according to claim 12, wherein the arbitrary portion of the user serving as the screen is the user's hand or arm. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの脚または足であることを特徴とする請求項12に記載の画像投影方法。 The image projection method according to claim 12, wherein the arbitrary portion of the user serving as the screen is a leg or a foot of the user. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの手の指または足の指の爪であることを特徴とする請求項12に記載の画像投影方法。 The image projection method according to claim 12, wherein the arbitrary portion of the user serving as the screen is a fingernail or a toenail of the user's hand. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの身体であって当該ユーザが鏡を用いて視認可能な部位であることを特徴とする請求項1~11のいずれか一つに記載の画像投影方法。 The invention according to any one of claims 1 to 11, wherein the arbitrary portion of the user serving as the screen is a portion of the user's body that can be visually recognized by the user using a mirror. Image projection method. 前記ユーザが鏡を用いて視認可能な部位に前記画像を投影する場合に、当該画像の左右を反転させることを特徴とする請求項16に記載の画像投影方法。 The image projection method according to claim 16, wherein when the user projects the image onto a visible portion using a mirror, the left and right sides of the image are inverted. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの顔、頭部または頸部であることを特徴とする請求項16に記載の画像投影方法。 The image projection method according to claim 16, wherein the arbitrary portion of the user serving as the screen is the face, head, or neck of the user. 前記スクリーンとなる前記ユーザの前記任意の部位は、前記ユーザの体幹部または臀部であることを特徴とする請求項12または16に記載の画像投影方法。 The image projection method according to claim 12, wherein the arbitrary portion of the user serving as the screen is the trunk or buttocks of the user. ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする画像投影方法。
Identify the location of the user and any part of the user's body and
An image projection method comprising projecting an image transmitted or delivered to the user using clothes at the specified arbitrary portion as a screen.
前記着衣は、衣服、手袋、靴、靴下、帽子およびマスクの少なくともいずれか一つを含むことを特徴とする請求項20に記載の画像投影方法。 The image projection method according to claim 20, wherein the clothing includes at least one of clothing, gloves, shoes, socks, a hat, and a mask. 前記スクリーンとなる前記ユーザの前記任意の部位における着衣の種類または状態に基づいて、前記画像を投影する投影方法を変更することを特徴とする請求項20または21に記載の画像投影方法。 The image projection method according to claim 20 or 21, wherein the projection method for projecting the image is changed based on the type or state of clothing of the user at the arbitrary portion of the screen. 前記スクリーンとなる前記ユーザの前記任意の部位における着衣の色および材質の少なくともいずれか一方に基づいて、前記画像を投影する投影方法を変更することを特徴とする請求項20または21に記載の画像投影方法。 The image according to claim 20 or 21, wherein the projection method for projecting the image is changed based on at least one of the color and the material of the clothes of the user at the arbitrary portion of the screen. Projection method. ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、
制御部を備えたことを特徴とする画像投影装置。
Identify the location of the user and any part of the user's body and
Using the specified arbitrary part as a screen, an image transmitted or delivered to the user is projected.
An image projection device characterized by having a control unit.
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する、
制御部を備えたことを特徴とする画像投影装置。
Identify the location of the user and any part of the user's body and
An image transmitted or delivered to the user is projected using the clothes on the specified arbitrary part as a screen.
An image projection device characterized by having a control unit.
前記制御部は、
前記画像を前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させることを特徴とする請求項25に記載の画像投影装置。
The control unit
25. The image projection device according to claim 25, wherein the image projection device for projecting the image is moved to a position where the image can be projected onto the arbitrary portion.
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする無人航空機。
Identify the location of the user and any part of the user's body and
An unmanned aerial vehicle characterized by projecting an image transmitted or delivered to the user using the specified arbitrary portion as a screen.
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影することを特徴とする無人航空機。
Identify the location of the user and any part of the user's body and
An unmanned aerial vehicle characterized by projecting an image transmitted or delivered to the user using clothes at the specified arbitrary portion as a screen.
前記画像が前記任意の部位に投影可能な位置へ移動し、当該画像を投影することを特徴とする請求項27または28に記載の無人航空機。 The unmanned aerial vehicle according to claim 27 or 28, wherein the image is moved to a position where it can be projected onto the arbitrary portion and the image is projected. ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、
画像投影装置に実行させることを特徴とする画像投影プログラム。
Identify the location of the user and any part of the user's body and
A process of projecting an image transmitted or delivered to the user using the specified arbitrary part as a screen.
An image projection program characterized by being executed by an image projection device.
ユーザおよび当該ユーザの身体の任意の部位の位置を特定し、
特定した前記任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信された画像を投影する処理を、
画像投影装置に実行させることを特徴とする画像投影プログラム。
Identify the location of the user and any part of the user's body and
A process of projecting an image transmitted or delivered to the user using the clothes on the specified arbitrary part as a screen.
An image projection program characterized by being executed by an image projection device.
前記画像投影装置に、前記画像が前記任意の部位に投影可能な位置へ、当該画像を投影する画像投影装置を移動させる処理を実行させることを特徴とする請求項30または31に記載の画像投影プログラム。 The image projection according to claim 30 or 31, wherein the image projection device is made to execute a process of moving the image projection device for projecting the image to a position where the image can be projected on the arbitrary portion. program. ユーザの視線が向けられた身体の任意の部位をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
A control unit for projecting an image transmitted, delivered, or stored in advance to the user by using an arbitrary part of the body to which the user's line of sight is directed as a screen.
An image projection device, which is worn by the user on the head or over the ears.
ユーザの視線が向けられた身体の任意の部位における着衣をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
A control unit for projecting an image transmitted or delivered to the user or pre-stored using clothes on any part of the body to which the user's line of sight is directed is provided.
An image projection device, which is worn by the user on the head or over the ears.
ユーザの視線が向けられた面をスクリーンとして、前記ユーザに対して送信または配信され、あるいは、事前に記憶された画像を投影する制御部を備え、
前記ユーザが頭部に装着し、または、耳にかけて装着することを特徴とする画像投影装置。
A control unit for projecting an image transmitted or delivered to the user or stored in advance with the surface to which the user's line of sight is directed as a screen is provided.
An image projection device, which is worn by the user on the head or over the ears.
投影部を自装置に着脱可能に設けたことを特徴とする請求項33~35のいずれか一つに記載の画像投影装置。 The image projection device according to any one of claims 33 to 35, wherein the projection unit is detachably provided on the own device. 複数設けられた前記投影部により、前記画像を同時に投影することを特徴とする請求項33~36のいずれか一つに記載の画像投影装置。 The image projection device according to any one of claims 33 to 36, wherein a plurality of projection units are provided to simultaneously project the image. 複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで異なる画像を同時に投影することを特徴とする請求項37に記載の画像投影装置。 The image projection device according to claim 37, wherein different images are simultaneously projected by the first projection unit and the second projection unit among the plurality of projection units provided. 複数設けられた前記投影部のうちの第1の投影部と第2の投影部とで同じ画像を重ねて同時に投影することを特徴とする請求項37に記載の画像投影装置。 The image projection device according to claim 37, wherein the first projection unit and the second projection unit of the plurality of projection units are provided so as to superimpose the same image and simultaneously project the same image. 投影する画像を複数個に分割し、複数設けられた各前記投影部によって、それぞれ分割された画像を同時に投影することを特徴とする請求項37に記載の画像投影装置。 The image projection device according to claim 37, wherein the image to be projected is divided into a plurality of parts, and the divided images are simultaneously projected by each of the plurality of projection units provided. 自装置に、画像を受信し、記憶し、投影するための電池を設けたことを特徴とする請求項33~40のいずれか一つに記載の画像投影装置。 The image projection device according to any one of claims 33 to 40, wherein the self-device is provided with a battery for receiving, storing, and projecting an image. 前記制御部は、
前記ユーザによって自装置が装着されていることを検知し、
前記検知の結果、自装置が装着されていると判断した場合に、前記画像を投影することを特徴とする請求項33~41のいずれか一つに記載の画像投影装置。
The control unit
Detecting that the user is wearing the device,
The image projection device according to any one of claims 33 to 41, wherein the image is projected when it is determined that the own device is attached as a result of the detection.
前記制御部は、
自装置が装着されているユーザがあらかじめ登録されているユーザであることを認識し、
前記認識の結果、自装置が装着されているユーザがあらかじめ登録されているユーザであると判断した場合に、前記画像を投影することを特徴とする請求項33~42のいずれか一つに記載の画像投影装置。
The control unit
Recognizing that the user equipped with the own device is a pre-registered user,
13. Image projection device.
自装置に、ID情報およびパスワード情報の少なくともいずれかの入力を受け付ける受付部を備え、
前記制御部は、入力された情報に基づいて、あらかじめ登録されているユーザであることを認識することを特徴とする請求項43に記載の画像投影装置。
The own device is equipped with a reception unit that accepts at least one of ID information and password information.
The image projection device according to claim 43, wherein the control unit recognizes that the user is a pre-registered user based on the input information.
自装置に、ユーザの音声の入力を受け付ける音声受付部を備え、
前記制御部は、入力された音声に基づいて、音声認識によって、あらかじめ登録されているユーザであることを認識することを特徴とする請求項43に記載の画像投影装置。
The own device is equipped with a voice reception unit that accepts user's voice input.
The image projection device according to claim 43, wherein the control unit recognizes that the user is a pre-registered user by voice recognition based on the input voice.
前記制御部は、
自装置に対して接触されたことを検知し、
前記検知の結果、接触された場合に、前記画像の投影を開始することを特徴とする請求項33~45のいずれか一つに記載の画像投影装置。
The control unit
Detects contact with own device and detects
The image projection device according to any one of claims 33 to 45, wherein the projection of the image is started when the image is contacted as a result of the detection.
前記制御部は、
自装置に対して接触されたことを検知し、
前記検知の結果、接触された場合に、前記画像の投影を中止することを特徴とする請求項33~46のいずれか一つに記載の画像投影装置。
The control unit
Detects contact with own device and detects
The image projection device according to any one of claims 33 to 46, wherein the projection of the image is stopped when the image is contacted as a result of the detection.
JP2020215849A 2020-12-24 2020-12-24 Image projection method, image projection device, unmanned aerial vehicle, and image projection program Pending JP2022101330A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020215849A JP2022101330A (en) 2020-12-24 2020-12-24 Image projection method, image projection device, unmanned aerial vehicle, and image projection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020215849A JP2022101330A (en) 2020-12-24 2020-12-24 Image projection method, image projection device, unmanned aerial vehicle, and image projection program

Publications (1)

Publication Number Publication Date
JP2022101330A true JP2022101330A (en) 2022-07-06

Family

ID=82271061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215849A Pending JP2022101330A (en) 2020-12-24 2020-12-24 Image projection method, image projection device, unmanned aerial vehicle, and image projection program

Country Status (1)

Country Link
JP (1) JP2022101330A (en)

Similar Documents

Publication Publication Date Title
CN110189340B (en) Image segmentation method and device, electronic equipment and storage medium
JP6525010B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE DISPLAY SYSTEM
US8963956B2 (en) Location based skins for mixed reality displays
JP6340301B2 (en) Head mounted display, portable information terminal, image processing apparatus, display control program, display control method, and display system
US10169880B2 (en) Information processing apparatus, information processing method, and program
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
KR20180112599A (en) Mobile terminal and method for controlling the same
CN109002164B (en) Display method and device of head-mounted display equipment and head-mounted display equipment
US11907423B2 (en) Systems and methods for contextualized interactions with an environment
US11087775B2 (en) Device and method of noise suppression based on noise source positions
CN111052044B (en) Information processing apparatus, information processing method, and program
US20180254038A1 (en) Information processing device, information processing method, and program
CN110956580B (en) Method, device, computer equipment and storage medium for changing face of image
JP2022012070A (en) Image projection method, image projection device, unmanned aircraft and image projection program
JP2021060627A (en) Information processing apparatus, information processing method, and program
JP2018163461A (en) Information processing apparatus, information processing method, and program
JP2022108194A (en) Image projection method, image projection device, unmanned aircraft and image projection program
JP7271909B2 (en) DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
US20190104231A1 (en) Image display system, image display method, and image display program
CN109144265A (en) Display changeover method, device, wearable device and storage medium
JP2022101330A (en) Image projection method, image projection device, unmanned aerial vehicle, and image projection program
JP2022101331A (en) Image projection method, image projection device, unmanned aerial vehicle, and image projection program
JP2022101329A (en) Image projection method, image projection device, unmanned aerial vehicle, and image projection program
JP2022101328A (en) Image projection method, image projection device, unmanned aerial vehicle, and image projection program
CN111325083B (en) Method and device for recording attendance information