WO2017199566A1 - 情報処理装置、ロボット、および制御プログラム - Google Patents

情報処理装置、ロボット、および制御プログラム Download PDF

Info

Publication number
WO2017199566A1
WO2017199566A1 PCT/JP2017/010471 JP2017010471W WO2017199566A1 WO 2017199566 A1 WO2017199566 A1 WO 2017199566A1 JP 2017010471 W JP2017010471 W JP 2017010471W WO 2017199566 A1 WO2017199566 A1 WO 2017199566A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
robot
control unit
notification
user
Prior art date
Application number
PCT/JP2017/010471
Other languages
English (en)
French (fr)
Inventor
栗原 徹
充宏 羽田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2018518126A priority Critical patent/JP6628874B2/ja
Priority to CN201780028163.2A priority patent/CN109196844B/zh
Publication of WO2017199566A1 publication Critical patent/WO2017199566A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers

Definitions

  • the present invention relates to an information processing apparatus, a robot, and a control program for notifying a user of a change in posture of the robot.
  • Patent Documents 1 to 3 disclose techniques for notifying a user of an incoming call and mail reception at a mobile terminal by changing the external shape of the terminal body or accessories.
  • a drive pattern generation unit generates a drive pattern signal in real time and transmits the drive pattern signal to an actuator.
  • the shape of the accessory of the communication terminal or the member constituting the communication terminal itself is changed, and an event that has occurred (for example, incoming voice call, incoming mail, or reception of digital television broadcast) Etc.) is notified to the user.
  • the present invention has been made in view of the above-described problems, and an object thereof is to realize an information processing apparatus, a robot, and a control program that can prevent the robot from falling down due to a change in posture. is there.
  • an information processing apparatus is an information processing apparatus applied to a robot that changes its posture by controlling a driving unit provided in a movable part, When the robot changes its posture to an unstable posture that cannot maintain a stable independent posture, a notification process for notifying the user of posture change information related to the posture change is executed before the posture change is executed.
  • a notification control unit is provided.
  • FIG. 1 It is a block diagram which shows the principal part structure of the robot which concerns on embodiment of this invention.
  • (A) is a front view showing the outline of the robot,
  • (b) is a rear view showing the outline of the robot, and
  • (c) is a side view showing the outline of the robot.
  • It is a flowchart which shows an example of the control of the attitude
  • (A) is a schematic diagram showing a change in posture of the robot when a voice call is received, and (b) and (c) are changes in the posture of the robot when the user performs an input operation for selecting a call for the voice call. It is a schematic diagram which shows notification content.
  • the information processing apparatus may be provided not only for the biped walking humanoid robot but also for all robots such as, for example, a battle robot or an animal robot of an anime character.
  • a biped walking humanoid robot with a mobile phone function will be described as an example.
  • FIG. 2A is a front view showing an outline of the robot 100 according to the present embodiment.
  • FIG. 2B is a rear view illustrating the outline of the robot 100.
  • FIG. 2C is a side view illustrating the outline of the robot 100.
  • the robot 100 When the robot 100 according to the present embodiment changes the posture to an unstable posture in which the robot 100 cannot maintain a stable independent posture, the robot 100 notifies the user in advance of a posture change message (posture change information) regarding the posture change. .
  • the robot 100 notifies the user of the posture change message in advance to prevent the robot 100 from falling down due to the posture change.
  • the robot 100 includes a head portion 100a, a torso portion 100b, arm portions 100c, leg portions 100d, and foot portions 100e.
  • the head 100a is movably connected to the body 100b via the neck 100g, the arm 100c via the shoulder joint 100h, and the leg 100d via the leg joint 100i.
  • the foot part 100e is movably connected to the leg part 100d via the foot joint part 100j.
  • the neck portion 100g and each joint portion incorporate a drive unit (motor) 20 described later, and the head unit 100a, the arm unit 100c, the leg unit 100d, and the foot unit 100e are driven by the drive unit 20 being driven.
  • Each is movable.
  • a speaker 40 described later is provided in the mouth portion 100l constituting a part of the head portion 100a, and a microphone 30 described later is provided in the abdomen portion 100m constituting a part of the body portion 100b. Furthermore, a screen operation unit 60 described later is provided on the back part 100k constituting a part of the body part 100b.
  • the position where the microphone 30 and the speaker 40 are arranged is not particularly limited.
  • the microphone 30 may be arranged on the sole part 100f constituting a part of the foot part 100e.
  • the position where the screen operation unit 60 is arranged is not limited to the back part 100k, and may be arranged, for example, on the abdomen 100m.
  • FIG. 1 is a block diagram showing a main configuration of the robot 100.
  • the robot 100 includes a communication unit 10, a drive unit 20, a microphone 30, a speaker 40, a control unit (information processing device) 50, a screen operation unit 60, and a storage unit 70.
  • the communication unit 10 transmits and receives various data such as voice data.
  • the drive unit 20 is for changing the posture of the robot 100.
  • the drive unit 20 is configured by a motor provided with each movable part in the robot 100.
  • an actuator such as a hydraulic cylinder, a pneumatic cylinder, or a linear actuator may be used in addition to the motor.
  • the microphone 30 is for collecting voice or the like during a call.
  • the speaker 40 is used to generate voice during a call or to notify the user by voice.
  • the control unit (CPU) 50 controls the robot 100 in an integrated manner. For example, the control unit 50 performs notification regarding posture control and posture change of the robot 100.
  • the control unit 50 includes an event detection unit 51, an image operation control unit 52, an attitude control unit 53, and a notification control unit 54.
  • the event detection unit 51 detects the occurrence of various events related to the robot 100 based on output signals from the communication unit 10 and the image operation control unit 52.
  • Events detected by the event detection unit 51 are events that require user's response to notification from the robot 100 (for example, incoming voice calls (incoming calls), incoming mails, alarms, etc.), and user input operations. (For example, a voice call (receiving a call), a voice call (calling)), and the like.
  • the event detection unit 51 detects the occurrence of an event, it notifies the posture control unit 53 of the type of event that has occurred.
  • the image operation control unit 52 controls the screen operation unit 60.
  • the image operation control unit 52 receives an input operation (interrupt operation) on the touch panel 61 of the screen operation unit 60 by the user, and outputs it to the event detection unit 51. Further, the image operation control unit 52 displays various information on the display 62 of the screen operation unit 60.
  • the posture control unit 53 controls the driving unit 20 to change the posture of the robot 100.
  • the posture control unit 53 refers to the posture table 71 of the storage unit 70 when the type of event that has occurred is received from the event detection unit 51, so that the user can easily perform an operation according to the type of event that has occurred. 100 postures are changed.
  • the posture control unit 53 performs the posture change of the robot 100 before executing the posture change. Information about the type of event that occurred is sent to the notification control unit 54.
  • the notification control unit 54 sends a posture change message (posture change information) regarding the posture change to the user before the posture change of the robot 100 is executed.
  • the notification process for notifying to is executed.
  • the notification control unit 54 When the notification control unit 54 acquires the type of the event that has occurred from the attitude control unit 53, the notification control unit 54 refers to the notification count table 72 and the notification content table 73 in the storage unit 70, and the posture of the content according to the type of event that has occurred Get change message and notify user. Further, the notification control unit 54 notifies the posture control unit 53 that the notification process has been completed, and causes the posture change of the robot 100 to be executed.
  • control unit (CPU) 50 functions as the event detection unit 51, the image operation control unit 52, the attitude control unit 53, and the notification control unit 54.
  • the event detection unit 51, the image The operation control unit 52, the attitude control unit 53, and the notification control unit 54 may be configured as independent processing units.
  • the screen operation unit 60 accepts input operations by the user and displays various information.
  • the screen operation unit 60 has a configuration in which a touch panel 61 and a display 62 are superimposed and integrated.
  • the touch panel 61 receives a user's input operation by detecting a user's touch operation (input operation).
  • the display 62 displays objects such as buttons for the user to perform touch operations and various information.
  • the storage unit 70 is a non-volatile storage device such as a hard disk or a flash memory.
  • the storage unit 70 stores various types of information related to notification processing, such as posture information of the robot 100, the cumulative number of notification processing executed in the past, and posture change messages to be notified to the user.
  • the storage unit 70 stores an attitude table 71, a notification count table 72, and a notification content table 73.
  • the posture table 71 stores posture information of the robot 100 for each event type and stability information (independence information) indicating whether or not the posture of the robot 100 indicated by the posture information is a stable posture.
  • the notification count table 72 stores the cumulative number of notification processes executed by the notification control unit 54 in the past.
  • the notification content table 73 stores the content of the posture change message notified to the user in the notification process. Details of the posture table 71, the notification count table 72, and the notification content table 73 will be described later.
  • FIG. 3 is a flowchart illustrating an example of posture change control in the robot 100.
  • the event detection unit 51 first detects whether various events relating to the robot 100 have occurred based on output signals from the communication unit 10 and the image operation control unit 52 (S101). When the occurrence of an event is not detected (NO in S101), the event detection unit 51 detects again whether an event has occurred. On the other hand, when the occurrence of an event is detected (YES in S ⁇ b> 101), the event detection unit 51 transmits type information of the generated event to the attitude control unit 53.
  • the posture control unit 53 determines the posture of the robot 100 according to the type of the event (S102). Specifically, the posture control unit 53 refers to the posture table 71 of the storage unit 70, and acquires posture information corresponding to the type of event that occurred, and stability information of the posture of the robot 100 indicated by the posture information. To do.
  • FIG. 4 is a schematic diagram illustrating an example of the posture table 71 stored in the storage unit 70.
  • the posture table 71 includes posture information of the robot 100 for each event type (for example, voice incoming call, voice call, etc.) and posture stability information of the robot 100 indicated by the posture information ( Stable or unstable).
  • the posture of the upright robot 100 is registered as posture information at the time of default.
  • the default posture is a basic posture that the robot 100 takes after each event is completed.
  • the posture indicated by the posture information at the time of default is a stable posture (self-supporting posture) in which the robot 100 can maintain a stable self-supporting posture and has a low possibility of falling. Therefore, “stability” is registered in the posture table 71 as posture stability information at the time of default.
  • the posture of the robot 100 with the arm 100c raised is registered as posture information at the time of incoming voice call so that the user can easily hold the robot 100.
  • the posture indicated by the posture information at the time of voice reception is a stable posture (self-supporting posture) in which the robot 100 can maintain a stable self-supporting posture and has a low possibility of falling. Therefore, “stable” is registered in the posture table 71 as posture stability information at the time of voice incoming.
  • the posture table 71 includes, as posture information at the time of a voice call, the robot 100 in which the head 100a, the arm portion 100c, and the leg portion 100d are brought close to the user side so that the user can easily make a call by placing the robot 100 on the face.
  • the posture is registered.
  • the posture indicated by the posture information at the time of the voice call cannot maintain a stable independent posture of the robot 100, and is an unstable posture (which is more likely to fall than the posture at the time of default and voice reception described above) Self-supporting posture). Therefore, “unstable” is registered in the posture table 71 as posture stability information during a voice call.
  • the posture control unit 53 refers to the posture table 71, and first determines the posture of the robot 100 after the posture change according to the event type based on the event type acquired from the event detection unit 51 (S102). ).
  • the posture control unit 53 specifies whether the posture of the robot 100 after the posture change determined in S102 is a stable posture or an unstable posture (S103).
  • the stable posture is a posture in which the robot 100 can maintain a stable independent posture
  • the unstable posture is a posture in which the robot 100 cannot maintain a stable independent posture. If the posture of the robot 100 after the posture change is a stable posture (YES in S103), the posture control unit 53 changes the posture of the robot 100 based on the posture information determined in S102 (S108), and ends the processing. To do.
  • the posture control unit 53 notifies the notification control unit 54 of the type information of the event that has occurred.
  • the notification control unit 54 When the notification control unit 54 acquires the type of event generated from the attitude control unit 53, the notification control unit 54 refers to the notification count table 72 of the storage unit 70 and acquires the cumulative number of notification processes executed in the past for the event type. (S104).
  • FIG. 5 is a schematic diagram illustrating an example of the notification count table 72 stored in the storage unit 70.
  • the notification count table 72 stores the cumulative number of notification processes executed in the past by the notification control unit 54 for each event type (voice call (incoming call), voice call (outgoing call), etc.). Has been.
  • the notification control unit 54 refers to the notification count table 72 and acquires the cumulative number of notification processes executed in the past for the type of event that has occurred.
  • the notification processing executed in the past for voice calls (incoming calls) and the cumulative number of notification processing executed in the past for voice calls (outgoing calls) are both zero. (I.e., when any notification process has not been executed).
  • the notification control unit 54 refers to the notification content table 73 of the storage unit 70 and determines the content (notification content) of the posture change message for notifying the user that the robot 100 changes its posture to an unstable posture. (S105).
  • FIG. 6 is a schematic diagram illustrating an example of the notification content table 73 stored in the storage unit 70. As shown in FIG. 6, the notification content table 73 is associated with the event type, the number of setting notifications, and the content of the posture change message to be notified to the user.
  • the set notification count (predetermined set count) is a reference value for changing the content of the posture change message to be notified to the user in accordance with the cumulative number of notification processes executed in the past.
  • the notification control unit 54 acquires the content of the posture change message associated with the number of setting notifications to which the cumulative number acquired from the notification count table 72 belongs according to the type of event that has occurred, and notifies the user of the content.
  • the posture change message when the number of setting notifications is “0” is “When you receive a call, you will be in a call posture. Is registered. For this reason, in the first notification process executed for a voice call (incoming call), a user is notified of a posture change message with detailed contents. On the other hand, “I move” is registered as the posture change message when the setting notification count is “one or more times”, and the posture change message is changed to simple contents. For this reason, in the second and subsequent notification processes executed for a voice call (incoming call), a simple posture change message is notified to the user.
  • the attitude change message when the number of setting notifications is “0-3 times” is registered as “When you call, you will be in a call position and hold it with your hand. Yes.
  • a posture change message with detailed contents is notified to the user.
  • “I move” is registered as the posture change message when the setting notification count is “4 times or more”, and the posture change message is changed to simple contents.
  • a simple posture change message is notified to the user.
  • the processing time of subsequent notification processes can be shortened by changing the posture change message to be notified to the user to a simple content.
  • the user operability can be improved.
  • the number of setting notifications registered in the notification content table 73 and the content of the posture change message may be changed as appropriate.
  • the notification control unit 54 notifies the user of the attitude change message determined in S105 (S106). Specifically, the notification control unit 54 outputs a posture change message acquired from the notification content table 73 from the speaker 40 and notifies the user by voice. Thereby, the user can recognize in advance that the posture of the robot 100 changes to an unstable posture. For this reason, since the user can take measures such as holding the robot 100 by hand before the robot 100 changes its posture to an unstable posture, it is possible to prevent the robot 100 from falling due to the posture change. Become.
  • the posture change of the robot 100 can be accurately communicated to the user, and the user is encouraged to take appropriate measures. be able to.
  • a method other than voice for example, a warning sound (alarm), a warning lamp, sounding, etc. may be used to notify the user in advance that the robot 100 changes its posture to an unstable posture.
  • the notification control unit 54 updates the cumulative number of times in the notification number table 72 (S107). In addition, the notification control unit 54 notifies the posture control unit 53 that the notification process to the user has been completed. Accordingly, the posture control unit 53 controls the drive unit 20 based on the posture information determined in S102 and changes the posture of the robot 100 (S108).
  • FIG. 7A is a schematic diagram showing a change in posture of the robot 100 when a voice call is received
  • FIGS. 7B and 7C show an input operation for the user to select a call for the voice call.
  • It is a schematic diagram which shows the attitude
  • the robot 100 when the robot 100 receives a voice call, the generated voice call is detected by the event detection unit 51 (YES in S101), and the posture control unit 53 determines the posture of the robot 100 according to the voice call (S102). As shown in the posture table 71, the posture of the robot 100 when receiving a voice call is a stable posture (YES in S103). For this reason, as shown in FIG. 7A, the robot 100 changes its posture to the posture at the time of voice incoming without executing the notification process (S108).
  • the call selection operation for the voice call is detected by the event detection unit 51 (YES in S101), and the attitude
  • the control unit 53 determines the posture of the robot 100 according to the voice call (S102).
  • posture table 71 the posture of robot 100 during a voice call is an unstable posture (NO in S103). Therefore, as shown in FIGS. 7B and 7C, the robot 100 performs the notification process by the notification control unit 54 (S104 to 107), and then changes the posture to the posture during the voice call (S108). ).
  • the posture control unit 53 that changes the posture of the robot 100 by controlling the driving unit 20 provided in the movable part, and the robot 100 maintains a stable self-supporting posture.
  • a notification control unit 54 that executes a notification process for notifying the user of a posture change message related to the posture change before the posture change is executed.
  • the notification control unit 54 notifies the user of a posture change message related to the posture change, so that the user changes the posture of the robot 100 to the unstable posture. You can recognize in advance. For this reason, the user can take measures such as holding the robot 100 by hand before the robot 100 changes its posture to an unstable posture.
  • control blocks (particularly the attitude control unit 53 and the notification control unit 54) of the control unit 50 included in the robot 100 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU It may be realized by software using (Central Processing Unit).
  • the control unit 50 includes a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU)
  • a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
  • the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via any transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • An information processing apparatus (control unit 50) is an information processing apparatus applied to a robot that changes its posture by controlling a drive unit provided in a movable part, and the robot includes: When changing the posture to an unstable posture that cannot maintain a stable independent posture, a notification process for notifying the user of posture change information (posture change message) related to the posture change is executed before the posture change is executed. It is characterized by providing a notification control unit.
  • the notification control unit before the robot changes its posture to the unstable posture, the notification control unit notifies the user of posture change information related to the posture change. Can be recognized. For this reason, the user can take measures such as holding the robot by hand before the robot changes its posture to an unstable posture.
  • the information processing apparatus is the information processing apparatus according to aspect 1, wherein the notification control unit changes the content of the posture change information when the cumulative number of executions of the notification processing exceeds a predetermined number of times.
  • the processing time for the notification process may be shortened.
  • the posture change information is changed to, for example, simple contents, thereby reducing the processing time of the notification process, thereby improving the user operability. be able to.
  • the notification control unit may notify the user of the posture change information according to the type of event that has occurred in the robot.
  • a robot according to Aspect 4 of the present invention includes an information processing apparatus according to any one of Aspects 1 to 3, a posture control unit that changes a posture of the robot by controlling a drive unit provided in a movable part of the robot, It is characterized by having.
  • the information processing apparatus may be realized by a computer.
  • the information processing apparatus that realizes the information processing apparatus by a computer by operating the computer as the information processing apparatus.
  • a control program (program) and a computer-readable recording medium on which the control program (program) is recorded also fall within the scope of the present invention.
  • control unit (information processing apparatus) 100 Robot U User

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Telephone Function (AREA)

Abstract

本発明の実施形態に係る制御部(50)は、可動部位に設けられる駆動部(20)が制御されることにより姿勢を変化させるロボット(100)に適用され、ロボット(100)が安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、姿勢変化メッセージをユーザへ事前に通知する通知制御部(54)を備える。

Description

情報処理装置、ロボット、および制御プログラム
 本発明は、ロボットの姿勢変化をユーザへ通知する情報処理装置、ロボット、および制御プログラムに関する。
 携帯端末における着信およびメール受信等を、端末本体または付属品の外形形状を変化させることでユーザに報知する技術が特許文献1~3に開示されている。例えば、特許文献1には、駆動パターン生成部において駆動パターン信号をリアルタイムで生成し、当該駆動パターン信号をアクチュエータに伝えることが開示されている。当該駆動パターン信号をアクチュエータに伝えることにより、通信端末の付属物または当該通信端末自体を構成する部材の形状を変化させて、発生したイベント(例えば、音声着信、メール着信、またはデジタルテレビ放送の受信等)をユーザに報知するイベント報知機構が開示されている。
日本国公開特許公報「特開2007-214908号公報(2007年8月23日公開)」 日本国公開特許公報「特開2000-92164号公報(2000年3月31日公開)」 日本国公開特許公報「特開2001-145139号公報(2001年5月25日公開)」
 しかしながら、上述のような従来技術をロボットの姿勢変化に適用した場合、変化後のロボットの姿勢によっては、ロボットが安定した自立姿勢を維持することができずに転倒する可能性がある。
 本発明は、前記の問題点に鑑みてなされたものであり、その目的は、姿勢変化に伴うロボットの転倒を未然に防ぐことが可能な情報処理装置、ロボット、および制御プログラムを実現することにある。
 上記の課題を解決するために、本発明の一態様に係る情報処理装置は、可動部位に設けられる駆動部が制御されることにより姿勢を変化させるロボットに適用される情報処理装置であって、前記ロボットが、安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、前記姿勢変化が実行される前に、前記姿勢変化に関する姿勢変化情報をユーザへ通知する通知処理を実行する通知制御部を備えていることを特徴としている。
 本発明の一態様によれば、姿勢変化に伴うロボットの転倒を未然に防ぐことができるという効果を奏する。
本発明の実施形態に係るロボットの要部構成を示すブロック図である。 (a)は、上記ロボットの概略を示す正面図であり、(b)は、上記ロボットの概略を示す背面図であり、(c)は、上記ロボットの概略を示す側面図である。 上記ロボットにおける姿勢変化の制御の一例を示すフローチャートである。 上記ロボットの記憶部に記憶された姿勢テーブルの一例を示す模式図である。 上記ロボットの記憶部に記憶された通知回数テーブルの一例を示す模式図である。 上記ロボットの記憶部に記憶された通知内容テーブルの一例を示す模式図である。 (a)は、音声着信時のロボットの姿勢変化を示す模式図であり、(b)および(c)は、上記音声着信についてユーザが通話を選択する入力操作を行った場合のロボットの姿勢変化および通知内容を示す模式図である。
 以下、本発明の実施の形態について、図1~6に基づいて説明する。なお、下記の実施形態においては、本発明に係る情報処理装置が2足歩行ヒューマノイドロボットに適用されてものとして説明する。
 しかしながら、2足歩行ヒューマノイドロボットに限らず、例えば、アニメキャラクタの戦闘ロボットまたは動物ロボット等のロボット全般に本発明に係る情報処理装置が備えられていてもよい。なお、本実施形態においては、携帯電話機能付きの2足歩行ヒューマノイドロボットを例に挙げて説明する。
 〔ロボット100の概要〕
 まず、図2に基づいてロボット100の概要について説明する。図2の(a)は、本実施形態に係るロボット100の概略を示す正面図である。また、図2の(b)は、ロボット100の概略を示す背面図である。さら、図2の(c)は、ロボット100の概略を示す側面図である。
 本実施形態に係るロボット100は、ロボット100が安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、当該姿勢変化に関する姿勢変化メッセージ(姿勢変化情報)をユーザへ事前に通知する。ロボット100は、上記姿勢変化メッセージをユーザへ事前に通知することにより、姿勢変化に伴うロボット100の転倒を未然に防ぐものである。
 図2の(a)~(c)に示すように、ロボット100は、頭部100a、胴体部100b、腕部100c、脚部100d、および足部100eで構成される。頭部100aは首部100gを介して、腕部100cは肩関節部100hを介して、脚部100dは脚関節部100iを介して、それぞれ胴体部100bに対して可動に接続されている。また、足部100eは、足関節部100jを介して、脚部100dに対して可動に接続されている。
 首部100gおよび各関節部には、後述する駆動部(モータ)20が内蔵されており、当該駆動部20が駆動することによって、頭部100a、腕部100c、脚部100d、および足部100eはそれぞれ可動する。
 また、頭部100aの一部を構成する口部100lには後述するスピーカ40が、胴体部100bの一部を構成する腹部100mには後述するマイク30が、それぞれ設けられている。さらに、胴体部100bの一部を構成する背中部100kには、後述する画面操作部60が設けられている。
 なお、マイク30およびスピーカ40を配置する位置としては特に限定される訳ではなく、例えば、マイク30は足部100eの一部を構成する足裏部100f等に配置されていてもよい。また、画面操作部60を配置する位置としては背中部100kに限定される訳ではなく、例えば、腹部100m等に配置されてもよい。
 〔ロボット100の構成〕
 次に、ロボット100の構成について、図1に基づいて説明する。図1は、ロボット100の要部構成を示すブロック図である。図1に示すように、ロボット100は、通信部10、駆動部20、マイク30、スピーカ40、制御部(情報処理装置)50、画面操作部60、および記憶部70を備えている。
 通信部10は、音声データ等の各種データの送受信を行うものである。駆動部20は、ロボット100の姿勢を変化させるためのものである。駆動部20は、ロボット100における各可動部位の設けられたモータで構成される。駆動部20としては、モータの他、油圧シリンダ、空圧シリンダ、またはリニアアクチュエータ等のアクチュエータを用いてもよい。マイク30は、通話中の音声等を集音するためのものである。スピーカ40は、通話中の音声等を生成したり、ユーザに音声による通知を行うためのものである。
 制御部(CPU)50は、ロボット100を統括的に制御するものである。制御部50は、例えばロボット100の姿勢制御および姿勢変化に関する通知等を行う。制御部50は、イベント検知部51、画像操作制御部52、姿勢制御部53、および通知制御部54を備えている。
 イベント検知部51は、通信部10および画像操作制御部52からの出力信号に基づいて、ロボット100に関する各種イベントの発生を検知する。イベント検知部51が検知するイベントには、ロボット100からの報知に対してユーザの対応が必要となるイベント(例えば、音声着信(電話着信)、メール着信、およびアラーム等)、およびユーザによる入力操作を契機として発生したイベント(例えば、音声通話(電話着信の受話)、および音声通話(電話発信)等)が含まれる。イベント検知部51は、イベントの発生を検知した場合、発生したイベントの種別を姿勢制御部53へ伝える。
 画像操作制御部52は、画面操作部60を制御するものである。画像操作制御部52は、ユーザによる画面操作部60のタッチパネル61への入力操作(割り込み操作)を受け付けて、イベント検知部51へ出力する。また、画像操作制御部52は、画面操作部60のディスプレイ62に各種情報を表示させる。
 姿勢制御部53は、駆動部20を制御して、ロボット100の姿勢を変化させるものである。姿勢制御部53は、イベント検知部51から、発生したイベントの種別を受け付けた場合、記憶部70の姿勢テーブル71を参照し、発生したイベントの種別に応じた操作をユーザがしやすいようにロボット100の姿勢を変化させる。このとき、姿勢制御部53は、姿勢変化後のロボット100の姿勢が、ロボット100が安定した自立姿勢を維持することができない不安定姿勢である場合、ロボット100の姿勢変化を実行する前に、発生したイベントの種別情報を通知制御部54へ伝える。
 通知制御部54は、姿勢制御部53がロボット100を不安定姿勢へと姿勢変化させる場合、ロボット100の姿勢変化が実行される前に、当該姿勢変化に関する姿勢変化メッセージ(姿勢変化情報)をユーザへ通知する通知処理を実行するものである。
 通知制御部54は、姿勢制御部53から、発生したイベントの種別を取得した場合、記憶部70の通知回数テーブル72および通知内容テーブル73を参照し、発生したイベントの種別に応じた内容の姿勢変化メッセージを取得して、ユーザへ通知する。また、通知制御部54は、通知処理が完了したことを姿勢制御部53へ伝え、ロボット100の姿勢変化を実行させる。
 なお、本実施形態では、制御部(CPU)50が、イベント検知部51、画像操作制御部52、姿勢制御部53、および通知制御部54としての機能を果たしているが、イベント検知部51、画像操作制御部52、姿勢制御部53、および通知制御部54を独立した処理部で構成してもよい。
 画面操作部60は、ユーザによる入力操作を受け付けるとともに、各種情報の表示するものである。画面操作部60は、タッチパネル61とディスプレイ62とが重畳され一体化された構成である。タッチパネル61は、ユーザのタッチ操作(入力操作)を検知することで、ユーザによる入力操作を受け付ける。ディスプレイ62は、ユーザがタッチ操作を行うためのボタン等のオジェクトおよび各種情報を表示する。
 記憶部70は、例えばハードディスク、フラッシュメモリ等の不揮発性の記憶装置である。記憶部70は、ロボット100の姿勢情報、過去に実行した通知処理の累積回数、およびユーザへ通知する姿勢変化メッセージ等、通知処理に関する各種情報を保存している。本実施形態では、記憶部70は、姿勢テーブル71、通知回数テーブル72、および通知内容テーブル73を保存している。
 姿勢テーブル71は、イベントの種別ごとのロボット100の姿勢情報、および当該姿勢情報で示されるロボット100の姿勢が安定姿勢であるか否かを表す安定性情報(自立性情報)を記憶している。通知回数テーブル72は、通知制御部54が過去に実行した通知処理の累積回数を記憶している。通知内容テーブル73は、通知処理において、ユーザへ通知する姿勢変化メッセージの内容を記憶している。なお、姿勢テーブル71、通知回数テーブル72、および通知内容テーブル73の詳細は後述する。
 〔ロボット100の姿勢変化の制御〕
 次に、ロボット100における姿勢変化の制御について、図3~6に基づいて説明する。図3は、ロボット100における姿勢変化の制御の一例を示すフローチャートである。
 図3に示すように、まず、イベント検知部51は、通信部10および画像操作制御部52からの出力信号に基づいて、ロボット100に関する各種イベントが発生したか否かを検知する(S101)。イベントの発生を検知しない場合(S101でNO)、イベント検知部51は、イベントが発生したか否かを再び検知する。一方、イベントの発生を検知した場合(S101でYES)、イベント検知部51は、発生したイベントの種別情報を姿勢制御部53へ伝える。
 次に、姿勢制御部53は、イベント検知部51から、発生したイベントの種別の取得した場合、当該イベントの種別に応じたロボット100の姿勢を決定する(S102)。具体的には、姿勢制御部53は、記憶部70の姿勢テーブル71を参照し、発生したイベントの種別に応じた姿勢情報、および当該姿勢情報で示されるロボット100の姿勢の安定性情報を取得する。
 図4は、記憶部70に記憶された姿勢テーブル71の一例を示す模式図である。図4に示すように、姿勢テーブル71には、イベントの種別(例えば、音声着信、音声通話等)ごとのロボット100の姿勢情報と、当該姿勢情報で示されるロボット100の姿勢の安定性情報(安定または不安定)とが対応付けられている。
 また、姿勢テーブル71には、デフォルト時の姿勢情報として、直立したロボット100の姿勢が登録されている。デフォルト時の姿勢は、各イベントが完了した後にロボット100がとる基本姿勢である。デフォルト時の姿勢情報で示される姿勢は、ロボット100が安定した自立姿勢を維持することがきる、転倒の可能性が低い安定姿勢(自立姿勢)である。このため、姿勢テーブル71には、デフォルト時の姿勢の安定性情報として「安定」が登録されている。
 また、姿勢テーブル71には、音声着信時の姿勢情報として、ユーザがロボット100を手に取りやすいように、腕部100cを上げたロボット100の姿勢が登録されている。この音声着信時の姿勢情報で示される姿勢は、ロボット100が安定した自立姿勢を維持することがきる、転倒の可能性が低い安定姿勢(自立姿勢)である。このため、姿勢テーブル71には、音声着信時の姿勢の安定性情報として「安定」が登録されている。
 さらに、姿勢テーブル71には、音声通話時の姿勢情報として、ユーザがロボット100を顔に当てて通話しやすいよう、頭部100a、腕部100c、および脚部100dをユーザ側に近づけたロボット100の姿勢が登録されている。この音声通話時の姿勢情報で示される姿勢は、ロボット100が安定した自立姿勢を維持することができず、上述したデフォルト時および音声着信時の姿勢よりも転倒の可能性が高い不安定姿勢(自立姿勢)である。このため、姿勢テーブル71には、音声通話時の姿勢の安定性情報として「不安定」が登録されている。
 姿勢制御部53は、この姿勢テーブル71を参照し、まず、イベント検知部51から取得したイベントの種別に基づいて、当該イベントの種別に応じた姿勢変化後のロボット100の姿勢を決定する(S102)。
 また、姿勢制御部53は、S102で決定した姿勢変化後のロボット100の姿勢が、安定姿勢であるか、または、不安定姿勢であるかを特定する(S103)。安定姿勢とは、ロボット100が安定した自立姿勢を維持することができる姿勢であり、不安定姿勢とは、ロボット100が安定した自立姿勢を維持することができない姿勢である。姿勢変化後のロボット100の姿勢が安定姿勢である場合(S103でYES)、姿勢制御部53は、S102で決定した姿勢情報に基づいてロボット100の姿勢を変化させて(S108)、処理を終了する。一方、姿勢変化後のロボット100の姿勢が不安定姿勢である場合(S103でNO)、姿勢制御部53は、発生したイベントの種別情報を通知制御部54へ伝える。
 通知制御部54は、姿勢制御部53から発生したイベントの種別を取得した場合、記憶部70の通知回数テーブル72を参照し、当該イベントの種別について過去に実行した通知処理の累積回数を取得する(S104)。
 図5は、記憶部70に記憶された通知回数テーブル72の一例を示す模式図である。図5に示すように、通知回数テーブル72には、イベントの種別(音声通話(着信)、音声通話(発信)等)ごとに、通知制御部54が過去に実行した通知処理の累積回数が記憶されている。通知制御部54は、この通知回数テーブル72を参照して、発生したイベントの種別について過去に実行した通知処理の累積回数を取得する。
 なお、図5に示す通知回数テーブル72では、音声通話(着信)について過去に実行した通知処理と、音声通話(発信)について過去に実行した通知処理の累積回数とがいずれも0回である場合(すなわち、いずれの通知処理も未実行である場合)を例示的に示している。
 次に、通知制御部54は、記憶部70の通知内容テーブル73を参照し、ロボット100が不安定姿勢へ姿勢変化することをユーザへ通知するための姿勢変化メッセージの内容(通知内容)を決定する(S105)。
 図6は、記憶部70に記憶された通知内容テーブル73の一例を示す模式図である。図6に示すように、通知内容テーブル73には、イベントの種別、設定通知回数、およびユーザへ通知する姿勢変化メッセージの内容が対応付けられている。
 ここで、設定通知回数(所定の設定回数)は、過去に実行した通知処理の累積回数に応じて、ユーザへ通知する姿勢変化メッセージの内容を変更するための基準値である。通知制御部54は、発生したイベントの種別に応じて、通知回数テーブル72から取得した累積回数が属する設定通知回数に対応付けられた姿勢変化メッセージの内容を取得し、ユーザへ通知する。
 例えば、図6に示す音声通話(着信)の場合、設定通知回数が「0回」のときの姿勢変化メッセージとして「電話を受けるときは通話姿勢になるから、手で持ってね。動くよ」が登録されている。このため、音声通話(着信)について実行される初回の通知処理では、ユーザに対して詳細な内容の姿勢変化メッセージが通知されることになる。一方、設定通知回数が「1回以上」のときの姿勢変化メッセージとして「動くよ」が登録されており、姿勢変化メッセージが簡易的な内容に変更されている。このため、音声通話(着信)について実行される2回目以降の通知処理では、ユーザに対して簡易的な内容の姿勢変化メッセージが通知されることになる。
 また、音声通話(発信)では、設定通知回数が「0~3回」のときの姿勢変化メッセージとして「電話するときは通話姿勢になるから、手で持ってね。動くよ」が登録されている。このため、音声通話(発信)について実行される1~4回目までの通知処理では、ユーザに対して詳細な内容の姿勢変化メッセージが通知されることになる。一方、設定通知回数が「4回以上」のときの姿勢変化メッセージとして「動くよ」が登録されており、姿勢変化メッセージが簡易的な内容に変更されている。このため、音声通話(発信)について実行される5回目以降の通知処理では、ユーザに対して簡易的な内容の姿勢変化メッセージが通知されることになる。
 このように、予め定めた通知処理の回数を超えた場合、ユーザへ通知する姿勢変化メセージを簡易的な内容に変更することにより、以降の通知処理の処理時間を短縮することができ、この結果、ユーザの操作性を向上させることができる。なお、通知内容テーブル73に登録される設定通知回数、および姿勢変化メッセージの内容は、適宜変更可能であってもよい。
 次に、通知制御部54は、S105で決定した姿勢変化メッセージをユーザへ通知する(S106)。具体的には、通知制御部54は、通知内容テーブル73から取得した姿勢変化メッセージをスピーカ40から出力させて、ユーザへ音声で通知する。これにより、ユーザは、ロボット100が不安定姿勢へ姿勢変化することを事前に認識することができる。このため、ユーザは、ロボット100が不安定姿勢へ姿勢変化する前にロボット100を手で持つなどの措置を採ることができるので、姿勢変化に伴うロボット100の転倒を未然に防ぐことが可能となる。
 また、発生したイベントの種別に応じて異なる姿勢変化メッセージをユーザへ音声で通知することにより、ロボット100の姿勢変化をユーザへ的確に伝えることが可能となり、適切な措置を採ることをユーザへ促すことができる。ただし、音声以外の方法(例えば、警告音(アラーム)、警告ランプ、音鳴動等)を用いて、ロボット100が不安定姿勢に姿勢変化することをユーザへ事前に通知してもよい。
 次に、通知制御部54は、ユーザへの通知処理が完了した後、通知回数テーブル72の累積回数を更新する(S107)。また、通知制御部54は、ユーザへの通知処理が完了したことを姿勢制御部53へ伝える。これにより、姿勢制御部53は、S102で決定した姿勢情報に基づいて、駆動部20を制御し、ロボット100の姿勢を変化させる(S108)。
 〔ロボット100の姿勢変化の制御の具体例〕
 次に、ロボット100の姿勢変化の制御の具体例について、図3~6を適宜参照しつつ、図7に基づいて説明する。図7の(a)は、音声着信時のロボット100の姿勢変化を示す模式図であり、図7の(b)および(c)は、上記音声着信についてユーザが通話を選択する入力操作を行った場合のロボット100の姿勢変化および通知内容を示す模式図である。
 例えばロボット100に音声着信があった場合、発生した音声着信はイベント検知部51に検知され(S101でYES)、姿勢制御部53が音声着信に応じたロボット100の姿勢を決定する(S102)。姿勢テーブル71に示すように、音声着信時のロボット100の姿勢は安定姿勢である(S103でYES)。このため、図7の(a)に示すように、ロボット100は、通知処理を実行せずに、音声着信時の姿勢へ姿勢変化させる(S108)。
 また、上記音声着信について、ユーザUが通話を選択する入力操作をロボット100に対して行った場合、音声通話(着信)の通話選択操作はイベント検知部51に検知され(S101でYES)、姿勢制御部53が音声通話に応じたロボット100の姿勢を決定する(S102)。姿勢テーブル71に示すように、音声通話時のロボット100の姿勢は不安定姿勢である(S103でNO)。このため、図7の(b)および(c)に示すように、ロボット100は、通知制御部54による通知処理を実行した後(S104~107)、音声通話時の姿勢へ姿勢変化させる(S108)。
 本実施形態では、音声通話(着信)の通話選択操作について実行される初回の通知処理では、図7の(b)に示すように、ユーザに対して詳細な内容の姿勢変化メッセージが通知される。一方、音声通話(着信)の通話選択操作について実行される2回目以降の通知処理では、図7の(c)に示すように、ユーザUに対して簡易的な内容の姿勢変化メッセージが通知される。
 〔ロボット100の効果〕
 このように、本実施形態に係るロボット100は、可動部位に設けられる駆動部20を制御することによりロボット100の姿勢を変化させる姿勢制御部53と、ロボット100が、安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、姿勢変化が実行される前に、姿勢変化に関する姿勢変化メッセージをユーザへ通知する通知処理を実行する通知制御部54とを備えている。
 ロボット100では、ロボット100が安定姿勢から不安定姿勢へ姿勢変化させる前に、通知制御部54は姿勢変化に関する姿勢変化メッセージをユーザへ通知するため、ユーザは、ロボット100が不安定姿勢へ姿勢変化することを事前に認識することができる。このため、ユーザは、ロボット100が不安定姿勢へ姿勢変化させる前にロボット100を手で持つなどの措置を採ることができる。
 したがって、本実施形態によれば、姿勢変化に伴う転倒を未然に防ぐことが可能なロボット100を実現することができる。
 〔ソフトウェアによる実現例〕
 ロボット100が備える制御部50の制御ブロック(特に姿勢制御部53および通知制御部54)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、制御部50は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークまたは放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る情報処理装置(制御部50)は、可動部位に設けられる駆動部が制御されることにより姿勢を変化させるロボットに適用される情報処理装置であって、前記ロボットが、安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、前記姿勢変化が実行される前に、前記姿勢変化に関する姿勢変化情報(姿勢変化メッセージ)をユーザへ通知する通知処理を実行する通知制御部を備えていることを特徴としている。
 上記の構成では、ロボットが不安定姿勢へ姿勢変化させる前に、通知制御部は姿勢変化に関する姿勢変化情報をユーザへ通知するため、ユーザは、ロボットが不安定姿勢へ姿勢変化することを事前に認識することができる。このため、ユーザは、ロボットが不安定姿勢へ姿勢変化させる前にロボットを手で持つなどの措置を採ることができる。
 したがって、上記の構成によれば、姿勢変化に伴うロボットの未然に防ぐことが可能な情報処理装置を実現することができる。
 本発明の態様2に係る情報処理装置は、上記態様1において、前記通知制御部は、前記通知処理を実行した累積回数が所定の設定回数を超えた場合、前記姿勢変化情報の内容に変更し、前記通知処理の処理時間を短縮してもよい。
 上記の構成によれば、所定の設定回数を超えた場合、姿勢変化情報を例えば簡易的な内容のものに変更することにより、通知処理の処理時間を短縮するため、ユーザの操作性を向上させることができる。
 本発明の態様3に係る情報処理装置は、上記態様1または2において、前記通知制御部は、前記ロボットに発生したイベントの種別に応じた前記姿勢変化情報をユーザへ通知してもよい。
 上記の構成によれば、前記ロボットに発生したイベントの種別に応じて異なる姿勢変化情報をユーザへ通知するため、ロボットの姿勢変化をユーザへ適切に伝えることが可能となる。
 本発明の態様4に係るロボットは、上記態様1~3のいずれかの情報処理装置と、ロボットの可動部位に設けられる駆動部を制御することにより前記ロボットの姿勢を変化させる姿勢制御部と、を備えることを特徴としている。
 上記の構成によれば、姿勢変化に伴うロボットの転倒を防ぐことが可能なロボットを実現することができる。
 本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム(プログラム)、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 20 駆動部
 53 姿勢制御部
 54 通知制御部
 50 制御部(情報処理装置)
 100 ロボット
 U ユーザ

Claims (5)

  1.  可動部位に設けられる駆動部が制御されることにより姿勢を変化させるロボットに適用される情報処理装置であって、
     前記ロボットが、安定した自立姿勢を維持することができない不安定姿勢へ姿勢変化させる場合、前記姿勢変化が実行される前に、前記姿勢変化に関する姿勢変化情報をユーザへ通知する通知処理を実行する通知制御部を備えていることを特徴とする情報処理装置。
  2.  前記通知制御部は、前記通知処理を実行した累積回数が所定の設定回数を超えた場合、前記姿勢変化情報の内容に変更し、前記通知処理の処理時間を短縮することを特徴とする請求項1に記載の情報処理装置。
  3.  前記通知制御部は、前記ロボットに発生したイベントの種別に応じた前記姿勢変化情報をユーザへ通知することを特徴とする請求項1または2に記載の情報処理装置。
  4.  請求項1から3のいずれか1項に記載の情報処理装置と、
     ロボットの可動部位に設けられる駆動部を制御することにより前記ロボットの姿勢を変化させる姿勢制御部と、を備えることを特徴とするロボット。
  5.  請求項1から3のいずれか1項に記載の情報処理装置としてコンピュータを機能させるための制御プログラム。
PCT/JP2017/010471 2016-05-20 2017-03-15 情報処理装置、ロボット、および制御プログラム WO2017199566A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018518126A JP6628874B2 (ja) 2016-05-20 2017-03-15 情報処理装置、ロボット、および制御プログラム
CN201780028163.2A CN109196844B (zh) 2016-05-20 2017-03-15 信息处理装置、机器人及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016101844 2016-05-20
JP2016-101844 2016-05-20

Publications (1)

Publication Number Publication Date
WO2017199566A1 true WO2017199566A1 (ja) 2017-11-23

Family

ID=60325945

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/010471 WO2017199566A1 (ja) 2016-05-20 2017-03-15 情報処理装置、ロボット、および制御プログラム

Country Status (3)

Country Link
JP (1) JP6628874B2 (ja)
CN (1) CN109196844B (ja)
WO (1) WO2017199566A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010149277A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法
WO2010132132A1 (en) * 2009-05-15 2010-11-18 Honda Motor Co., Ltd. A machine learning approach for predicting humanoid robot fall
JP2016072928A (ja) * 2014-10-01 2016-05-09 シャープ株式会社 報知制御装置およびプログラム
JP2016067834A (ja) * 2014-10-01 2016-05-09 シャープ株式会社 報知制御装置およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007260837A (ja) * 2006-03-28 2007-10-11 Brother Ind Ltd 搬送ロボット及び搬送プログラム
CN105094210B (zh) * 2014-04-18 2019-03-29 联想(北京)有限公司 一种控制电子设备的方法及电子设备
CN104750249B (zh) * 2015-03-02 2020-02-21 联想(北京)有限公司 一种信息处理方法及电子设备
CN204819535U (zh) * 2015-07-30 2015-12-02 厦门瀚衡智能科技有限公司 智能服务机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010149277A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法
WO2010132132A1 (en) * 2009-05-15 2010-11-18 Honda Motor Co., Ltd. A machine learning approach for predicting humanoid robot fall
JP2016072928A (ja) * 2014-10-01 2016-05-09 シャープ株式会社 報知制御装置およびプログラム
JP2016067834A (ja) * 2014-10-01 2016-05-09 シャープ株式会社 報知制御装置およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020066094A (ja) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP7067414B2 (ja) 2018-10-24 2022-05-16 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム

Also Published As

Publication number Publication date
JPWO2017199566A1 (ja) 2019-03-07
CN109196844A (zh) 2019-01-11
JP6628874B2 (ja) 2020-01-15
CN109196844B (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
RU2762311C1 (ru) Способ редактирования видео и интеллектуальный мобильный терминал
WO2017199566A1 (ja) 情報処理装置、ロボット、および制御プログラム
JP2007142611A (ja) 携帯電話機及びそれに用いるリモートコントローラ表示方法並びにそのプログラム
JP2016051903A (ja) 携帯電子機器、制御方法、及び制御プログラム
WO2016052765A1 (ja) 報知制御装置およびプログラム
CN106951281B (zh) 一种电子设备及电子设备的模式切换方法
JP6396463B2 (ja) 姿勢制御装置、ロボット、プログラム、および姿勢制御方法
WO2016052763A1 (ja) 報知制御装置およびプログラム
WO2016052764A1 (ja) 報知制御装置およびプログラム
JP6229367B2 (ja) 携帯装置、紛失抑制システム及びプログラム
CN112394771A (zh) 通信方法、装置、穿戴设备及可读存储介质
JP2016005024A (ja) 無線通信装置、通信方法、およびプログラム
JP2019041187A (ja) 携帯端末及びシステム
WO2019039274A1 (ja) 情報通知端末
CN116055625A (zh) 屏幕控制方法和设备
JP2011211383A (ja) ヘッドマウントディスプレイ
CN106506821B (zh) 数据读取的方法及移动终端
KR100395483B1 (ko) 휴대용 무선통신 단말기에서 작업중인 메시지 자동 저장및 복원 방법
JP6411128B2 (ja) 姿勢制御装置、およびプログラム
US20200267350A1 (en) Electronic apparatus, control method, and recording medium
WO2015151670A1 (ja) 通信端末、スタンプ画像作成方法およびプログラム
JP2016103756A (ja) 端末装置、制御方法、および制御プログラム
JP2001189776A (ja) 携帯通信機器の着信報知装置
JP2011211384A (ja) 携帯電話及び携帯電話システム
WO2014013522A1 (ja) 携帯通信端末

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018518126

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17799001

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17799001

Country of ref document: EP

Kind code of ref document: A1