JP7437191B2 - Control devices, control systems, information processing devices, and programs - Google Patents
Control devices, control systems, information processing devices, and programs Download PDFInfo
- Publication number
- JP7437191B2 JP7437191B2 JP2020036720A JP2020036720A JP7437191B2 JP 7437191 B2 JP7437191 B2 JP 7437191B2 JP 2020036720 A JP2020036720 A JP 2020036720A JP 2020036720 A JP2020036720 A JP 2020036720A JP 7437191 B2 JP7437191 B2 JP 7437191B2
- Authority
- JP
- Japan
- Prior art keywords
- agent
- control device
- control
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 9
- 238000004891 communication Methods 0.000 claims description 44
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 99
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035936 sexual power Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Toys (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、制御装置、制御システム、情報処理装置、およびプログラムに関する。 The present invention relates to a control device, a control system, an information processing device, and a program.
近年、ユーザと対話を行って様々な情報を提示するエージェント装置が提案されている。例えば、下記特許文献1では、車載用ナビゲーション装置にエンターテインメント性を持たせるために音声と画像により擬人化したエージェントを現出させて、エージェントとの対話でユーザが各種の指示を与えることができる技術が開示されている。 In recent years, agent devices have been proposed that interact with users and present various information. For example, Patent Document 1 listed below discloses a technology in which an anthropomorphic agent appears using voice and images, and the user can give various instructions through dialogue with the agent, in order to provide entertainment to an in-vehicle navigation device. is disclosed.
しかしながら、同じエージェントを長期間利用していると飽きが生じ、エージェントのエンターテインメント性が低下する場合がある。 However, if the same agent is used for a long period of time, the user may become bored and the entertainment value of the agent may decrease.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、エージェントのエンターテインメント性を向上させることが可能な、新規かつ改良された制御装置、制御システム、情報処理装置、およびプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved control device, control system, and information processing device that can improve entertainment for agents. Our goal is to provide processing devices and programs.
上記課題を解決するために、本発明のある観点によれば、情報を提示するエージェントの制御を行う制御部を備え、前記制御部は、前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定する、制御装置が提供される。 In order to solve the above problems, one aspect of the present invention includes a control unit that controls an agent that presents information, and the control unit controls the agent based on the article added to the agent. A control device is provided that determines the characteristics.
また、上記課題を解決するために、本発明の別の観点によれば、音声出力部と、情報を提示するエージェントの制御を行う制御部を有する制御装置と、を備え、前記制御部は、前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、前記決定した特性に対応付けられた発話を前記音声出力部から出力する制御を行う、制御システムが提供される。 Moreover, in order to solve the above-mentioned problem, according to another aspect of the present invention, the present invention includes a control device having an audio output section and a control section that controls an agent that presents information, the control section including: A control system is provided that determines a characteristic of the agent based on an article added to the agent, and controls output of an utterance associated with the determined characteristic from the audio output unit.
また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントから音によって出力されるコンテンツを記憶する記憶部と、他の装置と通信する通信部と、前記他の装置に、前記通信部から前記コンテンツを送信する制御を行う制御部と、を備え、前記制御部は、情報を提示するエージェントを構成する実体を伴う有体物に着脱可能に装着される物品と通信接続する前記他の装置に、前記エージェントにより音声出力される前記コンテンツを送信する制御を行う、情報処理装置が提供される。 Further, in order to solve the above problems, according to another aspect of the present invention, a storage unit that stores content output by sound from an agent that presents information, a communication unit that communicates with another device, and a communication unit that communicates with another device; The other device includes a control unit that controls transmission of the content from the communication unit, and the control unit includes an article that is detachably attached to a tangible object with an entity that constitutes an agent that presents information. An information processing device is provided that controls transmitting the content outputted by the agent as audio to the other device with which the communication connection is made.
また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントの制御を行うコンピュータに、前記エージェントに付加された物品に基づいて前記エージェントの特性を決定させる処理を実行させる、プログラムが提供される。 Furthermore, in order to solve the above problems, according to another aspect of the present invention, a process of causing a computer that controls an agent that presents information to determine the characteristics of the agent based on an article added to the agent. A program is provided to run it.
また、上記課題を解決するために、本発明の別の観点によれば、情報を提示するエージェントの制御を行い前記エージェントに付加された物品に基づいて前記エージェントの特性を決定する制御装置と通信する通信部と、前記エージェントから音によって出力されるコンテンツを、前記通信部から前記制御装置に送信する制御を行う制御部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to another aspect of the present invention, the present invention communicates with a control device that controls an agent that presents information and determines the characteristics of the agent based on an article added to the agent. An information processing device is provided, the information processing device comprising: a communication unit that performs control to transmit content output from the agent in the form of sound from the communication unit to the control device.
以上説明したように本発明によれば、エージェントのエンターテインメント性を向上させることが可能となる。 As explained above, according to the present invention, it is possible to improve entertainment for agents.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.
<1.概要>
図1は、本発明の一実施形態に係るエージェント機能を有する制御装置10の概要について説明する図である。本明細書において、エージェント機能とは、情報を提示するエージェントの制御を行う機能である。提示される情報は、例えば音楽、ニュース、天気予報、道案内(ナビゲーション)、周辺情報等が挙げられる。
<1. Overview>
FIG. 1 is a diagram illustrating an overview of a
また、本実施形態による制御装置10は、図1に示すように、実体を伴う有体物としてエージェントを具現化したエージェントデバイスにより実現されてもよい。図1に示す例では、制御装置10が、球体の筐体に両腕が設けられた形状により形成されている。なお、エージェントデバイスの形状は特に限定しない。図1に示す例では、エージェントデバイスにより実現された制御装置10が、例えば移動体の一例である車両に載置され、運転者を含む乗員に対して情報の提示を行う。制御装置10は、例えば運転席の前方に載置されていてもよい。また、制御装置10はマイクおよびスピーカを有し、例えばユーザと音声による対話を行い、ユーザが所望する情報を音声出力する制御を行い得る。
Further, the
(課題の整理)
ここで、情報提示を行うエージェントの音声を特定のキャラクタの音声で出力することで、エージェント機能にエンターテインメント性を持たせることが可能である。しかしながら、同じキャラクタのエージェントを長期間利用していると飽きが生じ、エージェントのエンターテインメント性が低下する恐れがある。また、エージェントのキャラクタを表現する要素の一つである外観に変化がない場合も、エージェントに飽きが生じ得る。なお、本明細書において、「エージェントのキャラクタ」とは、「エージェントの特性」に含まれる概念であり、より具体的には、個性や性格、人格とも言える。
(Organizing issues)
Here, by outputting the voice of the agent who presents information as the voice of a specific character, it is possible to give the agent function an entertainment aspect. However, if an agent with the same character is used for a long period of time, the user may become bored and the entertainment value of the agent may decrease. Furthermore, if there is no change in the appearance, which is one of the elements that express the agent's character, the agent may become bored. Note that in this specification, the term "agent's character" is a concept included in "agent's characteristics," and more specifically, it can be said to be individuality, personality, and personality.
本発明の一実施形態による制御装置10は、上記の点に着目して発想されたものであり、エージェントのエンターテインメント性を向上させることを可能とする。
The
より具体的には、制御装置10に着脱可能なアイテム20をユーザが装着することで、任意にエージェントのキャラクタを変更させることを可能とする。アイテム20には、エージェントのキャラクタを決定するために用いられる情報(キャラクタ情報とも称する)が記憶されており、制御装置10は、装着されたアイテム20からキャラクタ情報を取得してエージェントのキャラクタを決定し得る。本明細書において、「キャラクタ情報」とは、エージェントの特性を決定するために用いられる特性情報の一例である。
More specifically, by allowing the user to attach and detach the
アイテム20は、例えばエージェントが身に着ける様々な装飾品や、エージェントが把持する様々な所持品を模した物品である。各アイテム20には、それぞれ異なるキャラクタ情報やコンテンツが記憶されている。ユーザは、例えば任意のアイテム20を購入し、エージェントデバイスにより実現された制御装置10に装着して着せ替えることで、使用シーン等に応じて好きなキャラクタに自由に変化させることができる。これにより、制御装置10を長期間飽きずに使い続けることが可能となる。また、家族で1つの車両および車両に載置された制御装置10(エージェントデバイス)を利用する際に、各ユーザが各々のアイテム20を持ち込んで制御装置10に装着することで、自分好みのエージェントを利用することができる。また、制御装置10が載置されたシェアカーの利用を想定した際にも、各ユーザが各々のアイテム20を持ち込むことで、どの車両に乗っても自分好みのエージェントを利用することが可能となる。
The
キャラクタの変化は、例えば制御装置10から音声出力されるエージェント音声の声色、口調、話す内容、話す速度、声の大きさ等に現れる。また、キャラクタの変化は、制御装置10の外観や動きにも現れる。例えば図1に示す制御装置10の筐体(本体部)の表面が光を透過する部材で形成されている際に、筐体の内部に設けられた光源を有する照明部を制御することで、制御装置10の外観をキャラクタに応じた色調等に変化させることができる。若しくは、制御装置10の筐体(本体部)の表面に表示部が設けられている際に、表示部を制御することで、制御装置10の外観をキャラクタに応じた色調や模様等に変化させることができる。なお、表示部および照明部は、エージェントの外観を表出する表出部の一例である。また、制御装置10を動かす駆動部が制御装置10に設けられている場合に、駆動部を制御することで、制御装置10の動きをキャラクタに応じた動きに変化させることができる。
Changes in the character appear, for example, in the tone, tone, content, speaking speed, volume, etc. of the agent's voice output from the
また、アイテム20には、音声出力され得るデータ(以下、音声コンテンツと称する)が記憶されていてもよい。音声コンテンツは、例えば、音楽、オーディオブック、ラジオ番組、ニュースや辞書等の各種情報の読み上げデータ等が挙げられる。制御装置10は、装着されたアイテム20からコンテンツを取得し、当該コンテンツを音声出力し得る。したがってユーザは、任意のアイテム20を制御装置10に装着することで、任意のコンテンツを聴くことができる。
Furthermore, the
このように、着せ替え可能な任意のアイテム20を制御装置10に装着することで、制御装置10により制御されるエージェントのキャラクタを変化させることができ、飽きが生じることを低減し、エージェントのエンターテインメント性を向上させることが可能となる。
In this way, by attaching any
以下、本実施形態による制御装置10およびアイテム20の構成について詳細に説明する。
Hereinafter, the configurations of the
<2.構成例>
図2は、本実施形態に係る制御装置10およびアイテム20の構成の一例を示すブロック図である。以下、制御装置10およびアイテム20の構成について順次説明する。
<2. Configuration example>
FIG. 2 is a block diagram showing an example of the configuration of the
(2-1.アイテム20)
アイテム20は、制御装置10に着脱可能に付加され得る物品である。アイテム20は、帽子やリボン、メガネ、ヘッドホン、ウィッグ、イヤリング、ネックレス、ネクタイ、靴など、エージェントを装飾する装飾品の形状であってもよいし、本や楽器、鞄、指揮棒、三角フラスコ、地図など、エージェントが所持する所持品の形状であってもよい。アイテム20の制御装置10への装着方法は特に限定しない。例えばアイテム20を制御装置10に対してコネクタにより嵌合させてもよいし、制御装置10に載置または挟ませてもよいし、磁気吸着させてもよい。
(2-1.Item 20)
図2に示すように、アイテム20は、通信I/F210、制御部220、および記憶部230を有する。
As shown in FIG. 2,
(通信I/F210)
通信I/F210は、制御装置10と無線または有線により接続し、データの送信および受信を行う機能を有する。例えば、通信I/F210は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)、赤外線通信、その他近距離無線通信(NFC;Near field communicationなど)により実現されてもよい。また、通信I/F210は、USB(Universal Serial Bus)コネクタなどにより電気的に制御装置10と通信接続してもよい。
(Communication I/F210)
The communication I/
(制御部220)
制御部220は、アイテム20の各構成を制御する構成である。例えば、制御部220は、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。本実施形態による制御部220は、記憶部230に記憶されているキャラクタ情報やコンテンツを、通信I/F210を介して制御装置10に送信する制御を行う。
(Control unit 220)
The
(記憶部230)
記憶部230は、各種情報を記憶する構成である。例えば、記憶部230は、キャラクタ情報やコンテンツを記憶する。記憶部230に記憶されるコンテンツは、キャラクタに応じたものであってもよい。例えば、アイテム20が「三角フラスコ」の形状の場合、博士のキャラクタが設定され、化学の専門知識がコンテンツとして記憶されていてもよい。また、アイテム20が「地図」の形状の場合、地理に詳しいキャラクタが設定され、地理の授業内容がコンテンツとして記憶されてもよい。いずれも制御装置10を学習用として用いることが想定される。また、アイテム20が「リボン」の形状の場合、可愛いアイドルのキャラクタが設定され、アイドルの音楽がコンテンツとして記憶されていてもよい。また、アイテム20が「紳士用の中折れ帽子」(図1参照)の形状の場合、落ち着きのある男性のキャラクタが設定され、株価や経済ニュース、時事ニュースがコンテンツとして記憶されていてもよい。いずれも制御装置10を車両の運転中や移動中に利用することが想定される。また、記憶部230は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
(Storage unit 230)
The
(2-2.制御装置10)
制御装置10は、ユーザに情報を提示するエージェント機能を有する情報処理装置である。制御装置10は、例えば図1に示すように、実体を伴う有体物として構成されるエージェントデバイスにより実現される。図2には、本実施形態による制御装置10の内部構成を図示する。図2に示すように、制御装置10は、通信I/F110、制御部120、スピーカ130、表示部140、駆動部150、および記憶部160を有する。
(2-2. Control device 10)
The
(通信I/F110)
通信I/F110は、外部の装置との間でデータの送信および受信を行う機能を有する。例えば通信I/F110は、アイテム20と有線または無線により通信接続し、アイテム20からキャラクタ情報やコンテンツを受信する。例えば通信I/F110は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)、赤外線通信、その他近距離無線通信(NFC;Near field communicationなど)により実現されてもよい。また、通信I/F210は、USB(Universal Serial Bus)コネクタなどにより電気的に制御装置10と通信接続してもよい。
(Communication I/F110)
Communication I/
また、通信I/F110は、基地局やアクセスポイントを介して、外部ネットワーク(例えば、インターネット)上のサーバに接続してもよい。この場合、通信I/F110は、例えばWiMAX、LTE(Long Term Evolution)などのセルラー通信プロトコル、又は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してもよい。これにより、例えばアイテム20から取得した識別情報に基づいて、制御装置10がネットワーク上の所定のサーバから、当該識別情報に対応付けられたキャラクタ情報やコンテンツを受信することが可能となる。
Further, the communication I/
また、通信I/F110は、車両に存在する様々な車載機器との間で、無線または有線により、データの送信および受信を行ってもよい。車載機器には、車両に設けられたオーディオ装置や表示装置、ナビゲーション装置、照明装置、空調装置、自動運転装置等が含まれる。車内機器との間におけるデータの送受信は、例えばCAN(Controller Area Network)、LIN(Local Interconnect Network)、又はLAN(Local Area Network)等の任意の規格に準拠した車載通信ネットワークを用いて行われ得る。これにより、例えば制御装置10による音声出力を、車両に設けられたオーディオ装置(音声出力部)から行うことが可能となる。また、ナビゲーション装置から取得した自車両の位置情報や目的地、経路情報等に基づいて、制御装置10がエージェントの音声でナビゲーション情報をユーザに提示することも可能となる。また、制御装置10は、ユーザによる車載機器への音声入力を受け付け、受け付けた入力情報を車載機器へ送信することも可能である。
Further, the communication I/
(制御部120)
制御部120は、制御装置10にて行われる処理全般を統括的に制御する構成である。例えば、制御部120は、記憶部160に記憶されているプログラムやパラメータ等を用いて各種機能を実現するための処理を実行する。制御部120は、例えば、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。
(Control unit 120)
The
例えば、本実施形態による制御部120は、キャラクタ決定部121、出力制御部123、および駆動制御部125として機能し得る。
For example, the
キャラクタ決定部121は、通信I/F110を介してアイテム20から取得したキャラクタ情報に基づいて、エージェントのキャラクタを決定する。アイテム20が取り換えられた際は、新たに装着されたアイテム20からキャラクタ情報を取得し、エージェントのキャラクタを決定(変化)させる。エージェントのキャラクタとは、例えば「落ち着いた性格」「ノリのよい元気な性格」「気分屋」「可愛らしい」「昆虫に詳しい」「化学に詳しい」「優しい」「慎重で厳しい」など、性格や個性、人格、特技、趣味嗜好等、エージェントの特性を特定するものであってもよい。
The
そして、出力制御部123は、キャラクタ決定部121により決定されたキャラクタに応じた音声をスピーカ130から出力する制御や、決定されたキャラクタに応じた色や模様を表示部140から出力する制御を行う。例えば、制御装置10がマイクロホンをさらに備え、制御部120がエージェント機能としてユーザとの対話制御を行う場合に、受け答えのエージェント音声を、決定されたキャラクタに応じた音声で行い得る。また、制御装置10が車載機器やネットワーク上から取得した様々な情報をユーザに提示する際のエージェント音声を、キャラクタに応じた音声で行い得る。また、キャラクタに応じた音声の制御には、声色に限らず、声の大きさ、話す速度、口癖、言葉使い、口調、話す内容、話す順序、語彙力等も含まれる。出力制御部123は、決定されたキャラクタに応じて、エージェントの発話を制御し得る。
Then, the
また、駆動制御部125は、キャラクタ決定部121により決定されたキャラクタに応じた動きを行うよう駆動部150を制御する。駆動制御部125は、駆動部150により、エージェントデバイスにより実現された制御装置10を前後左右に揺らしたり、頷かせたり、振動させたり、腕を動かしたり等の制御を行い得る。また、制御装置10がタッチセンサをさらに備えている場合、駆動制御部125は、ユーザが制御装置10(エージェント)を撫でたり掴んだりした際に、駆動部150を制御して動きによりエージェントの反応を示すことができる。この際、駆動制御部125は、決定されたキャラクタに応じた反応を示す制御を行い得る。
Further, the
キャラクタに応じた音声制御や表示制御、また、駆動制御に関する情報は、キャラクタ情報としてアイテム20から取得してもよい。若しくは、制御装置10は、アイテム20から取得したキャラクタ情報に含まれる「性格」に対応付けられた各種制御に関する情報を、記憶部160またはネットワーク上の所定のサーバから取得してもよい。
Information regarding voice control, display control, and drive control depending on the character may be acquired from the
また、出力制御部123は、アイテム20から音声出力可能なコンテンツ(音声コンテンツ)を取得した場合、スピーカ130から適宜出力する。また、出力制御部123は、テキストベースのコンテンツをエージェント音声によりスピーカ130から出力する制御を行ってもよい。
Further, when the
(スピーカ130)
スピーカ130は、出力制御部123の制御に従って、エージェント音声や音声コンテンツを出力する。
(Speaker 130)
The
(表示部140)
表示部140は、制御装置10の筐体の表面に設けられ、エージェントの外観として所定の色や模様を示す画像を表示し得る。表示部140は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、又は投影型のディスプレイ等によって実現され得る。また、表示部140は、筐体の表面全体に設けられていてもよいし、上半分または下半分など筐体の一部に設けられていてもよい。
(Display section 140)
The
(駆動部150)
駆動部150は、制御装置10(有体物として構成されたエージェント)を動かす機構である。例えば駆動部150は、制御装置10の一部を動かす機構であってもよいし、制御装置10の全体を動かす機構であってもよい。また、駆動部150は、モータや振動部等により実現されてもよい。
(Drive part 150)
The
(記憶部160)
記憶部160は、各種情報を記憶する構成である。例えば、記憶部160は、制御部120によって使用されるプログラムやパラメータ等を記憶する。また、記憶部160は、制御部120による処理結果や、通信I/F110によって受信した情報等を記憶してもよい。なお、記憶部160が記憶する情報の内容は特に限定されない。また、記憶部160は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
(Storage unit 160)
The
以上、本実施形態による制御装置10およびアイテム20の構成例について説明した。なお、本実施形態による制御装置10の構成は、図2に示す例に限定されない。例えば制御装置10は、複数の装置から成るシステムにより構成されてもよい。例えば、本実施形態による制御装置10は、制御部120と、車両に設けられたスピーカ等の外部の音声出力部と、から成るシステムにより構成され、外部に設けられたスピーカからエージェント音声を出力する制御を行ってもよい。また、駆動部150が、制御装置10と別の装置として設けられていてもよい。
The configuration example of the
また、図2の制御部120の機能を、車両に搭載されるECU(Electronic Control Unit)や、ECUに搭載されるマイコン等によって実現してもよい。また、制御部120の機能を、車両に搭載されない外部装置(例えば、インターネット上のクラウドサーバや、運転者が所持するスマートフォン、タブレット端末等)によって実現してもよい。
Further, the functions of the
<3.動作処理>
続いて、本実施形態による制御装置10の動作処理について説明する。図3は、本実施形態に係る制御装置10の動作処理の流れの一例を示すフローチャートである。
<3. Operation processing>
Next, the operation processing of the
図3に示すように、まず、制御装置10の制御部120は、アイテム20からキャラクタ情報およびコンテンツを取得する(ステップS103)。なお、ここでは一例としてアイテム20からコンテンツを取得する旨を示すが、アイテム20にコンテンツが記憶されていない場合も想定される。
As shown in FIG. 3, first, the
次に、キャラクタ決定部121は、取得したキャラクタ情報に基づいて、エージェントのキャラクタを決定する(ステップS106)。
Next, the
次いで、制御部120は、決定されたキャラクタに応じた制御を行う(ステップS109)。具体的には、例えば出力制御部123は、決定されたキャラクタに応じてエージェントの発話や外観を制御する。また、駆動制御部125は、決定されたキャラクタに応じてエージェントの動きを制御する。また、出力制御部123は、アイテム20からコンテンツを取得した場合は、取得したコンテンツをスピーカ130から出力する制御を行う。
Next, the
以上、本実施形態による制御装置10の動作処理の一例について説明したが、本発明はこれに限定されない。
Although an example of the operation processing of the
<4.補足>
(4-1.アイテム20へのコンテンツの保存)
上述した実施形態では、アイテム20にコンテンツが記憶されている旨を説明したが、かかるコンテンツは、例えばスマートフォンやタブレット端末、PC(パーソナルコンピュータ)等のユーザ端末を経由してインターネット上の所定サーバからダウンロードしてもよい。ダウンロードは有償で行われてもよいし、無償で行われてもよい。ユーザは、任意のコンテンツをダウンロードとしてアイテム20をカスタマイズすることができる。
<4. Supplement>
(4-1. Saving content to item 20)
In the embodiment described above, it has been explained that the content is stored in the
図4は、本実施形態に係るアイテム20へのコンテンツのダウンロードについて説明する図である。図4に示すように、例えばユーザ端末30は、ネットワーク50を介してサーバ40と通信接続する。サーバ40は、コンテンツを記憶するコンテンツサーバである。サーバ40は、コンテンツを記憶するコンテンツサーバである。サーバ40は、通信I/F、制御部、およびコンテンツを記憶するコンテンツDBを有する。サーバ40の制御部は、コンテンツDBに記憶されているコンテンツの情報を、通信I/Fからネットワーク50を介してユーザ端末30に送信する制御を行う。ユーザ端末30は、アイテム20と通信接続し、サーバ40から取得(ダウンロード)したコンテンツをアイテム20に送信する。これにより、かかるアイテム20を制御装置10に装着した際に、制御装置10でサーバ40からダウンロードしたコンテンツを出力することが可能となる。
FIG. 4 is a diagram illustrating downloading of content to the
なお、ここでは一例としてサーバ40からユーザ端末30を経由してアイテム20にコンテンツをダウンロードする場合について説明したが、本発明はこれに限定されない。例えばユーザ端末30に元々保存されているコンテンツや、他の装置から取得したコンテンツをアイテム20に送信して保存することも可能である。
Note that although the case where content is downloaded from the
(4-2.サーバから制御装置10へのコンテンツの送信)
上述した実施形態では、制御装置10がアイテム20からコンテンツを受信する場合について説明したが、本発明はこれに限定されない。例えば制御装置10が、コンテンツを保存するサーバ40とネットワーク50を介して接続し、コンテンツをサーバ40からダウンロード若しくはストリーミングして出力することも可能である。
(4-2. Transmission of content from server to control device 10)
In the embodiment described above, a case has been described in which the
図5は、本実施形態に係るサーバ40からのアイテム20へのコンテンツの送信について説明する図である。図5に示すように、例えば制御装置10は、ネットワーク50を介してサーバ40と通信接続する。図5に示すように、サーバ40は、通信I/F410、制御部420、およびコンテンツDB(データベース)430を有する。サーバ40の制御部420は、コンテンツDBに記憶されているコンテンツの情報を、通信I/F410からネットワーク50を介して制御装置10に送信する制御を行う。
FIG. 5 is a diagram illustrating transmission of content from the
これにより、制御装置10は、サーバ40から取得したコンテンツを音声出力(再生)することが可能となる。なお、コンテンツの再生方法は、ダウンロード形式であってもよいし、ストリーミング形式であってもよい。
This allows the
また、制御装置10は、アイテム20から取得したキャラクタ情報に基づいて決定したキャラクタに対応付けられたコンテンツをサーバ40から取得するようにしてもよい。
Further, the
(4-3.エージェントが画像の場合)
上述した実施形態では、エージェントが実体を伴った有体物として構成される場合について説明したが、本発明はこれに限定されない。例えばエージェントは実体を伴わない画像データ等の無体物であってもよい。具体的には、ユーザのスマートフォン等や車両に搭載されたECU等により実現される制御部120が、エージェントの画像をスマートフォン等に設けられた表示部や車両に設置された表示装置、また、車両のフロントガラス等に表示(または投影)し、エージェント音声による情報提示を行うよう制御してもよい。この場合、エージェントに付加されるアイテムも、画像、すなわち無体物となる。制御部120は、エージェントに付加されるアイテムに応じて、エージェントのキャラクタを決定し得る。すなわち、ユーザは、例えば購入した任意のアイテム画像をエージェント画像に付加する操作を行うことで、エージェントのキャラクタを任意に変更することが可能となる。
(4-3. When the agent is an image)
In the embodiments described above, a case has been described in which the agent is configured as a tangible object, but the present invention is not limited to this. For example, the agent may be an intangible object such as image data without substance. Specifically, the
ここで、図6に、本実施形態に係るエージェントが画像の場合について説明する図を示す。図6に示すように、例えばスマートフォン等のユーザ端末により実現された制御装置10Aにおいて、表示部140Aに、エージェント画像141が表示される。また、ユーザが制御装置10Aを操作し、任意のアイテム画像20Aを、エージェント画像141に付加する。これにより制御装置10Aは、エージェント画像141に付加されたアイテム画像20Aに応じて、エージェントのキャラクタを決定する。キャラクタの決定に用いるキャラクタ情報は、例えばインターネット上のショップでアイテム画像20Aを購入した際に、アイテム画像20Aと共に所定のサーバから制御装置10Aにダウンロードされ得る。制御装置10Aは、キャラクタ情報に基づいて、エージェント画像141の発話音声、外観、および動きを制御し得る。また、アイテム画像20Aを購入した際に、対応付けられたコンテンツも併せてダウンロードされてもよい。若しくは、アイテム画像20Aを購入したユーザ端末からの要求に応じて、任意のタイミングで所定のサーバからアイテム画像20Aの識別情報に対応付けられたコンテンツをダウンロードまたはストリーミングできるようにしてもよい。なお、エージェントが画像の場合も、本実施形態による制御装置は、例えば制御部120と、車両に設けられたスピーカ等の外部の音声出力部とから成るシステムにより構成されてもよい。
Here, FIG. 6 shows a diagram illustrating a case where the agent according to this embodiment is an image. As shown in FIG. 6, an
<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Summary>
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.
例えば、上記では、制御装置10が載置される移動体の一例として車両を用いたが、本実施形態に係る移動体は車両に限定されず、船舶(例えば、旅客船、貨物船、又は潜水艦等)や航空機(例えば、飛行機、ヘリコプター、グライダー、又は飛行船等)などであってもよい。また、車両は自動車に限定されず、バス、バイク、機関車、又は電車等であってもよい。また、移動体は、必ずしも上記の例に限定されず、移動可能な物体であればよい。また、制御装置10が移動体に載置されることはあくまで一例であり、制御装置10は、移動体以外に載置されてもよい。また、制御装置10の少なくとも一部の構成が移動体に搭載され、他の構成は移動体以外に搭載されてもよい。
For example, in the above, a vehicle is used as an example of a moving object on which the
また、上述した実施形態では、制御部120が、ユーザと音声による対話を行うエージェントの制御を行う旨を説明したが、本発明において音声対話の制御は必須ではない。例えば制御部120は、音声対話を行わず、ユーザからの指示は、ボタン操作や、制御装置10と通信接続するスマートフォン等の画面操作等から受け付けて、エージェント音声による情報提示やコンテンツの出力を行うよう制御してもよい。
Further, in the embodiment described above, it has been explained that the
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in this specification are merely explanatory or illustrative, and are not limiting. In other words, the technology according to the present disclosure can have other effects that are obvious to those skilled in the art from the description of this specification, in addition to or in place of the above effects.
また、本明細書の判定装置の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。 Further, each step related to the processing of the determination device of this specification does not necessarily need to be processed in chronological order in the order described in the flowchart.
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
It is also possible to create a program that allows hardware such as the CPU, ROM, and RAM built into the computer to perform functions equivalent to the configuration of the
10:制御装置、110:通信I/F、120:制御部、121:キャラクタ決定部、123:出力制御部、125:駆動制御部、130:スピーカ、140:表示部、150:駆動部、160:記憶部、20:アイテム、210:通信I/F、220:制御部、230:記憶部、30:ユーザ端末、40:サーバ、410:通信I/F、420:制御部、430:記憶部、50:ネットワーク、10A:制御装置、140A:表示部、141:エージェント画像、20A:アイテム画像
10: Control device, 110: Communication I/F, 120: Control unit, 121: Character determining unit, 123: Output control unit, 125: Drive control unit, 130: Speaker, 140: Display unit, 150: Drive unit, 160 : Storage unit, 20: Item, 210: Communication I/F, 220: Control unit, 230: Storage unit, 30: User terminal, 40: Server, 410: Communication I/F, 420: Control unit, 430: Storage unit , 50: Network, 10A: Control device, 140A: Display section, 141: Agent image, 20A: Item image
Claims (19)
前記制御部は、
前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、
前記決定した特性に対応付けられた発話を、前記情報を提示する制御として音声出力部から出力する制御を行い、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する、
制御装置。 Equipped with a control unit that controls an agent that presents information,
The control unit includes:
determining characteristics of the agent based on items attached to the agent ;
controlling to output an utterance associated with the determined characteristic from an audio output unit as a control for presenting the information;
controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
Control device.
前記制御部は、前記エージェントの特性を、前記エージェントに着脱可能に装着された前記物品から取得した、前記特性を決定するために用いられる特性情報に基づいて決定する、請求項1または2に記載の制御装置。 The agent is configured as a tangible object with substance,
The control unit determines the characteristics of the agent based on characteristic information used to determine the characteristics, which is obtained from the article detachably attached to the agent. control device.
前記制御部は、前記特性に対応付けられた色調で前記照明部を発光させる制御を行う、請求項5に記載の制御装置。 The expression section includes an illumination section having a light source,
The control device according to claim 5 , wherein the control unit controls the illumination unit to emit light in a color tone associated with the characteristic.
前記制御部は、前記特性に対応付けられた色調または模様の少なくともいずれかで前記表示部を表示する制御を行う、請求項5に記載の制御装置。 The display section includes a display section that displays an image,
The control device according to claim 5 , wherein the control unit controls the display unit to display at least one of a color tone and a pattern associated with the characteristic.
情報を提示するエージェントの制御を行う制御部を有する制御装置と、を備え、
前記制御部は、
前記エージェントに付加された物品に基づいて、前記エージェントの特性を決定し、
前記決定した特性に対応付けられた発話を前記音声出力部から出力する制御を行い、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する、
制御システム。 an audio output section;
a control device having a control unit that controls an agent presenting information;
The control unit includes:
determining characteristics of the agent based on items attached to the agent;
controlling to output an utterance associated with the determined characteristic from the audio output unit ;
controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
control system.
前記制御装置は、前記エージェントを構成する有体物に着脱可能に装着された前記物品と通信する通信部をさらに備え、
前記制御部は、前記通信部により前記物品から受信した、前記エージェントの特性を決定するために用いられる特性情報に基づいて、前記エージェントの特性を決定する、請求項13に記載の制御システム。 The agent is configured as a tangible object with substance,
The control device further includes a communication unit that communicates with the article that is removably attached to a tangible object that constitutes the agent,
The control system according to claim 13 , wherein the control unit determines the characteristics of the agent based on characteristic information used for determining the characteristics of the agent, which is received from the article by the communication unit.
前記制御部は、前記他の装置から、表示部に表示する前記エージェントに装着する前記物品のデータ、または、前記音声出力部から出力される音声の内容に関するデータの少なくともいずれかを受信する、請求項13に記載の制御システム。 The control device further includes a communication unit that communicates with other devices via a network,
The control unit receives, from the other device, at least one of data about the article worn on the agent displayed on the display unit, or data about the content of the audio output from the audio output unit. The control system according to item 13 .
他の装置と通信する通信部と、
前記他の装置に、前記通信部から前記コンテンツを送信する制御を行う制御部と、を備え、
前記制御部は、情報を提示するエージェントを構成する実体を伴う有体物に着脱可能に装着され、前記エージェントの形状を変化させる物品と通信接続する前記他の装置に、前記エージェントにより音声出力される前記コンテンツを送信する制御を行う、情報処理装置。 a storage unit that stores content output by sound from an agent presenting information;
a communication unit that communicates with other devices;
The other device includes a control unit that controls transmitting the content from the communication unit,
The control unit is removably attached to a tangible object constituting an agent that presents information , and the control unit is configured to output the voice output from the agent to the other device that is communicatively connected to the article that changes the shape of the agent. An information processing device that controls the transmission of content.
前記エージェントに付加された物品に基づいて前記エージェントの特性を決定させる処理と、
前記決定した特性に対応付けられた発話を、前記情報を提示する制御として音声出力部から出力する処理と、
前記決定した特性に対応付けられた口調、声質、声の大きさ、声の高さ、話す速度、または話す内容の少なくともいずれかにより、前記発話の出力を制御する処理と、
を実行させる、プログラム。 on the computer that controls the agent that presents the information.
A process of determining characteristics of the agent based on an item added to the agent ;
outputting an utterance associated with the determined characteristic from an audio output unit as a control for presenting the information;
A process of controlling the output of the utterance according to at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content that is associated with the determined characteristic;
A program to run.
前記エージェントから音によって出力されるコンテンツを、前記通信部から前記制御装置に送信する制御を行う制御部と、
を備える、情報処理装置。 an audio output unit that controls an agent that presents information , determines characteristics of the agent based on items added to the agent , and outputs utterances associated with the determined characteristics as a control for presenting the information; a control device that controls the output of the utterance based on at least one of the tone, voice quality, voice volume, voice pitch, speaking speed, or speaking content associated with the determined characteristics; a communications department that communicates with
a control unit that controls transmitting content output from the agent in the form of sound from the communication unit to the control device;
An information processing device comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020036720A JP7437191B2 (en) | 2020-03-04 | 2020-03-04 | Control devices, control systems, information processing devices, and programs |
PCT/JP2020/044091 WO2021176780A1 (en) | 2020-03-04 | 2020-11-26 | Control device, control system, information processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020036720A JP7437191B2 (en) | 2020-03-04 | 2020-03-04 | Control devices, control systems, information processing devices, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021139997A JP2021139997A (en) | 2021-09-16 |
JP7437191B2 true JP7437191B2 (en) | 2024-02-22 |
Family
ID=77613204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020036720A Active JP7437191B2 (en) | 2020-03-04 | 2020-03-04 | Control devices, control systems, information processing devices, and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7437191B2 (en) |
WO (1) | WO2021176780A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187435A (en) | 1998-12-24 | 2000-07-04 | Sony Corp | Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method |
JP2007133728A (en) | 2005-11-11 | 2007-05-31 | Kenwood Corp | Agent device, on-vehicle navigation device with agent function and agent outputting method |
JP2011045792A (en) | 2010-12-10 | 2011-03-10 | Nhn Corp | Game system and web service-providing system |
JP2014199323A (en) | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Voice interactive device and interaction control method |
-
2020
- 2020-03-04 JP JP2020036720A patent/JP7437191B2/en active Active
- 2020-11-26 WO PCT/JP2020/044091 patent/WO2021176780A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187435A (en) | 1998-12-24 | 2000-07-04 | Sony Corp | Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method |
JP2007133728A (en) | 2005-11-11 | 2007-05-31 | Kenwood Corp | Agent device, on-vehicle navigation device with agent function and agent outputting method |
JP2011045792A (en) | 2010-12-10 | 2011-03-10 | Nhn Corp | Game system and web service-providing system |
JP2014199323A (en) | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Voice interactive device and interaction control method |
Also Published As
Publication number | Publication date |
---|---|
WO2021176780A1 (en) | 2021-09-10 |
JP2021139997A (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11321923B2 (en) | Immersive display of motion-synchronized virtual content | |
KR102466349B1 (en) | Immersive virtual display | |
US11089147B2 (en) | Systems, devices, and methods for generating messages | |
US12015817B2 (en) | Configurable content for grouped subsets of users | |
US9833725B2 (en) | Interactive cloud-based toy | |
US11112266B2 (en) | Method for motion-synchronized AR or VR entertainment experience | |
JP6736685B2 (en) | Emotion estimation device and emotion estimation system | |
JPH11259446A (en) | Agent device | |
EP3921050A1 (en) | Intra-vehicle games | |
JP7437191B2 (en) | Control devices, control systems, information processing devices, and programs | |
JP2019117562A (en) | Vehicle interior environment adjustment device, program, and vehicle interior environment adjustment system | |
US20200317215A1 (en) | Agent system, agent server, method of controlling agent server, and storage medium | |
JP2021097764A (en) | Control device and program | |
CN108992934B (en) | Full airspace attitude feedback system | |
US20100207734A1 (en) | Information Interactive Kit and Information Interactive System Using the Same | |
JP7386739B2 (en) | Display control device, display control method, and program | |
JP7424880B2 (en) | Display control device, display control method, and program | |
JP7394674B2 (en) | Display control device, display control method, and program | |
JP2023147830A (en) | Information processing apparatus, information processing method, and program | |
US20240028073A1 (en) | Mobile App Controlled Emoji Display Pendant | |
JP2022064053A (en) | Control device and program | |
CN117416296A (en) | Control method, device, equipment and storage medium for vehicle cabin | |
CN118151757A (en) | Vehicle-mounted robot interaction method, storage medium, electronic equipment and vehicle | |
TH35184B (en) | Vehicle communication machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7437191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |