JP2018092528A - Chat system, management device, terminal device, and method and program for assisting selection of destination - Google Patents

Chat system, management device, terminal device, and method and program for assisting selection of destination Download PDF

Info

Publication number
JP2018092528A
JP2018092528A JP2016237624A JP2016237624A JP2018092528A JP 2018092528 A JP2018092528 A JP 2018092528A JP 2016237624 A JP2016237624 A JP 2016237624A JP 2016237624 A JP2016237624 A JP 2016237624A JP 2018092528 A JP2018092528 A JP 2018092528A
Authority
JP
Japan
Prior art keywords
terminal device
connection destination
degree
information indicating
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016237624A
Other languages
Japanese (ja)
Other versions
JP6889464B2 (en
Inventor
阿部 香澄
Kasumi Abe
香澄 阿部
成満 池田
Shigemitsu Ikeda
成満 池田
長井 隆行
Takayuki Nagai
隆行 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Original Assignee
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC filed Critical University of Electro Communications NUC
Priority to JP2016237624A priority Critical patent/JP6889464B2/en
Publication of JP2018092528A publication Critical patent/JP2018092528A/en
Application granted granted Critical
Publication of JP6889464B2 publication Critical patent/JP6889464B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user interface that allows for easily selecting an appropriate destination in a chat system.SOLUTION: A chat system with a terminal device that allows for selecting a chat connection destination from a touch panel on a display screen is provided, the system comprising means of acquiring information indicative of a degree of communicability of a user of another terminal device enlisted as a connection destination candidate for the terminal device; and means of changing how a button for each connection destination candidate is displayed on a connection destination selection screen displayed on the terminal device in accordance with the acquired information indicative of a degree of communicability.SELECTED DRAWING: Figure 2

Description

本発明は、チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラムに関する。   The present invention relates to a chat system, a management device, a terminal device, a destination selection support method, and a destination selection support program.

子育てをしている家庭においては、例えば家事の間だけでも誰かに子供(乳幼児)の相手をしてもらえたら助かるという状況が多々ある。一方で、祖父母(子供から見て)は子供(孫)とのコミュニケーションを欲している場合が多いが、遠方に住んでいる場合には頻繁に会いに行くわけにもいかないというのが現実である。そこで、昨今のIT(情報通信技術)を活用した解決が望まれる。   In families raising children, for example, there are many situations where someone can help a child (infant) even during housework. On the other hand, grandparents (from the perspective of their children) often want to communicate with their children (grandchildren), but the reality is that if they live far away they can't go to frequent meetings. . Therefore, a solution utilizing recent IT (information and communication technology) is desired.

本発明者は、ビデオチャット等を用いた、乳幼児が集中しやすく、長期的に飽きにくいコミュニケーション手法を研究してきているが、ビデオチャットを開始する際の接続先選択におけるユーザインタフェースに問題があることを見いだした。   The inventor has been studying a communication method using video chat, etc., which makes it easy for infants to concentrate and makes it difficult to get tired in the long run. However, there is a problem in the user interface for selecting a connection destination when starting video chat. I found.

ビデオチャットにおいて、大人の場合は、この時間はこの人と話しても大丈夫であるといった判断をすることができるが、乳幼児の場合、そういった相手の事情は考えられず、接続先選択画面から目に入った相手を選択してしまうと考えられる。図1は一般的なビデオチャットにおける接続先選択画面の例を示す図であり、右側の一覧に示されるように、接続先候補となる相手が均一な大きさのアイコンにより表示されている。そのため、乳幼児は、深く考えることなく、目に入ったアイコンを選択してしまう。   In video chat, for adults, it can be determined that it is okay to talk to this person for this time, but for infants, the circumstances of such other parties are unthinkable. It is thought that the partner who entered is selected. FIG. 1 is a diagram showing an example of a connection destination selection screen in a general video chat. As shown in the list on the right side, partners who are connection destination candidates are displayed by icons of a uniform size. Therefore, an infant selects an icon that has entered the eye without thinking deeply.

また、相手と通話できる度合いを表すために、例えばSkype(商標または登録商標)等のシステムでは、単なる「オンライン」「オフライン」という状態だけでなく、「退席中」「取り込み中」といった詳細な状態をユーザ自身が設定できるようにし、その状態がアイコンとともに相手に示されるようになっている。しかし、この手法は、文字が読めず、まだ相手のことを十分に考えられない乳幼児にとって、相手を選ぶ基準とはなりにくい。   Further, in order to express the degree of communication with the other party, for example, in a system such as Skype (trademark or registered trademark), not only “Online” and “Offline”, but also a detailed state such as “Away” and “Uploading” Can be set by the user himself / herself, and the status is shown to the other party together with an icon. However, this method is not likely to be a criterion for selecting an opponent for infants who cannot read the letters and still cannot fully think about the other party.

このことから、乳幼児に対して、かけてもよい相手を誘導できるユーザインタフェースが必要である。   For this reason, there is a need for a user interface that can guide a child who may be placed on an infant.

特許文献1は、小さな子供への効果的な携帯電話通信の提供に関する問題の解決を一つの目的に掲げているが、接続先選択の場面に着目したものではない。また、特許文献2は、メッセージチャットにおける表示制御に関するものであるが、接続先選択の場面に着目したものではない。   Japanese Patent Laid-Open No. 2004-228867 has set forth as an object the solution to the problem of providing effective mobile phone communication to a small child, but does not focus on the situation of connection destination selection. Patent Document 2 relates to display control in message chat, but does not focus on the scene of connection destination selection.

一方、乳幼児の相手をする祖父母等の側についても、乳幼児にいつ発信していいのかわからず、発信の心的障壁があると考えられる。例えば、乳幼児が寝ているときなどにビデオチャットを発信してしまっては、子供を起こすことになってしまい、子供の親に迷惑をかけてしまう懸念があるため、躊躇してしまう。   On the other hand, it is thought that there is a mental barrier to the transmission of the parents and other parents who do not know when it can be transmitted to the infant. For example, if a video chat is transmitted when an infant is sleeping, the child is awakened, and there is a concern that the parent of the child may be inconvenienced.

なお、ビデオチャットについて説明してきたが、音声のみのチャットについても同様である。   In addition, although video chat has been described, the same applies to voice-only chat.

特表2014−515571号公報Special table 2014-515571 gazette 特開2014−067358号公報JP 2014-067358 A

上述したように、乳幼児等の子供が利用する可能性のあるチャットシステムでは、発信側・受信側ともに接続先の選択において問題があった。   As described above, in a chat system that a child such as an infant may use, there is a problem in selecting a connection destination on both the transmission side and the reception side.

本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、チャットシステムにおいて適切な接続先を容易に選択することのできるユーザインタフェースを提供することにある。   The present invention has been proposed in view of the above-described conventional problems, and an object of the present invention is to provide a user interface capable of easily selecting an appropriate connection destination in a chat system.

上記の課題を解決するため、本発明にあっては、表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムであって、前記端末装置の接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報を取得する手段と、取得した前記通話可能度合いを示す情報に応じて、前記端末装置に表示される接続先選択画面における接続先候補毎のボタンの表示を変化させる手段とを備える。   In order to solve the above-described problem, in the present invention, a chat system including a terminal device that allows a chat connection destination to be selected from a touch panel on a display screen, is a connection destination candidate of the terminal device. A button for each connection destination candidate on the connection destination selection screen displayed on the terminal device in accordance with means for acquiring information indicating the degree of call possibility of the user of another terminal device and the acquired information indicating the degree of call possibility Means for changing the display of.

本発明にあっては、チャットシステムにおいて適切な接続先を容易に選択することのできるユーザインタフェースを提供することができる。   According to the present invention, it is possible to provide a user interface capable of easily selecting an appropriate connection destination in a chat system.

一般的なビデオチャットにおける接続先選択画面の例を示す図である。It is a figure which shows the example of the connection destination selection screen in a general video chat. 本発明の一実施形態にかかるシステムの構成例を示す図である。It is a figure which shows the structural example of the system concerning one Embodiment of this invention. ビデオチャットロボットの外観構成例を示す図である。It is a figure which shows the example of an external appearance structure of a video chat robot. ビデオチャットロボットの情報処理にかかるハードウェア構成例を示す図である。It is a figure which shows the hardware structural example concerning the information processing of a video chat robot. 手渡し遊びの操作例を示す図(その1)である。It is FIG. (1) which shows the operation example of handing play. 手渡し遊びの操作例を示す図(その2)である。It is FIG. (2) which shows the operation example of handing play. 手渡し遊びの操作例を示す図(その3)である。It is FIG. (3) which shows the operation example of handing play. ユーザ状態管理テーブルのデータ構造例を示す図である。It is a figure which shows the example of a data structure of a user state management table. 実施形態の処理例を示すシーケンス図である。It is a sequence diagram which shows the process example of embodiment. 接続先選択画面の例を示す図である。It is a figure which shows the example of a connection destination selection screen.

以下、本発明の好適な実施形態につき説明する。なお、音声と映像を用いるビデオチャットシステムを例に説明するが、接続先選択のユーザインタフェースについては、音声のみのチャットシステムにも適用できることは言うまでもない。   Hereinafter, preferred embodiments of the present invention will be described. Although a video chat system using audio and video will be described as an example, it goes without saying that the user interface for selecting a connection destination can also be applied to an audio-only chat system.

<構成>
図2は本発明の一実施形態にかかるシステムの構成例を示す図である。図2において、主に乳幼児が使用するビデオチャットロボット1と、主に祖父母等の通信相手が使用する端末装置2とが、インターネット等のネットワークNを介して接続可能になっている。また、ネットワークNには、ビデオチャットロボット1または端末装置2におけるビデオチャットの接続時に接続先の情報を提供するとともに、必要に応じてビデオチャットの中継を行う管理サーバ3が接続されている。
<Configuration>
FIG. 2 is a diagram illustrating a configuration example of a system according to an embodiment of the present invention. In FIG. 2, a video chat robot 1 used mainly by infants and a terminal device 2 used mainly by communication partners such as grandparents can be connected via a network N such as the Internet. The network N is connected to a management server 3 that provides connection destination information when the video chat robot 1 or the terminal device 2 is connected to the video chat, and relays the video chat as necessary.

ビデオチャットロボット1は、ビデオチャット部11とハンド制御部12と映像制御部13とを備えている。ビデオチャット部11は、ビデオチャットロボット1側でのビデオチャットについての処理を実行する機能を有している。ハンド制御部12は、ビデオチャットロボット1に備えられたハンド(後述)を制御する機能を有している。映像制御部13は、ハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。なお、ハンドの制御に連動したビデオチャット上の映像の制御を端末装置2側または管理サーバ3側で行う場合には、映像制御部13は不要となる。   The video chat robot 1 includes a video chat unit 11, a hand control unit 12, and a video control unit 13. The video chat unit 11 has a function of executing processing for video chat on the video chat robot 1 side. The hand control unit 12 has a function of controlling a hand (described later) provided in the video chat robot 1. The video control unit 13 has a function of controlling video on the video chat in conjunction with hand control. Note that the video control unit 13 is not required when the video on the video chat linked to the hand control is performed on the terminal device 2 side or the management server 3 side.

図3はビデオチャットロボット1の外観構成例を示す図である。図3において、ビデオチャットロボット1は、頭部筐体101と胴部筐体106とを備えている。頭部筐体101には、前面に画面部102が設けられるとともに、画面部102の上部にはカメラ103が設けられ、画面部102の両側にはスピーカ104が設けられ、下部にはマイク105が設けられている。胴部筐体106には、手を模し、物品が載置可能な状態と、物品が取り込まれて隠された状態とを有するハンド107が設けられている。また、画面部102には操作入力のためのタッチパネルが設けられている。更に、ビデオチャットロボット1には、利用者(子供)に追従して利用者の正面を向くための自走機構や回転機構を設けることができる。利用者の認識は、カメラ103やその他のセンサによる顔認識や色認識等で行うことができる。   FIG. 3 is a diagram showing an external configuration example of the video chat robot 1. In FIG. 3, the video chat robot 1 includes a head case 101 and a body case 106. The head casing 101 is provided with a screen unit 102 on the front surface, a camera 103 is provided above the screen unit 102, speakers 104 are provided on both sides of the screen unit 102, and a microphone 105 is provided below the screen unit 102. Is provided. The body housing 106 is provided with a hand 107 that imitates a hand and has a state in which an article can be placed and a state in which the article is taken in and hidden. The screen unit 102 is provided with a touch panel for operation input. Furthermore, the video chat robot 1 can be provided with a self-propelled mechanism and a rotating mechanism for following the user (child) and facing the front of the user. The user can be recognized by face recognition or color recognition by the camera 103 or other sensors.

図4はビデオチャットロボット1の情報処理にかかるハードウェア構成例を示す図である。図4において、ビデオチャットロボット1は、バス1000を介して相互に接続されたCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003、HDD(Hard Disk Drive)/SSD(Solid State Drive)1004、接続I/F(Interface)1005、通信I/F1006を備えている。   FIG. 4 is a diagram illustrating a hardware configuration example related to information processing of the video chat robot 1. In FIG. 4, a video chat robot 1 includes a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, a RAM (Random Access Memory) 1003, and an HDD (Hard Disk Drive) connected to each other via a bus 1000. / SSD (Solid State Drive) 1004, connection I / F (Interface) 1005, and communication I / F 1006.

CPU1001は、RAM1003をワークエリアとしてROM1002またはHDD/SSD1004等に格納されたプログラムを実行することで、ビデオチャットロボット1の動作を統括的に制御する。接続I/F1005は、カメラ1007、マイク1008、スピーカ1009、タッチパネル1010、載置センサ1011、モータ1012とのインタフェースである。通信I/F1006は、ネットワークを介して他の情報処理装置(端末装置2、管理サーバ3等)と通信を行うためのインタフェースである。ビデオチャットロボット1の機能は、CPU1001において所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。   The CPU 1001 performs overall control of the operation of the video chat robot 1 by executing a program stored in the ROM 1002 or the HDD / SSD 1004 using the RAM 1003 as a work area. A connection I / F 1005 is an interface with the camera 1007, the microphone 1008, the speaker 1009, the touch panel 1010, the placement sensor 1011, and the motor 1012. The communication I / F 1006 is an interface for communicating with other information processing devices (terminal device 2, management server 3, etc.) via a network. The function of the video chat robot 1 is realized by the CPU 1001 executing a predetermined program. The program may be acquired via a recording medium, may be acquired via a network, or may be embedded in a ROM.

なお、端末装置2および管理サーバ3は一般的なコンピュータのハードウェア構成を備えている。また、ビデオチャットを行う端末装置2は、カメラ、マイク、モニタ、スピーカ等の映像・音声の入出力機能を備えている。   Note that the terminal device 2 and the management server 3 have a general computer hardware configuration. The terminal device 2 that performs video chat has video / audio input / output functions such as a camera, a microphone, a monitor, and a speaker.

ビデオチャットロボット1によれば、音声と映像によるビデオチャットにより、普通の会話のほか、歌(いっしょに歌を歌う)、本(本を読み聞かせる)、おいでおいで、かくれんぼ等の遊びを行うことができる。また、ビデオチャットロボット1に特別に設けられたハンド等の機構により手渡し遊びを行うことができる。   According to the video chat robot 1, in addition to normal conversations by voice and video video chat, you can play songs (sing a song together), books (read a book), come and play, hide and seek, etc. Can do. Further, hand-playing can be performed by a mechanism such as a hand specially provided in the video chat robot 1.

図5〜図7はビデオチャットロボット1による手渡し遊びの操作例を示す図である。図5(a)は、子供CHがビデオチャットロボット1のハンド107に物品OBJを載置しようとしている状態を示している。図5(b)は、その際の祖父GF側の端末装置2において表示される画面例を示しており、主画面には物品OBJを持った子供CHの映像が表示されており、副画面には祖父GF本人の映像(ビデオチャットロボット1側に表示されている映像)が表示されている。   5 to 7 are diagrams showing an example of handing play operation by the video chat robot 1. FIG. 5A shows a state where the child CH is about to place the article OBJ on the hand 107 of the video chat robot 1. FIG. 5B shows an example of a screen displayed on the terminal device 2 on the grandfather GF side at that time. A video of a child CH holding the article OBJ is displayed on the main screen, and the sub-screen is displayed. The video of the grandfather GF himself (video displayed on the video chat robot 1 side) is displayed.

図6(a)は、ビデオチャットロボット1においてハンド107がそれまでの開状態から閉状態となったことで、物品OBJが隠されて見えなくなり、画面部102に祖父GFとともに物品OBJの画像(合成画像)が表示された状態を示している。これにより、子供CHは、自分が渡した物品OBJが祖父GFに渡ったと認識する。また、図6(b)は、その際の祖父GF側の端末装置2において表示される画面例を示しており、主画面には子供CHの映像が表示されており、副画面には祖父GF本人の映像と物品OBJの画像が表示されている。   FIG. 6A shows that the object OBJ is hidden and cannot be seen because the hand 107 is changed from the open state to the closed state in the video chat robot 1, and the image OBJ together with the grandfather GF is displayed on the screen unit 102 ( (Composite image) is displayed. As a result, the child CH recognizes that the article OBJ he / she has handed over has passed to the grandfather GF. FIG. 6B shows an example of a screen displayed on the terminal device 2 on the grandfather GF side at that time. The video of the child CH is displayed on the main screen, and the grandfather GF is displayed on the sub-screen. The person's video and the image of the article OBJ are displayed.

図7(a)は、祖父GFが物品返却の操作(該当ボタンの押下等)を行ったことで、祖父GF側の端末装置2の副画面から物品OBJが消えた状態を示している。また、図7(b)は、ビデオチャットロボット1のハンド107が開状態となって、物品OBJが再び見えるようになった状態を示している。これにより、子供CHは、物品OBJが祖父GFから戻ってきたと認識する。   FIG. 7A shows a state where the article OBJ has disappeared from the sub-screen of the terminal device 2 on the grandfather GF side due to the grandfather GF performing an article return operation (such as pressing a corresponding button). FIG. 7B shows a state where the hand 107 of the video chat robot 1 is in an open state and the article OBJ can be seen again. Accordingly, the child CH recognizes that the article OBJ has returned from the grandfather GF.

図2に戻り、端末装置2は、ビデオチャット部21と映像制御部22とを備えている。ビデオチャット部21は、端末装置2側でのビデオチャットについての処理を実行する機能を有している。映像制御部22は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。なお、ビデオチャットロボット1のハンドの制御に連動したビデオチャット上の映像の制御をビデオチャットロボット1側または管理サーバ3側で行う場合には、映像制御部22は不要となる。ビデオチャットロボット1の映像制御部13と端末装置2の映像制御部22とで、連携してビデオチャット上の映像の制御を行ってもよい。   Returning to FIG. 2, the terminal device 2 includes a video chat unit 21 and a video control unit 22. The video chat unit 21 has a function of executing processing for video chat on the terminal device 2 side. The video control unit 22 has a function of controlling video on the video chat in conjunction with the control of the hand of the video chat robot 1. Note that the video control unit 22 is not required when the video chat robot 1 side or the management server 3 side controls the video on the video chat in conjunction with the control of the hand of the video chat robot 1. The video controller 13 of the video chat robot 1 and the video controller 22 of the terminal device 2 may control the video on the video chat in cooperation.

管理サーバ3は、ビデオチャット制御部31と映像制御部32とログ取得部33とユーザ状態管理部34とユーザ状態管理テーブル35とを備えている。ビデオチャット制御部31は、ビデオチャットロボット1と端末装置2の間のビデオチャットを制御する機能を有している。映像制御部32は、ビデオチャットロボット1のハンドの制御に連動してビデオチャット上の映像を制御する機能を有している。ログ取得部33は、ビデオチャットロボット1と端末装置2の接続履歴(接続開始・終了日時、接続端末ID等)や手渡し遊びの動作状況等のログを取得する機能を有している。   The management server 3 includes a video chat control unit 31, a video control unit 32, a log acquisition unit 33, a user status management unit 34, and a user status management table 35. The video chat control unit 31 has a function of controlling video chat between the video chat robot 1 and the terminal device 2. The video control unit 32 has a function of controlling video on the video chat in conjunction with the control of the hand of the video chat robot 1. The log acquisition unit 33 has a function of acquiring a log such as a connection history (connection start / end date and time, connection terminal ID, etc.) between the video chat robot 1 and the terminal device 2 and an operation status of handing play.

ユーザ状態管理部34は、ユーザ毎に接続先選択画面に表示されるユーザ名やアイコン画像等をユーザ状態管理テーブル35に保持して管理する機能を有している。また、ユーザ状態管理部34は、ビデオチャット制御部31を介してビデオチャットロボット1や端末装置2から、各ユーザにより設定される話したさの度合いを示す情報、各ユーザの周辺環境を示す情報等を取得し、ログ取得部33のログも考慮して、各ユーザについて通話可能度合いを示す情報を決定して管理する機能も有している。更に、ユーザ状態管理部34は、定期的あるいはビデオチャットロボット1等からの要求時に、接続先候補のユーザの通話可能度合いを示す情報を提供する機能も有している。なお、接続先選択画面の生成は、管理サーバ3のビデオチャット制御部31で行って、接続を行おうとするビデオチャットロボット1または端末装置2に送信してもよいし、接続を行おうとするビデオチャットロボット1または端末装置2のビデオチャット部11、21で行ってもよい。   The user state management unit 34 has a function of holding and managing a user name, an icon image, and the like displayed on the connection destination selection screen for each user in the user state management table 35. The user status management unit 34 also receives information indicating the degree of talk set by each user from the video chat robot 1 or the terminal device 2 via the video chat control unit 31 and information indicating the surrounding environment of each user. Etc. and taking into account the log of the log acquisition unit 33, it also has a function of determining and managing information indicating the degree of call possibility for each user. Furthermore, the user state management unit 34 also has a function of providing information indicating the degree of call possibility of the connection destination candidate user periodically or when requested by the video chat robot 1 or the like. The connection destination selection screen may be generated by the video chat control unit 31 of the management server 3 and transmitted to the video chat robot 1 or the terminal device 2 to be connected or the video to be connected. You may carry out in the chat robot 1 or the video chat parts 11 and 21 of the terminal device 2. FIG.

図8はユーザ状態管理テーブル35のデータ構造例を示す図である。図8において、ユーザ状態管理テーブル35は、「ユーザID(端末ID)」「ロボットフラグ」「ユーザ名」「アイコン画像」「オンライン/オフライン」「取得情報」「他ユーザID毎の通話可能度合い」等の項目を有している。   FIG. 8 is a diagram showing an example of the data structure of the user state management table 35. In FIG. 8, the user status management table 35 includes “user ID (terminal ID)”, “robot flag”, “user name”, “icon image”, “online / offline”, “acquired information”, and “degree of call for each other user ID”. It has items such as.

「ユーザID(端末ID)」は、ユーザまたは端末(ビデオチャットロボット1、端末装置2)を識別する情報である。「ロボットフラグ」は、当該ユーザの使用する端末が乳幼児の使用するビデオチャットロボット1であるか否かを示す情報である。「ユーザ名」は、接続先選択画面に表示されるユーザの名前の情報である。「アイコン画像」は、接続先選択画面に表示されるユーザの顔などが表示されるボタンアイコンの画像の情報(生データまたは保存先へのリンク)である。なお、本実施形態では、乳幼児が興味を示して選択するのは相手の顔が大きく表示されているアイコンであるという習性を利用しており、アイコンの大きさを制御することで顔の大きさも比例して大きくなることが制御上容易であるため、アイコン画像における顔の大きさを均一化しておくことが望ましい。例えば、カメラ撮影によりアイコン画像を登録する際に顔の輪郭のガイドを表示することができる。また、画像処理により、顔の大きさを均一化することもできる。   “User ID (terminal ID)” is information for identifying a user or a terminal (video chat robot 1, terminal device 2). The “robot flag” is information indicating whether or not the terminal used by the user is the video chat robot 1 used by the infant. “User name” is information on the name of the user displayed on the connection destination selection screen. The “icon image” is information (raw data or a link to a storage destination) of a button icon on which a user's face or the like displayed on the connection destination selection screen is displayed. In the present embodiment, an infant is interested in selecting an icon in which the other party's face is displayed in large size, and the size of the face is also controlled by controlling the size of the icon. Since it is easy for control to increase in proportion, it is desirable to make the size of the face in the icon image uniform. For example, a face contour guide can be displayed when an icon image is registered by camera shooting. Further, the size of the face can be made uniform by image processing.

「オンライン/オフライン」は、当該ユーザの使用する端末がオンラインかオフラインかを示す情報である。「取得情報」は、各端末から取得した、各ユーザにより設定される話したさの度合いを示す情報、各ユーザの周辺環境を示す情報等である。「他ユーザID毎の通話可能度合い」は、次のような観点から決定される。   “Online / offline” is information indicating whether the terminal used by the user is online or offline. “Acquired information” is information obtained from each terminal and indicating the degree of speech set by each user, information indicating the surrounding environment of each user, and the like. The “degree of call possibility for each other user ID” is determined from the following viewpoint.

ロボットフラグがON(ユーザが乳幼児)の場合は、
・接続先候補となる他のユーザにより設定される話したさの度合いを示す情報
・乳幼児と他のユーザとのチャット履歴を示す情報
・他のユーザの周辺環境を示す情報
等に基づいて「他ユーザID毎の通話可能度合い」が決定される。
If the robot flag is ON (the user is an infant)
-Information indicating the degree of speech set by other users as connection destination candidates-Information indicating chat history between infants and other users-Based on information indicating the surrounding environment of other users, etc. The degree of call possibility for each user ID is determined.

話したさの度合いは、例えば、「話したくない」、「普通」、「話したい」の3段階が設定される。「話したくない」が設定された場合には、これが他の情報よりも最優され、通話可能度合いを低くする。   For example, three levels of “I do not want to talk”, “Normal”, and “I want to talk” are set as the degree of talking. When “I don't want to talk” is set, this is given priority over other information, and the degree of callability is lowered.

チャット履歴は、過去にチャットを行った時間帯と通話時間(接続時間)と接続回数とが考慮され、過去と同じ時間帯であればあるほど通話可能度合いを相対的に高くする。また、過去の通話時間が長く、接続回数が多いほど、通話可能度合いを相対的に高くする。なお、ビデオチャットロボット1に画像処理による乳幼児の笑顔度を取得する機能や、父母等による乳幼児の楽しんでいる度合いの評価を入力する機能があって、それらがチャット履歴に含まれる場合は、チャット履歴から、相手の乳幼児を楽しませた度合いとして、過去の笑顔度の平均得点や、母親の評価によって、通話可能度合いを変化させることができる。   The chat history takes into account the time zone in which chatting has been performed in the past, the call time (connection time), and the number of connections, and the higher the call time, the higher the degree of call possibility. In addition, the longer the call time in the past and the greater the number of connections, the higher the call possibility level. Note that the video chat robot 1 has a function of acquiring the smile level of the infant by image processing and a function of inputting an evaluation of the degree of enjoyment of the infant by parents and the like. From the history, as the degree of enjoyment of the other child's infant, the degree of callability can be changed according to the average score of past smiles and the evaluation of the mother.

周辺環境は、接続先候補となる他のユーザがチャットアプリを起動したり、操作しているという情報であり、ユーザがチャットアプリを起動したり操作などした直後であるほど、ユーザが応答できる可能性が高いとして、通話可能度合いを高くする。また、家庭内の電力消費状況を監視できるスマートハウスなどと連携できる場合には、スマートハウスから得られたセンサ情報によりユーザが在宅であると判断した場合に、通話可能度合いを高くする。   The surrounding environment is information that other users who are connection destination candidates start or operate the chat application, and the user can respond as soon as the user starts or operates the chat application. The degree of possibility of a call is increased because it is highly likely. In addition, when it is possible to link with a smart house or the like that can monitor the power consumption status in the home, the degree of communication is increased when the user is determined to be at home based on sensor information obtained from the smart house.

ロボットフラグがOFF(ユーザが乳幼児以外)の場合は、
・接続先候補に含まれる乳幼児について、乳幼児の保護者により設定される話したさの度合いを示す情報
・乳幼児の周辺環境を示す情報
・乳幼児の状態を示す情報
等に基づいて「他ユーザID毎の通話可能度合い」が決定される。
If the robot flag is OFF (the user is not an infant)
-Information indicating the degree of speech set by the parent / guardian of the infant included in the connection destination candidates-Information indicating the surrounding environment of the infant-Based on information indicating the state of the infant, etc. Is determined.

乳幼児の話したさの度合いは、乳幼児の父母等が設定するものであり、例えば、「話したくない」、「普通」、「話したい」の3段階が設定される。「話したくない」が設定された場合には、これが他の情報よりも最優され、通話可能度合いを低くする。全ての接続先候補に一括で設定することも、個々にそれぞれ設定することも可能である。   The degree to which the infant is speaking is set by the infant's parents or the like. For example, three levels of “I do not want to talk”, “Normal” and “I want to talk” are set. When “I don't want to talk” is set, this is given priority over other information, and the degree of callability is lowered. It is possible to set all the connection destination candidates at once or individually.

乳幼児の周辺環境は、接続先候補となる乳幼児の居所内の情報であり、スマートハウスや育児日誌アプリなどと連携し、テレビがついているか、お風呂中か、外出先か、寝かしつけ後か、などを検出し、それぞれのシーン別に設定した通話可能度合いに変化させる。   Infant's surrounding environment is information on the location of the infant that is a candidate for connection, and in cooperation with smart houses and childcare diary apps, etc. Is detected, and the degree of callability set for each scene is changed.

乳幼児の状態は、乳幼児の心的状態やビデオチャットロボット1との距離等の情報であり、ビデオチャットロボット1周辺の音(乳幼児の泣き声)、乳幼児との距離(ビデオチャットロボット1の近くにいてビデオチャットロボット1に興味を示しているか)に応じて通話度合いを変化させる。   The state of the infant is information such as the mental state of the infant and the distance from the video chat robot 1, the sound around the video chat robot 1 (infant cry), the distance from the infant (close to the video chat robot 1). The degree of call is changed according to whether the video chat robot 1 is interested.

<動作>
図9は上記の実施形態の処理例を示すシーケンス図である。図9において、端末装置2で乳幼児以外のユーザがビデオチャット部21に対して話したさの度合いを設定(設定変更を含む)したり、環境変化等があると(ステップS101)、端末装置2のビデオチャット部21は管理サーバ3に対してその旨の情報を送信する(ステップS102)。管理サーバ3のビデオチャット制御部31は、端末装置2から情報を受信すると、受信した情報をユーザ状態管理部34に引き渡し、ユーザ状態管理部34は、ユーザ状態管理テーブル35の接続先候補の通話可能度合いを更新する(ステップS103)。通話可能度合いを決定する手法は図8において説明した通りである。
<Operation>
FIG. 9 is a sequence diagram showing a processing example of the above embodiment. In FIG. 9, when the terminal device 2 sets the degree of speaking (including setting change) by a user other than an infant to the video chat unit 21 or changes the environment (step S <b> 101), the terminal device 2. The video chat unit 21 transmits information to that effect to the management server 3 (step S102). When receiving the information from the terminal device 2, the video chat control unit 31 of the management server 3 passes the received information to the user state management unit 34, and the user state management unit 34 calls the connection destination candidate in the user state management table 35. The degree of possibility is updated (step S103). The method for determining the call possibility degree is as described in FIG.

また、ビデオチャットロボット1で乳幼児の父母等がビデオチャット部11に対して話したさの度合いを設定(設定変更を含む)したり、環境変化や状態変化等があると(ステップS104)、ビデオチャットロボット1のビデオチャット部11は管理サーバ3に対してその旨の情報を送信する(ステップS105)。管理サーバ3のビデオチャット制御部31は、ビデオチャットロボット1から情報を受信すると、受信した情報をユーザ状態管理部34に引き渡し、ユーザ状態管理部34は、ユーザ状態管理テーブル35の接続先候補の通話可能度合いを更新する(ステップS106)。通話可能度合いを決定する手法は図8において説明した通りである。   When the video chat robot 1 sets the degree of talk (including setting change) of the infant's parents or the like to the video chat unit 11, or changes in the environment or state (step S104), the video The video chat unit 11 of the chat robot 1 transmits information to that effect to the management server 3 (step S105). When receiving the information from the video chat robot 1, the video chat control unit 31 of the management server 3 delivers the received information to the user status management unit 34, and the user status management unit 34 selects connection destination candidates in the user status management table 35. The call possibility degree is updated (step S106). The method for determining the call possibility degree is as described in FIG.

その後、ビデオチャットロボット1において父母等または乳幼児が自らビデオチャットのアプリを起動すると(ステップS107)、ビデオチャットロボット1のビデオチャット部11は管理サーバ3に対して接続先候補情報を要求する(ステップS108)。管理サーバ3のビデオチャット制御部31は、端末装置2から接続先候補情報の要求を受信すると、受信した情報をユーザ状態管理部34に引き渡し、ユーザ状態管理部34は、要求元のビデオチャットロボット1の乳幼児が接続可能な接続先候補情報を応答する(ステップS109)。この際、接続先候補情報には、接続先候補のユーザID、ユーザ名、アイコン画像、通話可能度合いを含める。オフラインのユーザについては、接続先候補には含めない。なお、ビデオチャットロボット1でのアプリ起動時に接続先候補情報を応答する場合について説明したが、その後も、他のユーザの状態が変化した場合には接続先候補情報を提供する。この場合、ビデオチャットロボット1側から要求を行って取得してもよいし、管理サーバ3側から一方的に提供してもよい。   After that, when the parent or the like or the infant starts the video chat application on the video chat robot 1 (step S107), the video chat unit 11 of the video chat robot 1 requests connection destination candidate information from the management server 3 (step S107). S108). When the video chat control unit 31 of the management server 3 receives the request for connection destination candidate information from the terminal device 2, the video chat control unit 31 delivers the received information to the user state management unit 34. Connection destination candidate information that can be connected by one infant is returned (step S109). At this time, the connection destination candidate information includes a user ID, a user name, an icon image, and a call possibility degree of the connection destination candidate. Offline users are not included in connection destination candidates. In addition, although the case where connection destination candidate information was responded at the time of application activation in the video chat robot 1 was described, connection destination candidate information is provided when the state of another user changes thereafter. In this case, it may be obtained by making a request from the video chat robot 1 side, or may be provided unilaterally from the management server 3 side.

ビデオチャットロボット1のビデオチャット部11は、接続先候補情報を受信すると、接続先選択画面を表示する(ステップS110)。接続先選択画面は、通話可能度合いが高い接続先候補のアイコン画像の大きさまたは顔の大きさが大きくなるように表示される。この際、アイコン画像に占める顔の比率が均一である場合はアイコン画像の大きさを変えることで顔の大きさも同率で変わることとなるが、顔の比率が均一でない場合は、アイコン画像の大きさだけ、または、アイコン画像の大きさを変えずに画像処理により顔の大きさだけを変えるようにしてもよい。また、アイコン画像の大きさないしは顔の大きさだけでなく、画面上の配置も通話可能度合いに応じたものとすることができる。例えば、通話可能度合いが最も高いものを画面の中央、次をその左右の上方等に配置することができる。更に、アイコンの点滅、色の変化(彩度、明度、コントラスト)等を変えることで、注意を引く度合いを変えてもよい。   Upon receiving the connection destination candidate information, the video chat unit 11 of the video chat robot 1 displays a connection destination selection screen (step S110). The connection destination selection screen is displayed so that the size of the icon image or the face size of the connection destination candidate having a high degree of call possibility is increased. At this time, if the ratio of the face to the icon image is uniform, changing the size of the icon image also changes the size of the face at the same ratio, but if the ratio of the face is not uniform, the size of the icon image Only the size of the face may be changed by image processing without changing the size of the icon image. Further, not only the size of the icon image or the size of the face, but also the arrangement on the screen can be made according to the degree of call availability. For example, it is possible to place the one having the highest degree of callability at the center of the screen and the next at the upper left and right sides. Further, the degree of attention may be changed by changing the blinking of the icon, the change in color (saturation, brightness, contrast), and the like.

図10は接続先選択画面の例を示しており、通話可能度合いが最も高い「じいじ」のアイコン画像が最も大きく画面中央に表示され、次いで左上に「ゆーさん」、右上に「香おばちゃん」、左下に「パパ」の順にアイコン画像が表示されている。これにより、相手の事情を考慮できず、文字が読めない乳幼児であっても、顔が大きく目立つ中央に表示された「じいじ」を選択する可能性が高くなり、着信側の状態や乳幼児との親密度等に合致した発信行動に誘導することができる。   FIG. 10 shows an example of the connection destination selection screen. The icon image of “Jiji”, which has the highest degree of call possibility, is displayed in the center of the screen, then “Yu-san” in the upper left, and “Auntie Kaori” in the upper right. In the lower left, icon images are displayed in the order of “papa”. As a result, even for infants who cannot take into account the other party's circumstances and cannot read the characters, there is a higher possibility of selecting “Jijiji” displayed in the center where the face is large and conspicuous. It is possible to guide to outgoing behavior that matches the intimacy of the person.

なお、接続先選択画面の生成については、接続先候補情報に基づいてビデオチャットロボット1のビデオチャット部11において行ってもよいし、管理サーバ3側のビデオチャット制御部31において行ってもよい。   The generation of the connection destination selection screen may be performed in the video chat unit 11 of the video chat robot 1 based on the connection destination candidate information, or may be performed in the video chat control unit 31 on the management server 3 side.

図9に戻り、次いで、ビデオチャットロボット1において接続先選択画面から接続先の選択が行われると(ステップS111)、ビデオチャット部11は管理サーバ3に対して接続先を特定して接続要求を行う(ステップS112)。管理サーバ3のビデオチャット制御部31は、ビデオチャットロボット1から接続要求を受信すると、接続先の端末装置2に接続要求を送信する(ステップS113)。   Returning to FIG. 9, when the connection destination is selected from the connection destination selection screen in the video chat robot 1 (step S <b> 111), the video chat unit 11 specifies the connection destination and sends a connection request to the management server 3. This is performed (step S112). When receiving the connection request from the video chat robot 1, the video chat control unit 31 of the management server 3 transmits the connection request to the terminal device 2 that is the connection destination (step S113).

そして、端末装置2においてユーザが接続許可の操作を行うと(ステップS114)、ビデオチャット部21は管理サーバ3に接続許可を通知し(ステップS115)、ビデオチャットロボット1と端末装置2の間でビデオチャットが開始される(ステップS116、S117)。   When the user performs a connection permission operation on the terminal device 2 (step S114), the video chat unit 21 notifies the management server 3 of the connection permission (step S115), and between the video chat robot 1 and the terminal device 2. Video chat is started (steps S116 and S117).

なお、ビデオチャットロボット1を使用する乳幼児が接続先選択を行う場合について説明したが、端末装置2を使用する乳幼児以外のユーザが使用する場合も同様の接続先選択画面を提供することで、接続先候補に含まれる乳幼児の状態がわかりやすくなり、発信時の心的障壁を低下させることができる。   In addition, although the case where the infant who uses the video chat robot 1 selects the connection destination has been described, the connection destination selection screen is provided by using a similar connection destination selection screen when a user other than the infant who uses the terminal device 2 uses the connection apparatus. This makes it easier to understand the status of infants and children included in the previous candidates, and can reduce mental barriers during outgoing calls.

<総括>
以上説明したように、本実施形態によれば、チャットシステムにおいて適切な接続先を容易に選択することのできるユーザインタフェースを提供することができる。
<Summary>
As described above, according to the present embodiment, it is possible to provide a user interface that can easily select an appropriate connection destination in the chat system.

より具体的には、接続先選択画面において、相手の状態に応じてアイコンや顔の大きさ、配置等の注意を引き付ける度合いを変化させることで、文字が読めない乳幼児でも発信可能な相手の順列をつけることができ、相手の状態や親密度等に応じた選択を誘導することができる。   More specifically, on the connection destination selection screen, by changing the degree of attracting attention such as the size of icons, face size, placement, etc. according to the other party's state, the permutation of the other party that can be sent even by infants who cannot read characters It is possible to guide the selection in accordance with the other party's condition and intimacy.

これにより、乳幼児側では、接続できる可能性が高く、乳幼児の満足度を高められる相手を容易に選択することができ、その結果、乳幼児自身のチャット利用意向が高まるとともに、乳幼児の親の満足度も高まって、一層の利用を促進することができる。   As a result, the infant can easily select a partner who is likely to be able to connect and can increase the satisfaction of the infant. As a result, the infant's own intention to use the chat is increased, and the satisfaction of the infant's parent is increased. It can also be increased and further utilization can be promoted.

乳幼児に限らず、乳幼児に対して発信しようとする大人に対しても、乳幼児の家庭で乳幼児がチャットしていて欲しい・欲しくないタイミングがわかった上で発信をすることができ、発信する際の心的障壁を下げることができる。   Not only for infants but also for adults who want to send to infants, you can make a call after knowing when you want the infant to chat at the infant's home. Can lower mental barriers.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.

1 ビデオチャットロボット
11 ビデオチャット部
12 ハンド制御部
13 映像制御部
101 頭部筐体
102 画面部
103 カメラ
104 スピーカ
105 マイク
106 胴部筐体
107 ハンド
2 端末装置
21 ビデオチャット部
22 映像制御部
3 管理サーバ
31 ビデオチャット制御部
32 映像制御部
33 ログ取得部
34 ユーザ状態管理部
35 ユーザ状態管理テーブル
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Video chat robot 11 Video chat part 12 Hand control part 13 Image | video control part 101 Head case 102 Screen part 103 Camera 104 Speaker 105 Microphone 106 Trunk case 107 Hand 2 Terminal device 21 Video chat part 22 Video control part 3 Management Server 31 Video chat control unit 32 Video control unit 33 Log acquisition unit 34 User status management unit 35 User status management table N Network

Claims (10)

表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムであって、
前記端末装置の接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報を取得する手段と、
取得した前記通話可能度合いを示す情報に応じて、前記端末装置に表示される接続先選択画面における接続先候補毎のボタンの表示を変化させる手段と
を備えたことを特徴とするチャットシステム。
A chat system including a terminal device that enables a chat connection destination to be selected from a touch panel on a display screen,
Means for obtaining information indicating a degree of call possibility of a user of another terminal device that is a connection destination candidate of the terminal device;
A chat system comprising: means for changing a display of a button for each connection destination candidate on a connection destination selection screen displayed on the terminal device in accordance with the acquired information indicating the degree of call possibility.
前記端末装置が乳幼児によって使用される場合に、接続先候補となる前記他の端末装置のユーザにより設定された話したさの度合いを示す情報、前記乳幼児と前記ユーザとのチャット履歴を示す情報、前記ユーザの周辺環境を示す情報、の少なくともいずれかに基づいて前記通話可能度合いを示す情報を決定する
ことを特徴とする請求項1に記載のチャットシステム。
When the terminal device is used by an infant, information indicating the degree of speech set by a user of the other terminal device that is a connection destination candidate, information indicating a chat history between the infant and the user, The chat system according to claim 1, wherein information indicating the degree of call possibility is determined based on at least one of information indicating a surrounding environment of the user.
前記端末装置が乳幼児以外によって使用される場合に、接続先候補に含まれる乳幼児について、該乳幼児の保護者により設定された話したさの度合いを示す情報、該乳幼児の周辺環境を示す情報、該乳幼児の状態を示す情報、の少なくともいずれかに基づいて前記通話可能度合いを示す情報を決定する
ことを特徴とする請求項1に記載のチャットシステム。
When the terminal device is used by a person other than an infant, the information indicating the degree of speech set by the guardian of the infant, the information indicating the surrounding environment of the infant, The chat system according to claim 1, wherein information indicating the degree of call possibility is determined based on at least one of information indicating an infant's state.
前記接続先候補毎のボタンの表示の変化は、該ボタンの大きさの変化、該ボタンに表示される顔の大きさの変化、該ボタンの点滅、該ボタンの色の変化、該ボタンの表示位置の変化、の少なくともいずれかとする
ことを特徴とする請求項1乃至3のいずれか一項に記載のチャットシステム。
The change in the display of the button for each connection destination candidate is the change in the size of the button, the change in the size of the face displayed on the button, the blinking of the button, the change in the color of the button, the display of the button The chat system according to claim 1, wherein the chat system is at least one of a change in position.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの管理装置であって、
前記端末装置の接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報を取得する手段と、
取得した前記通話可能度合いを示す情報に応じて、前記端末装置に表示される接続先選択画面における接続先候補毎のボタンの表示を変化させる手段と
を備えたことを特徴とする管理装置。
A chat system management device including a terminal device capable of selecting a chat connection destination from a touch panel on a display screen,
Means for obtaining information indicating a degree of call possibility of a user of another terminal device that is a connection destination candidate of the terminal device;
A management device comprising: means for changing a display of a button for each connection destination candidate on a connection destination selection screen displayed on the terminal device according to the acquired information indicating the degree of call possibility.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの前記端末装置であって、
接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報に応じて、接続先選択画面における接続先候補毎のボタンの表示を変化させる手段
を備えたことを特徴とする端末装置。
The terminal device of the chat system including a terminal device capable of selecting a chat connection destination from a touch panel on a display screen,
A terminal device comprising means for changing a display of a button for each connection destination candidate on a connection destination selection screen in accordance with information indicating the degree of call possibility of a user of another terminal device that is a connection destination candidate.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの管理装置が実行する方法であって、
前記端末装置の接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報を取得し、
取得した前記通話可能度合いを示す情報に応じて、前記端末装置に表示される接続先選択画面における接続先候補毎のボタンの表示を変化させる
処理を実行することを特徴とする宛先選択支援方法。
A method to be executed by a chat system management device including a terminal device capable of selecting a chat connection destination from a touch panel on a display screen,
Obtain information indicating the degree of call possibility of the user of another terminal device that is a connection destination candidate of the terminal device,
A destination selection support method, comprising: executing a process of changing a button display for each connection destination candidate on a connection destination selection screen displayed on the terminal device in accordance with the acquired information indicating the degree of call possibility.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの管理装置に、
前記端末装置の接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報を取得し、
取得した前記通話可能度合いを示す情報に応じて、前記端末装置に表示される接続先選択画面における接続先候補毎のボタンの表示を変化させる
処理を実行させることを特徴とする宛先選択支援プログラム。
In the chat system management device equipped with a terminal device that can select the chat connection destination from the touch panel on the display screen,
Obtain information indicating the degree of call possibility of the user of another terminal device that is a connection destination candidate of the terminal device,
A destination selection support program for executing a process of changing a display of a button for each connection destination candidate on a connection destination selection screen displayed on the terminal device according to the acquired information indicating the degree of call possibility.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの前記端末装置が実行する方法であって、
接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報に応じて、接続先選択画面における接続先候補毎のボタンの表示を変化させる
処理を実行することを特徴とする宛先選択支援方法。
A method to be executed by the terminal device of the chat system including a terminal device capable of selecting a chat connection destination from a touch panel on a display screen,
Destination selection support characterized by executing a process of changing the display of a button for each connection destination candidate on the connection destination selection screen according to information indicating the degree of call possibility of the user of another terminal device as a connection destination candidate Method.
表示画面上のタッチパネルからチャットの接続先を選択可能とした端末装置を備えたチャットシステムの前記端末装置に、
接続先候補となる他の端末装置のユーザの通話可能度合いを示す情報に応じて、接続先選択画面における接続先候補毎のボタンの表示を変化させる
処理を実行させることを特徴とする宛先選択支援プログラム。
In the terminal device of the chat system provided with a terminal device capable of selecting a connection destination of chat from a touch panel on the display screen,
Destination selection support characterized in that a process for changing the display of a button for each connection destination candidate on the connection destination selection screen is executed in accordance with information indicating the degree of call possibility of the user of another terminal device that is a connection destination candidate program.
JP2016237624A 2016-12-07 2016-12-07 Chat system, management device, terminal device, destination selection support method and destination selection support program Active JP6889464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016237624A JP6889464B2 (en) 2016-12-07 2016-12-07 Chat system, management device, terminal device, destination selection support method and destination selection support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016237624A JP6889464B2 (en) 2016-12-07 2016-12-07 Chat system, management device, terminal device, destination selection support method and destination selection support program

Publications (2)

Publication Number Publication Date
JP2018092528A true JP2018092528A (en) 2018-06-14
JP6889464B2 JP6889464B2 (en) 2021-06-18

Family

ID=62565635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016237624A Active JP6889464B2 (en) 2016-12-07 2016-12-07 Chat system, management device, terminal device, destination selection support method and destination selection support program

Country Status (1)

Country Link
JP (1) JP6889464B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202354A1 (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Communication robot, control method for same, information processing server, and information processing method
WO2020202353A1 (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Communication robot, method for controlling same, information processing server, and information processing method
WO2022097211A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
WO2022097210A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2014384616B2 (en) 2013-12-09 2019-11-14 Proof Research, Inc. Fiber winding system for composite projectile barrel structure

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001919A1 (en) * 2010-06-28 2012-01-05 日本電気株式会社 Communication device, communication system, communication method and communication program
US20160242007A1 (en) * 2015-02-17 2016-08-18 Akihiro Mihara Transmission management system, transmission system, transmission management method, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001919A1 (en) * 2010-06-28 2012-01-05 日本電気株式会社 Communication device, communication system, communication method and communication program
US20160242007A1 (en) * 2015-02-17 2016-08-18 Akihiro Mihara Transmission management system, transmission system, transmission management method, and storage medium
JP2016152518A (en) * 2015-02-17 2016-08-22 株式会社リコー Transmission management system, transmission system, transmission management method, and program
EP3059933A1 (en) * 2015-02-17 2016-08-24 Ricoh Company, Ltd. Transmission management system, transmission system, transmission management method, and storage medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阿部香澄,他4名: "幼児と祖父母をつなぐテレプレゼンス子育て支援ロボット −ニーズと課題の検討−", 一般社団法人 人工知能学会 第29回全国大会論文集CD−ROM [CD−ROM] 2015年度 人工, vol. 第29回会議, JPN6020049023, 30 May 2015 (2015-05-30), JP, pages 1 - 4, ISSN: 0004502216 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020202354A1 (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Communication robot, control method for same, information processing server, and information processing method
WO2020202353A1 (en) * 2019-03-29 2020-10-08 本田技研工業株式会社 Communication robot, method for controlling same, information processing server, and information processing method
JPWO2020202354A1 (en) * 2019-03-29 2021-11-04 本田技研工業株式会社 Communication robot and its control method, information processing server and information processing method
JPWO2020202353A1 (en) * 2019-03-29 2021-12-09 本田技研工業株式会社 Communication robot and its control method, information processing server and information processing method
JP7208361B2 (en) 2019-03-29 2023-01-18 本田技研工業株式会社 Communication robot and its control method, information processing server and information processing method
JP7212766B2 (en) 2019-03-29 2023-01-25 本田技研工業株式会社 Communication robot and its control method, information processing server and information processing method
WO2022097211A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
WO2022097210A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot

Also Published As

Publication number Publication date
JP6889464B2 (en) 2021-06-18

Similar Documents

Publication Publication Date Title
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
KR102264600B1 (en) Systems and methods for adaptive notification networks
CN105320726B (en) Reduce the demand to manual beginning/end point and triggering phrase
TWI590628B (en) Methods and computing systems integrated communications, and computer program products thereof
CN106411687B (en) Method and device for interaction between network access equipment and bound user
WO2016086581A1 (en) Instant communication method and device
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
KR20120089676A (en) Remote communication system and method
MX2008008855A (en) Social interaction system.
JP6292295B2 (en) Cooperation system, apparatus, method, and recording medium
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
JP2015515643A (en) Instant communication speech recognition method and terminal
US20170279898A1 (en) Method for Accessing Virtual Desktop and Mobile Terminal
CN110152314B (en) Session output system, session output server, session output method, and storage medium
US10541951B2 (en) Enhancing network messaging with a real-time, interactive representation of current messaging activity of a user&#39;s contacts and associated contacts
EP2690847A1 (en) Virtual assistant for a telecommunication system
WO2015078155A1 (en) A method and mobile terminal for speech communication
KR20190016671A (en) Communication device, server and communication method thereof
CN103945065A (en) Message reminding method and device
JP6462438B2 (en) Conversation partner matching device, conversation partner matching system, and conversation partner matching program
WO2016157993A1 (en) Information processing device, information processing method, and program
CN109842543A (en) The store method and device of instant communicating method and device, instant communication message
CN104363166A (en) Instant messaging method and device and intelligent terminal
JP2018186326A (en) Robot apparatus and program
JP7232846B2 (en) VOICE CHAT DEVICE, VOICE CHAT METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6889464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150