JP6175969B2 - 情報処理装置、情報処理システム及びプログラム - Google Patents

情報処理装置、情報処理システム及びプログラム Download PDF

Info

Publication number
JP6175969B2
JP6175969B2 JP2013166760A JP2013166760A JP6175969B2 JP 6175969 B2 JP6175969 B2 JP 6175969B2 JP 2013166760 A JP2013166760 A JP 2013166760A JP 2013166760 A JP2013166760 A JP 2013166760A JP 6175969 B2 JP6175969 B2 JP 6175969B2
Authority
JP
Japan
Prior art keywords
information
information processing
point
processing apparatus
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013166760A
Other languages
English (en)
Other versions
JP2015035769A (ja
Inventor
毅史 本間
毅史 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013166760A priority Critical patent/JP6175969B2/ja
Priority to US14/451,660 priority patent/US9247206B2/en
Publication of JP2015035769A publication Critical patent/JP2015035769A/ja
Application granted granted Critical
Publication of JP6175969B2 publication Critical patent/JP6175969B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/10Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
    • H04M2203/1016Telecontrol
    • H04M2203/1025Telecontrol of avatars

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理装置、情報処理システム及びプログラムに関する。
複数の端末装置をインターネット等の通信回線を介して接続し、映像と音声を双方向に送受信することで、遠隔地にいる者同士の会議を実現するビデオ会議をはじめとする遠隔会議システムが知られている。また、実際の映像に代えて擬似化オブジェクトを表示させて遠隔会議を行う技術も知られている(例えば、特許文献1参照)。
また、異なる文化的背景を持つユーザ同士が遠隔会議を行う場合、互いの身振りや顔の表情等が相手にどのように解釈されるかを十分に理解できていない場合がある。このような異文化によるコミュニケーションギャップを解消するために、身振りの意味を文化的背景等から推測し、その情報をアイコンやテキストメッセージで提供する技術が知られている(例えば、特許文献2参照)。
特許文献2に記載された技術では、通信先と画像や音声による遠隔会議を行っているときに、表示画面等に表示されたアイコンやテキストを読み取り、理解する必要があった。このように、異文化等によるコミュニケーションギャップを低減させ、遠隔地とのコミュニケーションを容易化することには困難を伴っていた。
本発明の実施の形態は、上記問題点を鑑みてなされたものであって、ネットワークを介したコミュニケーションにおいて、異文化等によるコミュニケーションギャップを低減させ、遠隔地とのコミュニケーションを容易化する情報処理装置を提供することを目的とする。
上記課題を解決するため、一実施の形態に係る情報処理装置は、第1地点の情報処理装置との間で通信を行う第2地点の情報処理装置であって、前記第1地点の情報処理装置のユーザの第1動作情報を取得する手段と、前記第1地点における前記第1動作情報の意味を示す第1意味情報、及び前記第2地点における前記第1動作情報の意味を示す第2意味情報を特定する手段と、前記第1意味情報と前記第2意味情報との差異に基づいて、前記第1動作情報が前記第2地点において前記第1意味情報を示すように、前記第1動作情報を修正する手段と、修正された前記第1動作情報に基づいて、前記第1地点の情報処理装置のユーザのオブジェクトを生成する手段と、を有する。
本実施の形態によれば、ネットワークを介したコミュニケーションにおいて、異文化等によるコミュニケーションギャップを低減させ、遠隔地とのコミュニケーションを容易化する情報処理装置を提供することができる。
一実施の形態に係る情報処理システムの一例を示す図である。 一実施の形態に係る情報処理装置のハードウェア構成の一例を示す図である。 第1の実施の形態に係る情報処理装置の機能構成の一例を示す図である。 第1の実施の形態に係る背景設定テーブルの一例を示す図である。 第1の実施の形態に係る動作情報テーブルの一例を示す図である。 第1の実施の形態に係る声量判定テーブルの一例を示す図である。 第1の実施の形態に係る表情判定テーブルの一例を示す図である。 第1の実施の形態に係る情報処理装置の処理の流れを示すフローチャートである。 第1の実施の形態に係る修正手段の構成の一例を示す図である。 第1の実施の形態に係る修正処理の流れを示すフローチャートである。 第1の実施の形態に係る背景設定(抜粋)の一例を示す図である。 第1の実施の形態に係る修正内容テーブルの一例を示す図である。 第1の実施の形態に係る動作モード設定画面の一例を示す図である。 第1の実施の形態に係るアピールモード用の動作修正テーブルの一例を示す図である。 情報処理システムの機能構成の別の一例を示す図である。 第2の実施の形態に係る情報処理装置の機能構成の一例を示す図である。 第2の実施の形態に係る修正処理の流れを示すフローチャートである。 第2の実施の形態に係る遅延修正処理の流れを示すフローチャートである。 第2の実施の形態に係る反応要求情報の一例を示す図である。 第2の実施の形態に係る修正可否情報の一例を示す図である。 第2の実施の形態に係る遅延修正情報の一例を示す図である。
以下に、本発明の実施の形態について、添付の図面を参照して説明する。
<システム構成>
図1は、一実施の形態に係る情報処理システムの一例を示す図である。図1に示すシステムは、複数の装置がネットワーク等を介して接続され、コミュニケーションを行うシステムであり、例えば遠隔会議システムなどである。
図1に示す例では、情報処理システム100は、複数の情報処理装置101−n(n=1〜3、nは複数の任意の数)及びサーバ装置102がネットワーク103を介して接続されている。ネットワーク103は、例えば、インターネット、企業内の有線又は無線LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークである。なお、複数の情報処理装置101−nは、それぞれを区別する必要がない場合は、情報処理装置101として表記する。
情報処理装置101は、クライアント端末とも称され、ネットワーク103を介した遠隔会議等を行う際の端末である。情報処理装置101は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、又は遠隔会議用の専用端末等である。
サーバ装置102は、複数の情報処理装置101−n間の通信を制御する機能を有し、例えば、情報処理装置101−1からのデータを受信し、所望の情報処理装置、例えば、情報処理装置101−2、情報処理装置101−3等に送信する機能を有する。また、サーバ装置102は、複数の情報処理装置101−n間で送受信するデータに所定のデータ処理、例えば、画像処理、エンコード、デコード等の処理を行うものであっても良い。
尚、上記構成は一例であって、サーバ装置102の数は他の数であっても良い。また、情報処理システム100は、サーバ装置102を備えずに、情報処理装置101間でピアツーピア接続により通信を行うものであっても良い。
情報処理装置101−1〜101−3は、情報処理装置間で通信を行い、音声、画像の情報を送受信することができる。これにより、例えば、情報処理装置101−1のユーザは、情報処理装置101−2や101−3のユーザと、リアルタイムに送受信される音声や画像を介して遠隔会議を行うことができる。
尚、このとき表示する通信先のユーザに関する画像は、必ずしもユーザの実画像でなくても良い。例えば、ユーザの実画像データに代えて、ユーザの動作に関わる情報(動作情報)のみを送受信し、受信した動作情報に基づいて情報処理装置101がユーザのオブジェクト(アバター)を生成し、表示するアバター会議であっても良い。アバター会議により、より帯域の狭い通信回線においても、遠隔会議を行うことが可能になる。さらに、アバター会議は、音声のみではなく、身振り等の非言語的な情報も伝達することができるので、音声会議等よりも円滑にコミュニケーションを行うことができる。
本実施の形態では、情報処理装置101は、第1の地域(地点)と第2の地域(地点)との間で行われるアバター会議において、例えば、第1の地域のユーザの第1動作情報から、第1の地域における意味を示す第1意味情報と、第2の地域における意味を示す第2意味情報とを特定する。また、特定された2つの地域における意味情報が一致しなかった場合、すなわち、コミュニケーションギャップがあると判断した場合、第1のユーザの動作情報が第2の地域において第1意味情報を示すように、第1のユーザの動作情報を修正する。
さらに、情報処理装置101は、修正された動作情報に係る動作を強調又は抑制してアバターを生成する一又は複数の動作モードを有する。さらに、修正された動作情報とは異なる動作で誇張してアバターを生成する動作モードを有する。
尚、上記機能は、情報処理装置101が個別に有していても良いし、複数の情報処理装置101やサーバ装置102に分散して有していても良い。
<ハードウェア構成>
図2は、一実施の形態に係る情報処理装置101のハードウェア構成の一例を示すブロック図である。情報処理装置101は、一般的なコンピュータの構成を有しており、例えば、制御部201、主記憶部202、補助記憶部203、ドライブ装置204、ネットワークI/F(Interface)部206、入力部207、表示部208、入出力I/F部209、システムバス210等を有している。尚、サーバ装置102も同様の構成で良い。
制御部201は、各部の制御やデータの演算、加工を行うCPU(Central Processing Unit)を含む。また、制御部201は、主記憶部202や補助記憶部203に記憶されたコミュニケーション制御プログラム等を実行する演算手段であり、入力部207や記憶装置からデータを受け取り、演算、加工した上で、表示部208や記憶装置などに出力する。
主記憶部202は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)等の記憶手段である。主記憶部202は、制御部201が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムや、データを記憶又は一時保存する記憶装置である。補助記憶部203は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等のストレージ手段であり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。ドライブ装置204は、記録媒体205、例えばメモリカード等からプログラムを読み出し、記憶装置にインストールする。また、記録媒体205に、例えばコミュニケーション制御プログラムを格納し、コミュニケーション制御プログラムはドライブ装置204を介して情報処理装置101にインストールされる。インストールされたコミュニケーション制御プログラムは、情報処理装置101により実行可能となる。
ネットワークI/F部206は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN、WANなどのネットワークを介してデータの送受信を行う通信手段である。入力部207は、ユーザが情報処理装置101にキー入力等を行うキーボード、マウス等のポインティングデバイス、又はタッチパネル等の入力手段である。表示部208は、例えば、LCD(Liquid Crystal Display)等の表示手段であり、制御部201から入力される表示データに応じた表示が行われる。また、表示部208は、情報処理装置101と別体でもよく、この場合は、情報処理装置101には、表示部208を制御する表示制御部が設けられる。
入出力I/F209部は、外部機器等とのデータの入出力を行うための手段である。例えば、ユーザの画像を取得するカメラ、ユーザの音声を取得するマイク、通信先の音声を出力するスピーカー等のインタフェースを含む。システムバス210は、アドレスバス、データバス及び各種制御信号を伝達するバスである。
[第1の実施の形態]
<機能構成>
図3は、第1の実施の形態に係る情報処理装置101の機能構成図である。図3において、情報処理装置101は、入力機器308から、例えば、ユーザの動画像、音声等のユーザの動作を表す情報を取得する。入力機器308は、ユーザの動作を認識可能なデバイスであり、例えば、カメラや深度センサやマイクなどのデバイスである。また、情報処理装置101は、生成したオブジェクトを出力機器309に出力する。出力機器309は、例えば、図2の表示部208やスピーカーなどのデバイスである。オブジェクトとは、例えば、通信先のユーザを表すアバター等である。
図3に示す情報処理装置101は、動作情報生成手段301、通信手段302、設定手段303、検出手段304、修正手段305、生成手段306、及び記憶手段307を備える。尚、動作情報生成手段301、設定手段303、検出手段304、修正手段305、及び生成手段306は、例えば、図2に示す制御部201で実行されるプログラムによって実現される。このとき、主記憶部202は、ワークメモリとして使用される。また、記憶手段307は、例えば、図2の主記憶部202、補助記憶部203等の記憶部に含まれる。通信手段302は、例えばネットワークI/F部206により実現される。
動作情報生成手段301は、入力機器308から取得したユーザの動作を表す情報を基に、身体の動作のみではなく音声も含む、ユーザがどのような動作を行っているかを示す情報(動作情報)を生成する。生成された動作情報は、通信手段302を介して通信先の情報処理装置等へ送信される。
通信手段302は、ネットワーク103を介して他の情報処理装置等とコミュニケーションを行うために必要なデータの送受信を行う。ここで、コミュニケーションを行うために必要なデータは、例えば、上記動作情報を含む。本実施の形態では、通信手段302は、入力機器308からの情報に基づいて動作情報生成手段301によって生成された動作情報を通信先の情報処理装置に送信する。また、通信手段302は、通信先の情報処理装置から、通信先のユーザの動作情報を受信(取得)する。
動作情報は、例えば、3Dモデルで構成されたオブジェクト(アバター)であれば、各オブジェクトに対して基部の座標とX,Y,Zの3次元で表わされるオブジェクトの向きおよび回転角の4次元の情報(Quaternion)である。この4次元の情報あれば、オブジェクトの様態を一意に定めることができるため、各フレームにおけるQuaternionが、送受信されればよい。このとき、3Dモデルの情報は、事前に共有したり利用者が独自に調達したりすることで準備したものを利用する。
ただし、表情については、位置情報から構成すると不自然になる場合がある。これは、アニメーションなどで一般的にみられるように、写実的ではないオブジェクトの表情にともなう動作は、実際の人間が行う動作と同じ意図を伝える際に同じ動作をすればいいとは限らないからである。そのため、情報処理装置101は、特許第3593067号公報のような手法で表情を判断したうえで、表情の種類(喜怒哀楽等)の情報を送信し、受信側で使用しているモデルにその表情を適用する形をとっても良い。
設定手段303は、情報処理装置101の動作に係る様々な設定を行う手段である。情報処理装置101は、例えば、言語、国、地域、民族、風習等の文化的背景に応じて、通信手段302等から取得した動作情報が、それぞれどのような意味を有しているかを示す複数の背景設定テーブルを有している。同じ動作であっても、文化的背景が違えば意味が異なるからである。設定手段303は、この背景設定テーブルの中から、通信先(第1地点)の文化的背景に応じたテーブル(第1テーブル)と、通信元(第2地点)の文化的背景に応じたテーブル(第2テーブル)と、をそれぞれ設定する手段である。また、この設定を背景設定と呼ぶ。
さらに、本実施の形態に係る情報処理装置101は、オブジェクトの表現を強調する強調モード、オブジェクトの表現を抑制する穏やかモード、又はオブジェクトの表現を誇張して表現するアピールモード等を含む複数の動作モードを有している。設定手段303は、この複数の動作モードの中から一の動作モードを選択する手段でもある。また、この設定をモード設定と呼ぶ。
情報処理装置101のユーザは、例えば、図2の表示部208に設定手段303によって表示された画面、及び入力部207の操作等により、上記、背景設定及びモード設定等の設定を行うことができる。
また、別の好適な一例として、情報処理装置101は、通信先の情報処理装置等から、通信先の地域、言語、タイムゾーン等の情報を取得し、取得した情報に基づいて、通信先の背景設定テーブル(第1テーブル)を設定するものであっても良い。この場合、通信先の文化的背景を十分に知らない場合でも、自動的に適切な背景設定が行われる。
検出手段304は、通信手段302が取得した通信先(第1地点)の情報処理装置のユーザの動作情報から、第1地点に対応する背景設定テーブルに基づいて、第1地点における上記動作情報の意味を示す第1意味情報を検出(特定)する。また、第2地点に対応する背景設定テーブルに基づいて、第2地点における上記動作情報の意味を示す第2意味情報を検出(特定)する。検出手段304は、例えば、通信手段302が取得した動作情報に対して、背景設定テーブルの動作情報と一致するかどうかの判断を行い、一致する動作情報に対応する意味を特定する。検出手段304は、特定した意味を示す意味情報を、例えば、動作情報に付加して出力する。尚、上記第1意味情報及び第2意味情報の検出を一つの検出手段304で行うものとして説明したが、第1意味情報と第2意味情報を別に検出する2つの検出手段を有していても良い。
修正手段305は、検出手段304によって特定された第1意味情報と第2意味情報との差異に基づいて、上記動作情報が通信元(第2地点)において上記第1意味情報を示すように、上記動作情報を修正する。第1意味情報は、第1地点に対応する背景設定テーブルとして、通信先の文化的背景に対応したテーブルが正しく設定されていれば、通信先におけるユーザの動作情報の意味を示している。また、同様に、第2意味情報は、第2地点に対応するテーブルとして、通信元の文化的背景に対応したテーブルが正しく設定されていれば、通信元におけるユーザの動作情報の意味を示している。
従って、第1意味情報と第2意味情報とが不一致となった場合、そのまま動作情報を伝達してしまうとコミュニケーションギャップが発生すると判断できる。そのため、修正手段305は、第1意味情報と第2意味情報とが不一致となった場合に、通信先から取得した動作情報を修正する。
さらに、修正手段305は、モード設定により設定された動作モードに応じて、上記修正された動作情報を修正する。尚、修正手段305の具体的な修正内容については、後述する。
生成手段306は、修正手段305により修正された動作情報に基づいて、通信先の情報処理装置のユーザのオブジェクト(アバター)を生成し、生成したオブジェクトを出力機器309に出力する。出力機器309に表示するオブジェクトの生成に必要な情報は、事前に情報処理装置101に保存されていてもよいし、会議開始時に相手側の装置から提供されるものであってもよい。
ここで、背景設定テーブルについて説明する。背景設定テーブルは、例えば、言語、国名、地域、民族、風習等の文化的背景に応じて、各動作情報が、それぞれどのような意味を有しているかを示す複数のテーブルを有している。
図4は、第1の実施の形態に係る背景設定テーブルの一例を示す図である。背景設定テーブル401には、文化的背景に対応する複数のテーブルが用意されており、それぞれに識別用のラベル402が付与されている。また、背景設定テーブル401は、例えば、言語、国、都市、地域、民族、宗教等、又はその組合せである背景403により、ユーザが適切なテーブルを選択できるようになっている。
さらに、背景設定テーブル401の各テーブルは、それぞれ、例えば、動作情報テーブル404、声量判定テーブル405、表情判定テーブル406等の複数のテーブルを有していても良い。
図5は、第1の実施の形態に係る動作情報テーブルの一例を示す図である。図5に示す動作情報テーブル404は、ラベル501と、動作種別502と、動作情報の基準503と、動作情報の意味504と、を対応付けている。検出手段304は、取得した動作情報が動作情報の動作情報の基準503と一致又は該当するとき、一致又は該当した動作情報に対応する動作情報の意味504等を特定することができる。
図6は、第1の実施の形態に係る声量判定テーブル405の一例を示す図である。図6に示す声量判定テーブル405は、動作情報テーブル404と同様に、ラベル601と、動作種別602と、動作情報の基準603と、動作情報の意味604と、を対応付けている。動作情報テーブル404が、主にユーザの身体的な動作に関するテーブルであったのに対し、声量判定テーブル405は、主に音声に関するテーブルとなっている。検出手段304は、取得した動作情報の音声情報が動作情報の基準603と一致又は該当するとき、一致又は該当した動作情報に対応する動作情報の意味604等を特定することができる。
さらに、背景設定テーブル401は、ユーザの表情を検出するための表情判定テーブル406を有していても良い。
図7は、第1の実施の形態に係る表情判定テーブルの一例を示す図である。図7に示す表情判定テーブル406は、ラベル701と、表情種別702と、動作情報の基準703と、動作情報の意味704と、を対応付けている。表情判定テーブル406により、ユーザの上体の動作や、音声だけでは読み取れない、表情の意味についても特定できる。検出手段304は、取得した動作情報が動作情報の基準703と一致又は該当するとき、一致又は該当した動作情報に対応する動作情報の意味704及び表情種別702等を特定することができる。
検出手段304は、例えば、動作情報テーブル404、表情判定テーブル406、及び表情判定テーブル406等に基づいて特定した動作情報の意味504、604、704等を意味情報として修正手段305に出力する。
<処理の流れ>
次に、情報処理装置101の処理の流れについて説明する。
図8は、第1の実施の形態に係る情報処理装置101の処理の流れを示すフローチャートである。尚、図8において、通信を開始する前に、背景設定により、複数の背景設定テーブルの中から、第1地点の文化的背景に応じた第1テーブルと、第2地点の文化的背景に応じた第2テーブルと、が既に設定されているものとして説明を行う。
第1地点(通信先)の情報処理装置と第2地点(通信元)の情報処理装置とで通信を開始すると(ステップS801)、通信手段302は、通信先から送られてくる第1地点の情報処理装置のユーザの動作情報を取得する(ステップS802)。次に、検出手段304は、背景設定で設定された第1テーブルを用いて、通信手段302が取得した動作情報の第1地点における意味を示す情報である第1意味情報を検出する。さらに、検出手段304は、背景設定で設定された第2テーブルを用いて、通信手段302が取得した動作情報の第2地点における意味を示す情報である第2意味情報を検出する(ステップS803)。
次に、修正手段305は、第1意味情報と第2意味情報が一致するか否かを判断する(ステップS804)。修正手段305は、第1意味情報と第2意味情報とが不一致となった場合に、通信先のユーザの動作情報を修正する(ステップS805)。一方、第1意味情報と第2意味情報とが一致した場合は、動作情報を修正せずにステップS806に進む。さらに、修正手段305は、設定手段303によって設定された動作モードに応じて、動作情報を修正する(ステップS806)。
生成手段306は、修正手段305から取得した動作情報に基づいて、通信先の情報処理装置のユーザのオブジェクト(アバター)を生成する(ステップS807)。
<修正処理>
ここで、修正手段305による修正処理について説明する。
図9は、第1の実施の形態に係る修正手段305の構成の一例を示す図である。修正手段305は、例えば、判定手段901、第1修正手段902及び第2修正手段903を有している。また、記憶手段307には、背景設定テーブル、修正内容テーブル等が記憶されている。
判定手段901には、検出手段304によって検出された、第1意味情報及び第2意味情報が入力されている。判定手段901は、入力された第1意味情報と第2意味情報とを比較し、両者が不一致の場合に、第1修正手段902に、通信手段302等から入力された第1地点のユーザの動作情報の修正を指示する。判定手段901は、第1修正手段902による修正内容を判断する。尚、判定手段901が修正内容を判断する構成は一例であって、動作情報の修正内容は第1修正手段902が判断するものであっても良い。
第1修正手段902は、判定手段901からの修正の指示に応じて、第1地点の情報処理装置のユーザの動作情報を修正する。具体的には、第1地点のユーザの動作情報が第2地点において第1意味情報を示すように、第1地点の情報処理装置のユーザの動作情報を修正する。
第2修正手段903は、設定手段303によって設定された動作モードに応じて、第1修正手段902から出力された動作情報を修正し、修正した動作情報を生成手段306に出力する。
図10は、第1の実施の形態に係る修正処理の流れを示すフローチャートである。判定手段901は、検出手段304から出力された、第1意味情報及び第2意味情報を取得する(ステップS801)。判定手段901は、第1意味情報と第2意味情報が一致するか否かを判断する(ステップS802)。第1意味情報と第2意味情報が不一致でない場合、すなわち、一致する場合は、通信先の第1地点と通信元の第2地点との間でコミュニケーションギャップがないと考えられる。従って、修正手段305は、通信手段302から取得した動作情報の修正を行わなくても良い。
一方、ステップS802において、第1意味情報と第2意味情報が不一致となった場合、通信先の第1地点と通信元の第2地点との間でコミュニケーションギャップがあると考えられる。この場合、第1修正手段902は、修正内容テーブルの有無を判断する(ステップS803)。修正内容テーブルがある場合、第1修正手段902は、修正内容テーブルに従って、動作情報を修正する(ステップS804)。
一方、ステップS803において、修正内容テーブルがない場合、背景設定で設定された、第1の地点に対応する背景設定テーブル及び/又は第2の地点に対応する背景設定テーブル等に基づいて、動作情報を修正する(ステップS805)。第2修正手段は、修正された動作情報を動作モードに応じて修正する。
第1修正手段902の修正内容について、具体的な例を上げて説明する。
図11は、第1の実施の形態に係る背景設定(抜粋)の一例を示す図である。図11は、背景設定テーブルの一部の動作(発生のある頷き)を抜粋したものである。また、第1テーブルとして、図4の背景設定テーブルのラベル1(日本語/東京、日本語/その他)が設定されており、第2テーブルとして、ラベル4(スペイン語/メキシコシティ)が設定されているものとする。
この場合、通信先の第1地点のユーザが、顔を8度前傾させる頷き動作を行うと、第1のテーブルでは、動作情報の基準は、顔が「5度以上前傾する」となっているので、第1の意味情報は「肯定」となる。一方、第2のテーブルでは、動作情報の基準は、顔が「10以上前傾する」となっているので、第2の意味情報は「肯定」とはならず、意味情報の不一致が発生する。
この場合、第1修正手段902は、第1テーブル及び第2テーブルに対応する修正内容テーブルが記憶手段307に記憶されているか否かを確認する。
図12は、修正内容テーブルの一例である。図12において、ラベルA−1.1に対して、第1テーブル1201と第2テーブル1202との組合せに応じて、修正内容1203が定義されている。図11の例では、第1テーブルがラベル1、第2テーブルがラベル4なので、図12の修正内容テーブルより、顔の動作を50%大きくする修正を行う。
上記の例では、ユーザが顔を8度前傾させているので、修正手段305は、修正内容テーブルに基づいて、顔を12度前傾させる動作に修正する。尚、修正内容テーブルには、各動作種別及びラベルに対応して、図12のような修正内容がそれぞれ記録されている。また、修正内容テーブルは、修正内容テーブルに基づく修正により、動作情報が、第2の地点においても、第1の地点と同じ意味を示すように作成されている。
一方、修正内容テーブルがない場合は、修正手段305は、背景設定で設定された第1テーブル及び/又は第2テーブルに基づいて、動作情報を修正する。図11の例では、第2テーブルより、顔の前傾を10度以上にすれば、第2地点においても、動作情報の意味が「肯定」となることが判る。従って、修正手段305は、顔の前傾が10度以上となるような修正を行う、例えば、閾値の10度との比を120%として、12度前傾させる修正を行う。尚、この比を増減することにより、通信先のユーザのアバターの動作を強調して表現したり、抑制して表現したりすることができる。
また、人間の動作には、同じ意味を持つ動作にも、ばらつきやバリエーションがあるため、同じ入力(第1意味情報及び第2意味情報)に対して、毎回同じ修正を行っていると、アバターの動作に不自然さを感じる場合がある。そのため、第1意味情報及び第2意味情報に応じた修正内容を複数用意しておき、ランダムに修正内容を選択するようにしても良い。尚、上記複数の修正内容は、修正の内容、タイミング等が異なるものを含んでいても良い。修正手段305は、上記修正を行った動作情報を生成手段306へ出力する。
<動作モード>
次に、情報処理装置101の動作モードについて説明する。情報処理装置101は、第1修正手段902によってコミュニケーションギャップが修正された動作情報を、強調、抑制、又は誇張して表現する複数の動作モードを有している。
図13は、第1の実施の形態に係る動作モード設定画面の一例を示す図である。図13の例では、設定手段303が、例えば、図2の表示部208等に、通常モード1301、強調モード1302、穏やかモード1303、アピールモード1304を含む動作モード設定画面を表示させている。上記4つの動作モードは一例であって、動作モードの数は他の数であっても良い。ユーザは、動作モード設定画面から、情報処理装置101の動作モードを選択することができる。
図13に示した4つの動作モードのうち、通常モード1301は、第1修正手段902による動作情報のコミュニケーションギャップをなくす修正を行い、第2修正手段903による、追加の修正を行わない動作モードである。
強調モード1302は、第1修正手段902から取得した動作情報に係る動作が大きくなるように修正して通信先のユーザのオブジェクトを生成するモードである。この動作モードでは、第2修正手段903は、例えば、頷き動作であれば、頷く角度が大きくなるように修正を行う。情報処理装置101は、例えば、背景設定に関連付けられた強調モード用の修正テーブルを有し、第2修正手段903は、この強調モード用の修正テーブルに従って動作情報を修正しても良い。第2修正手段903は、修正テーブルを用いずに、対象となる動作を単に大きく修正するだけであっても良い。生成手段306は、修正された動作情報に基づいて、通信先のユーザのオブジェクトを生成する。
穏やかモード1303は、第1修正手段902から取得した動作情報の動作が小さくなるように修正して通信先のユーザのオブジェクトを生成する動作モードである。第2修正手段903は、例えば、頷き動作であれば、頷く角度が小さくなるように修正を行う。情報処理装置101は、例えば、強調モードと同様に、穏やかモード用の修正テーブルを有し、第2修正手段903は、この穏やかモード用の修正テーブルに従って動作情報を修正しても良い。又は、第2修正手段903、修正テーブルを用いずに、対象となる動作を単に小さく修正するだけであっても良い。生成手段306は、修正された動作情報に基づいて、通信先のユーザのオブジェクトを生成する。
アピールモード1304は、第1修正手段902から取得した動作情報の動作を誇張して表現するように修正して通信先のユーザのオブジェクトを生成するモードである。アピールモードでは、単に通信先のユーザの動作を大きくするのではなく、例えば、急に通信先のユーザの音声レベルが大きくなった場合には、通信先のユーザのオブジェクトの顔が大きくなる、又はオブジェクトが近づいて来る等の修正を行う。また、通信先のユーザの発声や動作が無い状態が継続すると、通信先のユーザのオブジェクトが薄くなる(透明度を変化させる)などの表現を行っても良い。さらに、通信先の音声レベルが大きい状態が継続した場合には、通信先のユーザのオブジェクトの顔の色を赤くする(オブジェクトの色を変化させる)修正を行っても良い。
つまり、アピールモードでは、通信先のユーザの動作情報に係る動作を、その動作とは異なる動作等を使って誇張して表現する。この場合、通信先のユーザのオブジェクトの動作が、実際の人間にとって不可能であったり、困難であったりする動作となることを許容する。
尚、アピールモード1304では、通信元の音声レベルに応じて、通信先のユーザのオブジェクトの動作情報を変化させても良い。例えば、通信元で急に大きな音が発生した場合に、通信先のユーザのオブジェクトの目の形を「><」等に変えて表示する(オブジェクトの形状を変化させる)等の修正を行うものであっても良い。
図14は、第1の実施の形態に係るアピールモード用の動作修正テーブルの一例を示す図である。図14の例では、アピールモード用の動作修正テーブルは、動作/意味1401と、修正動作1402と、修正実施確率1403と、を関連付けている。第2修正手段903は、例えば、検出手段304から取得した第1意味情報等により、図14の動作/意味1401を特定する。第2修正手段903は、特定された動作/意味1401に対応する修正動作1402に応じて、動作情報を修正する。
尚、図14に示すように、1つの動作/意味1401に対応する修正動作1402は、複数設定されていても良い。例えば、通信先のユーザの動作/意味1401が「肯定」であった場合、通信先のユーザが頷く度に、ユーザのオブジェクトが飛び上がるのはやや不自然である。そのため、情報処理装置101は、1つの動作/意味1401に応じて、複数の修正動作1402を用意し、ランダムに修正動作1402を選択してオブジェクトを生成しても良い。さらに、修正動作1402毎に、修正実施確率1403を定めておき、修正実施確率1403に基づいて動作情報を修正し、オブジェクトを生成するものであっても良い。
このようにして、アピールモードでは、通信先のユーザの動作をデフォルメして、非言語的な情報をより判り易い動作で表現する。
次に、主に穏やかモードに関する好適な例について説明する。穏やかモードについても、アピールモードと同様に動作修正テーブルを設けても良いが、通常は、動作情報に係る動作を小さくするだけでも十分である。但し、動作を小さくすることによって、動作の意味情報が変わらないように留意する必要がある。
例えば、図11を再度参照して、先に説明したように、通信先のユーザが顔を8度前傾した場合、第1テーブルでは、「肯定」と判断されるが、第2テーブルでは「肯定」と判断されない。この場合、修正手段305は、動作修正テーブル又は背景設定テーブルに基づいて、通信先のユーザの動作情報を、先の説明では、12度前傾させるように修正を行なった。一方、この12度の前傾を、例えば、単純に30%小さくしてしまうと、9度の前傾となり、再び第2地点で「肯定」と判断できなくなってしまう恐れがある。
このような問題を無くすため、穏やかモードで動作を小さくする際に、意味情報が変わらない範囲内で修正を行うと良い。例えば、上記図11の例では、顔の10度の前傾が、第2テーブルで「肯定」と判断できる下限なので、穏やかモードによる修正は、顔の前傾が10度未満とならない範囲で行う。或いは、穏やかモードでは、単純に、第2テーブルで「肯定」と判断できる下限の値に設定するものであっても良い。
同様に、強調モードにおいても、動作を大きくすることによって、動作の意味が変わらない範囲内で修正を行うように制限を設けても良い。
<まとめ>
以上、本実施の形態によれば、ネットワークを介したコミュニケーションにおいて、異文化等によるコミュニケーションギャップを低減させ、遠隔地とのコミュニケーションを容易化する情報処理装置を提供することができる。
本実施の形態では、通信先の動作情報より、通信先における意味情報と、通信元における意味情報を特定し、特定した2つの意味情報が不一致となった場合に、通信先の動作情報を修正することにより、コミュニケーションギャップを低減することができる。
また、修正された動作情報と動作モードに応じて、通信先のユーザのオブジェクトを生成することにより、遠隔地とのコミュニケーションを容易化することができる。
さらに、動作モードとして、修正した動作情報に係る動作を、その動作とは異なる動作等で誇張して表現するアピールモードを有し、遠隔地とのコミュニケーションをさらに容易化することができる。
さらにまた、穏やかモード、強調モード等、複数の動作モードを選択可能とし、ビジネスシーンや、友人同士等、状況に応じて、好適な動作モードを選択可能となっている。
尚、上記構成は一例であって、本発明の範囲を限定するものではない。例えば、情報処理装置101は、受信側で検出、修正、生成等の各処理を行うものとして説明したが、送信側で同様の処理を行うものであっても良い。また、本発明の機能を有していない一般の機器と通信する場合等、送信、受信の両方で、同様の処理を行うものであっても良い。さらに、設定手段303、検出手段304、修正手段305、生成手段306のうちの少なくとも一部をサーバ装置102等に有していても良い。
図15は、情報処理システムの機能構成の別の一例を示す図である。図15の例では、設定手段、検出手段、修正手段をサーバ装置102が有している。また、情報処理装置101−1及び101−2は、サーバ装置102を介して通信を行うものとする。サーバ装置102は、情報処理装置101−1がある第1地点と、情報処理装置101−2がある第2地点の背景設定テーブルを設定し、情報処理装置101−1と情報処理装置101−2との間の双方向の動作情報の修正を行う。例えばこのように、本実施の形態は、用途や目的に応じて様々なシステム構成が可能である。
[第2の実施の形態]
図16は、第2の実施の形態に係る情報処理装置1600の機能構成の一例を示す図である。本実施の形態に係る情報処理装置1600は、図3に示した第1の実施の形態に係る情報処理装置101の機能構成に、遅延検出手段1601を追加した構成となっている。さらに、検出手段304及び修正手段305の機能が一部追加されている。ここでは、第1の実施の形態に係る情報処理装置101との違いを中心に説明を行う。
遅延検出手段1601は、通信先(第1地点)と通信元(第2地点)との間の通信遅延を検出する手段で、例えば、図2の制御部201で動作するプログラムによって実現される。遅延検出手段1601は、例えば、通信先に向けてpingを実行し、その応答時間を測ることにより、通信遅延を測定することができる。遅延検出手段1601は、測定した通信遅延を修正手段305に出力する。
また、検出手段304には、通信手段302が取得した、通信先のユーザの動作情報に加えて、動作情報生成手段301によって生成された、通信元のユーザの動作情報(第2動作情報)が入力されている。検出手段304は、第1の実施の形態で説明した動作に加えて、図5に示す動作情報テーブルを用いて、通信先のユーザの動作情報に対応する第1動作種別、及び通信元のユーザの動作情報に対応する第2動作種別を特定する。
この時に使用する動作情報テーブルは、第1の実施の形態で説明した背景設定で設定された、通信元(第2地点)の文化的背景に応じたテーブルを使用しても良い。また、別に設定を行うものであっても良い。検出手段304は、特定された第1動作種別及び第2動作種別を修正手段305に出力する。尚、上記第1動作種別及び第2動作種別の特定を検出手段304が行うものとして説明したが、上記検出を行うための第2の検出手段を別に設けても良いことは言うまでもない。
修正手段305には、第1の実施の形態で説明した第1意味情報及び第2意味情報に加えて、上記、第1動作種別及び第2動作種別が入力されている。
ところで、検出手段304及び修正手段305等の処理には、例えば、図6の声量判定テーブルの動作情報の基準603等を参照すると明らかなように、ある程度の時間が必要になる。従って、修正手段305は、例えば、検出手段304からの必要な情報が届くまでの間など、所定の遅延時間をおいてから修正処理を行なっても良い。
尚、この所定の遅延時間と、通信先との通信遅延とにより、通信先とのコミュニケーションに際して、発話の衝突や沈黙が発生する場合がある。そのため、本実施の形態では、修正手段305は、検出手段304から取得した第1動作種別及び第2動作種別に基づいて、第1の実施の形態の動作情報の修正に加えて、上記所定の遅延時間及び通信遅延による遅延を補う修正を行う。
図17は、第2の実施の形態に係る修正処理の流れを示すフローチャートである。図8に示した第1の実施の形態のフローチャートに対して、所定の遅延時間をおく(ステップS1704)が追加されている。さらに、本実施の形態では、上記所定の遅延時間及び通信遅延による遅延を補う遅延修正処理を並行して行う。
図18は、第2の実施の形態に係る遅延修正処理の流れを示すフローチャートである。通信先と通信元との間で通信を開始すると(ステップS1801)、検出手段304は、通信手段302から通信先のユーザの動作情報を取得し、動作情報生成手段301から通信元のユーザの動作情報を取得する(ステップS1802)。検出手段304は、所定の動作情報テーブルを用いて、通信先のユーザの第1動作種別、及び通信元のユーザの第2動作種別を特定する(ステップS1803)。
修正手段305は、検出された第2動作種別に基づいて、通信元のユーザの動作が反応要求動作であるか否かを判断する(ステップS1804)。ここで、反応要求動作とは、ユーザが反応を期待する動作の変化である。
図19は、第2の実施の形態に係る反応要求情報の一例を示す図である。例えば、図19の要求動作ラベルD−1に示すように、発話中のユーザが非発話中に動作が変化した場合、そのユーザは、通信先のユーザの反応を期待していると考えられる。反応要求情報のテーブルは、このような、通信先のユーザの反応を期待する動作と、要求動作ラベルとを関連付けている。
修正手段305は、この反応要求情報のテーブルに基づいて、通信元のユーザの動作が反応要求動作であるか否かを判断する。修正手段305は、通信先のユーザの動作が、この反応要求情報のテーブルに対応する動作の変化をした場合に、反応要求動作であると判断し、要求動作ラベルを取得してステップS1805へ進む。一方、通信元のユーザの動作が反応要求動作ではないと判断した場合、遅延修正を行わずに処理を終了する。
図18に戻って説明を続ける。ステップS1804において、通信元のユーザの動作が反応要求動作であると判断した場合、修正手段305は、所定の遅延時間と、通信遅延との合計の遅延時間が、予め定められた閾値以上であるか否かを判断する(ステップS1805)。ここで、合計の遅延時間が閾値以上のときは、ステップS1806へ進む。一方、合計の遅延時間が閾値未満であれば、修正を行わずに処理を終了する。
ステップS1805において、合計の遅延時間が閾値以上であった場合、修正手段305は、検出された第1動作種別に基づいて、通信先のユーザの動作が修正可能か否かを判断する(ステップS1806)。
図20は、第2の実施の形態に係る修正可否情報の一例を示す図である。修正可否情報のテーブルは、検出手段304で検出された動作種別と、修正の可否とを関連付けている。修正手段305は、この修正可否情報のテーブルに基づいて、通信先のユーザの動作が修正可能か否かを判断し、修正可能な場合には、ステップS1807へ進む。一方、修正可能でない場合には、修正を行わずに処理を終了する。
図18のステップS1807では、通信先のユーザの動作情報に追加の修正を行う。修正手段305は、例えば、図7のステップS1706で修正された動作情報に対して、上記追加の修正を行う。
図21は、第2の実施の形態に係る遅延修正情報の一例を示す図である。遅延修正情報のテーブルは、要求動作ラベルと修正動作を関連付けている。この要求動作ラベルは、図19の反応要求情報のテーブルの要求動作ラベルに対応している。従って、ステップS1804において、通信元のユーザの動作が反応要求動作であると判断した場合、修正手段305は、図19の反応要求情報のテーブルから、ユーザの動作変化に対応する要求動作ラベルを取得する。そして、修正手段305は、ステップS1807において、取得した要求動作ラベルに対応する修正内容を、図21の遅延修正情報のテーブルから判断し、生成手段306に出力する動作情報に追加の修正を行う。
尚、上記遅延時間を補うための補正を修正手段305が行うものとして説明したが、上記追加の修正を行うための第2の修正手段を別に設けても良い。
<まとめ>
以上、本実施の形態によれば、修正手段305が修正の前に所定の遅延をおくことにより、十分な情報を得てから動作を修正することができるので、より適切な動作修正を行うことができる。
また、上記所定の遅延及び通信遅延が発生している間、反応要求動作に対して、通信先のユーザの動作を補う補正を行うことによって、衝突や沈黙等のコミュニケーションへの影響を低減することができる。
<総括>
以上、上記各実施の形態によれば、情報処理装置は、アバター等のユーザのオブジェクトを利用した遠隔会議において、ユーザの動作等の非言語コミュニケーションに関する動作情報を受信後又は送信前に、どのような意味があるのかを判定する。また、その判定された意味が通信相手に伝わり易いように、ユーザのオブジェクトの動作を修正する。
さらに、情報処理装置は、ユーザのオブジェクトの動作を修正する際に、実際の人間の動作では表現できないような、デフォルメ等により、誇張して修正を行うアピールモード有し、遠隔会議におけるコミュニケーションをさらに容易化することができる。
100 情報処理システム
101、1600 情報処理装置
301 動作情報生成手段
302 通信手段
304 検出手段
305 修正手段
306 生成手段
307 記憶手段
特開平11−224152号公報 特開2010−246085号公報

Claims (10)

  1. 第1地点の情報処理装置との間で通信を行う第2地点の情報処理装置であって、
    前記第1地点の情報処理装置のユーザの第1動作情報を取得する手段と、
    前記第1地点における前記第1動作情報の意味を示す第1意味情報、及び前記第2地点における前記第1動作情報の意味を示す第2意味情報を特定する手段と、
    前記第1意味情報と前記第2意味情報との差異に基づいて、前記第1動作情報が前記第2地点において前記第1意味情報を示すように、前記第1動作情報を修正する手段と、
    修正された前記第1動作情報に基づいて、前記第1地点の情報処理装置のユーザのオブジェクトを生成する手段と、
    を有する情報処理装置。
  2. 前記修正された前記第1動作情報に係る動作とは異なる動作で、前記オブジェクトの動作を誇張して表現する動作モードを有する請求項1に記載の情報処理装置。
  3. 前記誇張して表現する動作モードは、前記第1地点の情報処理装置のユーザ又は前記第2地点の情報処理装置のユーザの音声レベルに基づいて、前記オブジェクトの大きさ、色、形状及び透明度のうちの少なくとも一つを変化させる請求項2に記載の情報処理装置。
  4. 前記修正された前記第1動作情報に係る動作を、強調及び/又は抑制して前記オブジェクトを生成する一又は複数の動作モードを有する請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記修正された前記第1動作情報に対応する複数の修正内容を有し、前記複数の修正内容の中からランダムに、又は予め定められた確率で一の修正内容を選択する請求項1乃至4のいずれか一項に記載の情報処理装置。
  6. 前記第1地点の情報処理装置から前記第1地点に係る情報を取得し、取得した情報に基づいて前記第1意味情報を特定する請求項1乃至5のいずれか一項に記載の情報処理装置。
  7. 前記第1動作情報を修正する手段は、所定の遅延時間をおいて前記修正を行う請求項1乃至6のいずれか一項に記載の情報処理装置。
  8. 前記第2地点の情報処理装置のユーザの第2動作情報を取得する手段と、
    前記第1動作情報に基づいて前記第1地点の情報処理装置のユーザの第1動作種別を特定すると共に、前記第2動作情報に基づいて前記第2地点の情報処理装置のユーザの第2動作種別を特定する手段と、
    前記第1地点の情報処理装置と前記第2地点の情報処理装置との間の通信遅延を検出する手段と、
    前記所定の遅延時間及び前記通信遅延による遅延時間と、前記第1動作種別と、前記第2動作種別と、に応じて、前記修正された前記第1動作情報を修正する手段と、
    を有する請求項7に記載の情報処理装置。
  9. 第1地点の情報処理装置と第2地点の情報処理装置との間で通信を行うための情報処理システムであって、
    前記第1地点の情報処理装置のユーザの第1動作情報を取得する手段と、
    前記第1地点における前記第1動作情報の意味を示す第1意味情報、及び前記第2地点における前記第1動作情報の意味を示す第2意味情報を特定する手段と、
    前記第1意味情報と前記第2意味情報との差異に基づいて、前記第1動作情報が前記第2地点において前記第1意味情報を示すように、前記第1動作情報を修正する手段と、
    前記修正された第1動作情報に基づいて、前記第1地点の情報処理装置のユーザのオブジェクトを生成する手段と、
    を有する情報処理システム。
  10. コンピュータに、
    第1地点の情報処理装置と第2地点の情報処理装置との間で通信を開始するステップと、
    前記第1地点の情報処理装置のユーザの第1動作情報を取得するステップと、
    前記第1地点における前記第1動作情報の意味を示す第1意味情報、及び前記第2地点における前記第1動作情報の意味を示す第2意味情報を特定するステップと、
    前記第1意味情報と前記第2意味情報との差異に基づいて、前記第1動作情報が前記第2地点において前記第1意味情報を示すように前記第1動作情報を修正するステップと、
    修正された前記第1動作情報に基づいて、前記第1地点の情報処理装置のユーザのオブジェクトを生成するステップと、
    を実行させるためのプログラム。
JP2013166760A 2013-08-09 2013-08-09 情報処理装置、情報処理システム及びプログラム Active JP6175969B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013166760A JP6175969B2 (ja) 2013-08-09 2013-08-09 情報処理装置、情報処理システム及びプログラム
US14/451,660 US9247206B2 (en) 2013-08-09 2014-08-05 Information processing device, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013166760A JP6175969B2 (ja) 2013-08-09 2013-08-09 情報処理装置、情報処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2015035769A JP2015035769A (ja) 2015-02-19
JP6175969B2 true JP6175969B2 (ja) 2017-08-09

Family

ID=52448281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013166760A Active JP6175969B2 (ja) 2013-08-09 2013-08-09 情報処理装置、情報処理システム及びプログラム

Country Status (2)

Country Link
US (1) US9247206B2 (ja)
JP (1) JP6175969B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016042658A (ja) 2014-08-18 2016-03-31 株式会社リコー 伝送システム、伝送端末、情報処理装置、伝送方法、プログラム
JP6444767B2 (ja) * 2015-02-26 2018-12-26 Kddi株式会社 業務支援装置および業務支援プログラム
JP6672910B2 (ja) 2016-03-11 2020-03-25 株式会社リコー 遠隔コミュニケーションシステム、通信端末、拡張機能提供方法および拡張機能提供プログラム
US11368664B2 (en) 2017-01-20 2022-06-21 Sony Corporation Information processing apparatus, information processing method, and program
JP7077603B2 (ja) * 2017-12-19 2022-05-31 富士通株式会社 判定プログラム、判定方法及び画像生成装置
US11488590B2 (en) * 2018-05-09 2022-11-01 Staton Techiya Llc Methods and systems for processing, storing, and publishing data collected by an in-ear device
US11061641B2 (en) 2019-02-28 2021-07-13 Ricoh Company, Ltd. Screen sharing system, and information processing apparatus
JP7439461B2 (ja) * 2019-11-07 2024-02-28 コニカミノルタ株式会社 コミュニケーション支援プログラム、コミュニケーション支援システム及びコミュニケーション支援方法
WO2022215725A1 (ja) * 2021-04-08 2022-10-13 株式会社ニコン 情報処理装置、プログラム、及び、情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11224152A (ja) 1998-02-05 1999-08-17 Ricoh Co Ltd 遠隔会議支援システム
JP3593067B2 (ja) 2001-07-04 2004-11-24 沖電気工業株式会社 画像コミュニケーション機能付き情報端末装置および画像配信システム
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
JP2009027423A (ja) * 2007-07-19 2009-02-05 Sony Computer Entertainment Inc 通信システム、通信装置、通信プログラム、通信プログラムを記憶したコンピュータ読み取り可能な記憶媒体
US8243116B2 (en) 2007-09-24 2012-08-14 Fuji Xerox Co., Ltd. Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
US9223399B2 (en) * 2008-04-04 2015-12-29 International Business Machines Corporation Translation of gesture responses in a virtual world
JP2010226542A (ja) * 2009-03-25 2010-10-07 Brother Ind Ltd 通信装置、通信システム、通信制御方法、通信制御プログラム
US20100257462A1 (en) * 2009-04-01 2010-10-07 Avaya Inc Interpretation of gestures to provide visual queues
JP5894819B2 (ja) * 2012-02-02 2016-03-30 株式会社コナミデジタルエンタテインメント メッセージ交換システム、制御方法およびプログラム
JP6044306B2 (ja) 2012-12-03 2016-12-14 株式会社リコー 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
JP2015035769A (ja) 2015-02-19
US9247206B2 (en) 2016-01-26
US20150042749A1 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
JP6175969B2 (ja) 情報処理装置、情報処理システム及びプログラム
EP3342160B1 (en) Display apparatus and control methods thereof
US8099462B2 (en) Method of displaying interactive effects in web camera communication
CN114641975B (zh) 用于会议的多通道音频和/或多个数据流的节流和优先级排序
US11503162B2 (en) Information processing apparatus and information processing method
US11049511B1 (en) Systems and methods to determine whether to unmute microphone based on camera input
JP6044306B2 (ja) 情報処理装置、情報処理システム及びプログラム
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
WO2020026850A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20180295158A1 (en) Displaying group expressions for teleconference sessions
US20220319063A1 (en) Method and apparatus for video conferencing
US20210110596A1 (en) Information processing device, information processing method, and program
WO2022260797A1 (en) Adjusting participant gaze in video conferences
KR20220123576A (ko) 3차원(3d) 환경에 대한 통합된 입/출력
US20220291752A1 (en) Distributed Application Platform Projected on a Secondary Display for Entertainment, Gaming and Learning with Intelligent Gesture Interactions and Complex Input Composition for Control
JP6149433B2 (ja) テレビ会議装置、テレビ会議装置の制御方法、及びプログラム
US20170163813A1 (en) Modification of audio signal based on user and location
US11348264B1 (en) Capturing content on writing surfaces using depth and image sensing
EP3048524B1 (en) Document display support device, terminal, document display method, and computer-readable storage medium for computer program
US20230300250A1 (en) Selectively providing audio to some but not all virtual conference participants reprsented in a same virtual space
JP2023099309A (ja) アバターを通じて映像の音声を手話に通訳する方法、コンピュータ装置、およびコンピュータプログラム
JP2011118632A (ja) 発話の予備動作検出及び伝達方法及び装置及びプログラム
JP2015172883A (ja) 端末装置、情報通信方法及び情報通信プログラム
US11848791B2 (en) Detection and presentation of video conference attendee different from logged-in attendees
JP6557981B2 (ja) 表示装置、表示プログラム及び表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6175969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151