JP7318241B2 - 音声情報処理装置及びプログラム - Google Patents

音声情報処理装置及びプログラム Download PDF

Info

Publication number
JP7318241B2
JP7318241B2 JP2019049387A JP2019049387A JP7318241B2 JP 7318241 B2 JP7318241 B2 JP 7318241B2 JP 2019049387 A JP2019049387 A JP 2019049387A JP 2019049387 A JP2019049387 A JP 2019049387A JP 7318241 B2 JP7318241 B2 JP 7318241B2
Authority
JP
Japan
Prior art keywords
output
information
voice
user
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019049387A
Other languages
English (en)
Other versions
JP2020154356A (ja
Inventor
博一 久保田
淳一 長谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019049387A priority Critical patent/JP7318241B2/ja
Priority to US16/804,144 priority patent/US11316987B2/en
Priority to CN202010181545.2A priority patent/CN111708507B/zh
Publication of JP2020154356A publication Critical patent/JP2020154356A/ja
Application granted granted Critical
Publication of JP7318241B2 publication Critical patent/JP7318241B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00209Transmitting or receiving image data, e.g. facsimile data, via a computer, e.g. using e-mail, a computer network, the internet, I-fax
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00912Arrangements for controlling a still picture apparatus or components thereof not otherwise provided for
    • H04N1/00954Scheduling operations or managing resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/42Mailbox-related aspects, e.g. synchronisation of mailboxes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00403Voice input means, e.g. voice commands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Facsimiles In General (AREA)

Description

本発明は、音声情報処理装置及びプログラムに関する。
従来、複数言語により音声案内を行う音声案内装置において、予め制限された再生時間内に収まる範囲で必要なメッセージを全て出力するものが知られている(例えば特許文献1)。この従来技術では、再生時間が比較的長い標準パターンの案内メッセージと、再生時間が標準パターンよりも短い短縮パターンの案内メッセージとを予め準備しておき、日本語だけが選択されたときには標準パターンの案内メッセージを再生し、日本語と英語とが選択されたときには短縮パターンの案内メッセージを再生することにより、予め制限された再生時間で出力を完了できるようにしている。
ところで、近年は、AIスピーカーなどと呼ばれる音声情報処理装置の普及が著しい。このような音声情報処理装置を使用すれば、ユーザーが音声で各種装置を操作したり、或いは、ユーザーが音声で質問をすることにより音声出力で回答を得たりすることができる。つまり、音声情報処理装置は、ユーザーがキーボードなどを手動操作する必要がないため、ユーザーの手が汚れているときや、手に荷物を持っているときでも、音声による対話形式でユーザーの質問に応じた回答を出力することができる。
特開2018-18439号公報
しかしながら、ユーザーが音声による質問を行った場合、音声情報処理装置から出力される回答の出力時間が想定外に長くなり、ユーザーが音声による回答を最後まで聞くことができないケースが起こり得る。例えば、オフィスから外出する直前にユーザーが目的地までのルートやそのルートの混雑状況を質問した場合、音声情報処理装置は、ユーザーによって指定された目的地までのルートやそのルートの混雑状況を音声出力で回答する。目的地までのルートが複雑である場合や長い場合、音声情報処理装置から出力される回答の出力時間が長くなり、ユーザーが外出しなければならない時間までに音声出力が完了しないことがある。この場合、ユーザーは音声情報処理装置から出力される回答を最後まで聞くことができず、十分な情報を得ることができないという問題がある。
また、ユーザーが退社時間間際に音声情報処理装置に対して音声による質問を行った場合、音声情報処理装置が長時間に亘って回答を音声出力すると、退社時間を超過してしまうという問題もある。
特に、この種の音声情報処理装置は、インターネット上のクラウドなどに設置されるサーバーのAIなどを利用してユーザーの質問に応じた様々な回答を取得する。そのため、上述した特許文献1の従来技術のように予めパターン化した回答を用意しておくことができず、音声よるに回答の出力時間を一定の範囲に制限することができない。
本発明は、上記課題を解決するためになされたものであり、ユーザーの質問を受け付け、その質問に対する回答としてユーザーに十分な情報を提供でき、しかもユーザーが利用しやすい態様で情報提供できるようにした音声情報処理装置及びプログラムを提供することを目的とする。
上記目的を達成するため、請求項1に係る発明は、音声情報処理装置であって、ユーザーの質問を受け付ける受付手段と、前記受付手段で受け付けられた質問に対する回答情報を取得する回答取得手段と、前記回答情報を、音声出力を含む複数の出力態様で出力可能な出力手段と、ユーザーの状況に関する状況情報を取得する状況取得手段と、前記回答情報と前記状況情報とに基づき、前記複数の出力態様のうちから前記回答情報の出力態様を決定し、前記出力手段による出力態様を制御する出力制御手段と、を備え、前記状況情報には、ユーザーの予定に関する予定情報が含まれており、前記出力制御手段は、前記回答情報を音声出力する際の出力所要時間を算出すると共に、前記予定情報に基づいてユーザーの聴取可能時間を算出し、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項に係る発明は、請求項の音声情報処理装置において、前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として印刷出力を決定することを特徴とする構成である。
請求項に係る発明は、請求項又はの音声情報処理装置において、前記出力手段は、音声出力とは異なる出力態様として、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として前記情報処理端末に対する送信を決定することを特徴とする構成である。
請求項に係る発明は、請求項の音声情報処理装置において、前記出力手段は、ユーザーのアドレスに対して電子メールを送信することにより、前記回答情報を前記情報処理端末へ送信することを特徴とする構成である。
請求項に係る発明は、請求項乃至のいずれかの音声情報処理装置において、前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であると共に、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長いと判定した場合、前記予定情報に含まれるユーザーの外出時間に基づいて、印刷出力と、前記情報処理端末への送信との少なくとも一方を前記回答情報の出力態様として決定することを特徴とする構成である。
請求項に係る発明は、請求項乃至のいずれかの音声情報処理装置において、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合、音声出力とは異なる出力態様をユーザーに提示してユーザーによる操作を受け付け、ユーザーによる操作に基づいて音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項に係る発明は、請求項乃至のいずれかの音声情報処理装置において、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも短い場合、前記回答情報の出力態様として音声出力を決定することを特徴とする構成である。
請求項に係る発明は、請求項1乃至のいずれかの音声情報処理装置において、前記出力制御手段は、前記回答情報に機密情報が含まれるか否かを判定し、前記回答情報に機密情報が含まれるときには前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項9に係る発明は、請求項1乃至8のいずれかの音声情報処理装置において、ユーザーの音声に基づく声紋認証を行ってユーザーを特定する認証手段、を更に備え、前記状況取得手段は、前記認証手段によって特定されるユーザーに対応付けられている前記状況情報を取得することを特徴とする構成である
請求項10に係る発明は、音声出力を含む複数の出力態様で情報を出力可能な出力手段を備えるコンピュータにおいて実行されるプログラムであって、前記コンピュータを、ユーザーの質問を受け付ける受付手段、前記受付手段で受け付けられた質問に対する回答情報を取得する回答取得手段、ユーザーの状況に関する状況情報を取得する状況取得手段、及び、前記回答情報と前記状況情報とに基づき、前記複数の出力態様のうちから前記回答情報の出力態様を決定し、前記出力手段による出力態様を制御する出力制御手段、として機能させ、前記状況情報には、ユーザーの予定に関する予定情報が含まれており、前記出力制御手段は、前記回答情報を音声出力する際の出力所要時間を算出すると共に、前記予定情報に基づいてユーザーの聴取可能時間を算出し、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項11に係る発明は、請求項10のプログラムにおいて、前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として印刷出力を決定することを特徴とする構成である。
請求項12に係る発明は、請求項10又は11のプログラムにおいて、前記出力手段は、音声出力とは異なる出力態様として、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として前記情報処理端末に対する送信を決定することを特徴とする構成である。
請求項13に係る発明は、請求項12のプログラムにおいて、前記出力手段は、ユーザーのアドレスに対して電子メールを送信することにより、前記回答情報を前記情報処理端末へ送信することを特徴とする構成である。
請求項14に係る発明は、請求項10乃至13のいずれかのプログラムにおいて、前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であると共に、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長いと判定した場合、前記予定情報に含まれるユーザーの外出時間に基づいて、印刷出力と、前記情報処理端末への送信との少なくとも一方を前記回答情報の出力態様として決定することを特徴とする構成である。
請求項15に係る発明は,請求項10乃至14のいずれかのプログラムにおいて、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合、音声出力とは異なる出力態様をユーザーに提示してユーザーによる操作を受け付け、ユーザーによる操作に基づいて音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項16に係る発明は、請求項10乃至15のいずれかのプログラムにおいて、前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも短い場合、前記回答情報の出力態様として音声出力を決定することを特徴とする構成である。
請求項17に係る発明は、請求項10乃至16のいずれかのプログラムにおいて、前記出力制御手段は、前記回答情報に機密情報が含まれるか否かを判定し、前記回答情報に機密情報が含まれるときには前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする構成である。
請求項18に係る発明は、請求項10乃至17のいずれかのプログラムにおいて、前記コンピュータを、ユーザーの音声に基づく声紋認証を行ってユーザーを特定する認証手段、として更に機能させ、前記状況取得手段は、前記認証手段によって特定されるユーザーに対応付けられている前記状況情報を取得することを特徴とする構成である
本発明によれば、ユーザーの質問を受け付け、その質問に対する回答としてユーザーに十分な情報を提供でき、しかもユーザーが利用しやすい態様で回答を提供することができるようになる。例えば、ユーザーが外出する直前に質問を行った場合であっても、ユーザーが外出するまでに回答を提供することができると共に、ユーザーが外出先でも利用できる態様で回答を提供することができる。
情報処理システムの全体的な構成例を示す図である。 音声情報処理装置がユーザーの音声による質問を受け付けてから回答を出力するまでの情報処理システムにおける動作例を示す図である。 音声情報処理装置のハードウェア構成を示す図である。 音声情報処理装置の機能構成を示すブロック図である。 予定情報の一例を示す図である。 判定情報の一例を示す図である。 判定情報の一例を示す図である。 音声情報処理装置による処理手順の一例を示すフローチャートである。 出力態様決定処理の詳細な処理手順の一例を示すフローチャートである。 第1状況判定処理の詳細な処理手順の一例を示すフローチャートである。 第2状況判定処理の詳細な処理手順の一例を示すフローチャートである。 第3状況判定処理の詳細な処理手順の一例を示すフローチャートである。
以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する要素には同一符号を付しており、それらについての重複する説明は省略する。
図1は、本発明の一実施形態である情報処理システム1の全体的な構成例を示す図である。この情報処理システム1は、MFPなどで構成される画像処理装置2と、パーソナルコンピュータ(PC)4、タブレット端末やスマートフォンなどで構成される携帯端末5と、質問に対する回答情報を生成する回答検索サーバー7と、ユーザーの状況や予定などを管理する管理サーバー8とを備え、これらがLAN(Local Area Network)などのネットワーク9を介して相互に通信可能な構成である。PC4及び携帯端末5はいずれもユーザーが持ち運ぶことができる情報処理端末6であり、予め充電しておくことにより移動中であっても使用することができる端末である。図1では、回答検索サーバー7及び管理サーバー8がユーザーのローカル環境に設置される場合を例示しているが、これに限られるものではなく、例えばインターネット上のクラウドに設置されるものであっても構わない。
画像処理装置2は、スキャン機能、プリント機能、コピー機能などの画像処理に関する複数の機能を備えており、各機能を動作させることによってジョブを実行する。例えば、画像処理装置2は、プリント機能を動作させることにより、印刷ジョブを実行し、用紙などのシートにテキストや画像を印刷して出力することができる。また画像処理装置2は、電子メール送信機能やユーザーが所持する携帯端末5と無線通信を行う機能を有している。
さらに画像処理装置2は、音声情報処理機能を備えており、ユーザーの音声による質問を受け付け、その質問に対応する回答情報を取得し、回答情報に基づく音声を出力することができる。すなわち、本実施形態の画像処理装置2は、音声情報処理装置3として機能する。以下においては、画像処理装置2を、音声情報処理装置3として説明する。
回答検索サーバー7は、音声情報処理装置3からの要求に基づき質問に対応する回答を検索し、その検索結果に基づく回答情報を生成して音声情報処理装置3へ出力するサーバーである。回答検索サーバー7は、AIなどを利用してユーザーの質問に応じた様々な回答を取得する。例えば、回答検索サーバー7は、社内又は社外の様々なデータベースにアクセスし、ユーザーの質問に対する適切な回答を少なくとも1つ抽出し、その抽出した回答に基づいて回答情報を生成する。
管理サーバー8は、オフィス内の各ユーザーの在室状況や予定情報などを管理するサーバーである。管理サーバー8は、音声情報処理装置3からユーザーの状況に関する問い合わせを受け付けると、そのユーザーの状況を示す状況情報を生成し、音声情報処理装置3へ出力する。
図2は、音声情報処理装置3がユーザーの音声による質問を受け付けて回答を出力する際の情報処理システム1における動作例を示す図である。図2に示すように、音声情報処理装置3に対して音声による質問を行うとき、ユーザーは、音声情報処理装置3に対してログイン操作を行う(プロセスP1)。ユーザーによるログイン操作は、例えば予め定められたログイン用キーワードを音声で発することにより行われる。音声情報処理装置3は、ログイン用キーワードの音声入力を検知すると、声紋認証を行うことによってユーザーを特定する処理を行う。ユーザーを特定することができると、音声情報処理装置3は、動作状態をログイン状態へ移行させるログイン処理を行う(プロセスP2)。すなわち、音声情報処理装置3は、ログイン用キーワードを発声したユーザーをログインユーザーとして特定し、ログインユーザーの音声入力を受け付けるログイン状態へ移行させるのである。音声情報処理装置3がログイン状態へ移行することにより、ユーザーは、音声情報処理装置3に対して音声による質問を行うことができるようになる。
尚、ユーザーによるログイン操作は、音声による操作に限られない。例えばユーザーは、ユーザーIDやパスワードなどを手動操作で入力することによってログイン操作を行うようにしても良い。また音声情報処理装置3にカード情報読み取り機能が設けられている場合には、ユーザーが所持するカードに記録されている情報を音声情報処理装置3に読み取らせる操作を行うようにしても良い。さらに音声情報処理装置3に指紋や静脈などの生体情報を読み取る機能が設けられている場合には、ユーザーが自身の生体情報を音声情報処理装置3に読み取らせる操作を行うようにしても良い。
音声情報処理装置3がログイン状態へ移行すると、ユーザーは、音声情報処理装置3に向かって質問したい内容を音声で発することにより、音声情報処理装置3に質問を行うことができる(プロセスP3)。音声情報処理装置3は、ログイン状態へ移行すると、ログインユーザーの音声による質問を待機する状態となる。そしてログインユーザーの音声による質問を受け付けると、音声情報処理装置3は、その質問に対応する質問情報D1を生成し、質問情報D1を回答検索サーバー7へ送信する(プロセスP)。例えば、音声情報処理装置3は、ユーザーが発した音声情報をそのまま含む質問情報D1を生成するようにしても良いし、またユーザーが入力した質問内容をテキストデータに変換してテキストデータを含む質問情報D1を生成するようにしても良い。また、質問情報D1には、音声情報処理装置3の設置場所を示す位置情報が含まれる。
また音声情報処理装置3は、ログインユーザーの音声による質問を受け付けると、ログインユーザーの現在の状況を確認するため、管理サーバー8に対して状況問い合わせD2を送信する(プロセスP5)。
回答検索サーバー7は、音声情報処理装置3から質問情報D1を受信すると、質問情報D1に基づいて回答検索処理を行うことにより、ユーザーの質問に対応する適切な回答を取得する。例えば、ログインユーザーが「外の天気は?」という質問をした場合、回答検索サーバー7は、質問情報D1に含まれる位置情報に基づいて場所を特定し、その特定した場所の現在の天気を検索することにより、質問に対応する適切な回答を取得する。回答検索サーバー7は、質問に対応する適切な回答を取得すると、その回答に基づいて回答情報D3を生成する(プロセスP6)。この回答情報D3には、少なくともテキストデータが含まれる。また、回答情報D3には、テキストデータ以外のデータが含まれていても良い。テキストデータ以外のデータには、図や写真などの画像データが含まれる。例えば、ログインユーザーが外出する前に「目的地までのルートは?」という質問をした場合、回答検索サーバー7は、目的地までのルートを記述したテキストデータと、目的地までのルートを地図上に示した画像データとの双方を含む回答情報D3を生成しても良い。そして回答検索サーバー7は、回答情報D3を音声情報処理装置3へ送信する(プロセスP7)。
管理サーバー8は、音声情報処理装置3から状況問い合わせD2を受信すると、ログインユーザーの予定情報を抽出し、ログインユーザーの状況を示す状況情報D4を生成する(プロセスP8)。そして管理サーバー8は、状況情報D4を音声情報処理装置3へ送信する(プロセスP9)。状況情報D4には、少なくともログインユーザーに関する予定情報D5が含まれる。
音声情報処理装置3は、回答情報D3及び状況情報D4を取得すると、回答情報D3の出力態様を決定する処理を行う(プロセスP10)。本実施形態の音声情報処理装置3は、主として、音声出力、印刷出力、及び、電子メール送信の3つの出力態様で回答情報D3を出力することが可能である。尚、電子メール送信に代えて、携帯端末5との無線通信による直接送信で回答情報D3を出力するようにしても良い。音声情報処理装置3は、回答情報D3と状況情報D4とに基づき、それら複数の出力態様のうちから、少なくとも1つの出力態様を決定する。そして音声情報処理装置3は、その決定した出力態様で回答情報D3を出力することにより、ログインユーザーに対して質問に対する回答を提供する(プロセスP11)。
次に音声情報処理装置3の構成について説明する。図3は、音声情報処理装置3のハードウェア構成を示す図である。音声情報処理装置3は、制御部10と、記憶装置11と、操作パネル12と、音声入力部13と、スキャナ部14と、音声出力部15と、プリンタ部16と、ネットワークインタフェース17と、通信インタフェース18とを備え、これらがバス20を介して相互にデータの入出力を行うことができる構成である。
制御部10は、CPU10aとメモリ10bとを備え、各部の動作を制御するものである。CPU10aは、記憶装置11に記憶されているプログラム21を読み出して実行することにより、制御部10を後述する各種の処理部として機能させる。メモリ10bは、CPU10aがプログラム21を実行することによって発生又は取得する一時的なデータなどを記憶するためのものである。
記憶装置11は、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などによって構成される不揮発性の記憶手段である。記憶装置11には、CPU10aによって実行されるプログラム21が予めインストールされている。また、記憶装置11には、ユーザー情報22及び判定情報23が予め記憶されている。ユーザー情報22は、音声情報処理装置3を使用可能なユーザーに関する情報が予め登録された情報である。例えばユーザー情報22には、各ユーザーのユーザーIDやパスワード、声紋情報、所属グループ、電子メールアドレスなどの情報が登録されている。判定情報23は、回答情報D3の出力態様を決定する際に参照される情報である。この判定情報23の詳細については後述する。
また記憶装置11には、図示を省略しているが、音声操作用のキーワードも予め記憶される。音声操作用のキーワードは、ユーザーが音声操作でジョブの設定や実行指示を行うことができるようにするためのキーワードを登録した情報である。
操作パネル12は、ユーザーが音声情報処理装置3を使用する際のユーザーインタフェースとなるものである。操作パネル12は、ユーザーに対して各種情報を表示する表示部12aと、ユーザーによる手動操作を受け付ける操作部12bとを有している。例えば、表示部12aは、カラー液晶ディスプレイによって構成される。また、操作部12bは、表示部12aの画面上に配置されるタッチパネルキーなどによって構成される。
音声入力部13は、マイクを備えており、ユーザーの音声を入力するためのものである。音声入力部13は、ユーザーの音声を入力すると、その音声に対応する音声情報を制御部10へ出力する。
スキャナ部14は、原稿を光学的に読み取って画像データを生成するものである。
音声出力部15は、スピーカーを備えており、ユーザーに対して音声出力を行うものである。例えば、回答情報D3の出力態様として音声出力を行うことを決定した場合、制御部10は、音声出力部15を駆動することにより、回答情報D3に応じた音声を出力する。
プリンタ部16は、シートにテキストや画像などを印刷して出力するものである。例えば、回答情報D3の出力態様として印刷出力を行うことを決定した場合、制御部10は、プリンタ部16を駆動することにより、回答情報D3に含まれるテキストや画像をシートに印刷して出力する。
ネットワークインタフェース17は、音声情報処理装置3をネットワーク9に接続するためのものである。制御部10は、このネットワークインタフェース17を介して回答検索サーバー7や管理サーバー8、PC4などと通信を行う。回答情報D3の出力態様として電子メール送信を行うことを決定した場合、制御部10は、ログインユーザーのアドレスを送信先に指定した電子メールを生成し、ネットワークインタフェース17を介して電子メールを送信する。
通信インタフェース18は、例えばユーザーが所持する携帯端末5と一対一で無線通信を行うものである。例えば、通信インタフェース18は、半径数メートル程度の通信可能範囲内にある携帯端末5を検知すると、その携帯端末5との無線による接続状態を確立し、制御部10から出力される情報を携帯端末5に対して直接送信することができる。例えば、回答情報D3の出力態様として携帯端末5に対する直接送信を行うことを決定した場合、制御部10は、通信インタフェース18を介して、回答情報D3に含まれるテキストや画像を携帯端末5に対して直接送信する。
このように本実施形態の音声情報処理装置3は、回答情報D3を出力する出力手段として、音声出力部15、プリンタ部16、ネットワークインタフェース17及び通信インタフェース18の4つの出力手段19を有している。
図4は、音声情報処理装置3の機能構成を示すブロック図である。制御部10のCPU10aは、プログラム21を実行することにより、制御部10を、図4に示す各種の処理部として機能させる。すなわち、制御部10は、ユーザー認証部30、質問受付部31、回答取得部32、状況取得部33、出力制御部34、及び、回答出力部35として機能する。また、回答出力部35は、テキストを音声に変換して音声出力部15へ出力する音声変換部36と、テキストや画像がシートに印刷されるようにプリンタ部16を駆動する印刷制御部37と、電子メールを作成してネットワークインタフェース17へ出力する電子メール処理部38と、通信インタフェース18を介して携帯端末5と通信を行う通信制御部39とを有している。
ユーザー認証部30は、音声情報処理装置3を使用するユーザーを認証する処理部である。ユーザー認証部30は、音声入力部13を介してユーザーの音声を入力すると、入力音声の声紋の特徴とユーザー情報22の声紋情報とを照合することにより、声紋認証を行う。入力音声の声紋の特徴とユーザー情報22の声紋情報とが一致すれば、ユーザーを特定することができるため、認証成功となる。声紋認証の結果、認証成功となれば、ユーザー認証部30は、音声情報処理装置3の動作状態をログアウト状態からログイン状態へ移行させる。これにより、ユーザーは、音声情報処理装置3に対して音声で質問をすることができるようになる。尚、ユーザー認証部30による認証形態は、声紋認証に限らず、パスワード認証、カード認証、生体認証などの他の認証形態であっても構わない。
質問受付部31は、ログイン状態においてユーザーの音声による質問を受け付ける処理部である。音声入力部13に対して音声が入力されると、質問受付部31は、その入力音声が質問であるか否かを判定する。音声情報処理装置3がログイン状態へ移行すると、ユーザーは、画像処理装置2のスキャン機能やプリント機能などを利用してジョブを実行させることが可能であり、ジョブの設定や実行指示を音声操作で行うことができる。そのため、質問受付部31は、入力音声が音声操作用のキーワードに一致するか否かを判断し、音声操作用のキーワードに一致すれば、入力音声が質問ではないと判定する。この場合、入力音声は、画像処理装置2の機能として搭載されているジョブ制御部(図示省略)において音声操作として解釈され、入力音声に応じた処理が行われる。これに対し、入力音声が音声操作用のキーワードに一致しなかった場合、質問受付部31は、入力音声が質問であると判定する。
質問受付部31は、入力音声を質問として受け付けると、入力音声に基づく質問情報D1を生成する。このとき、質問受付部31は、上述したように、入力音声の音声情報をそのまま含む質問情報D1を生成しても良いし、また入力音声をテキストデータに変換してテキストデータを含む質問情報D1を生成しても良い。質問受付部31は、質問情報D1を生成すると、その質問情報D1を回答取得部32へ出力すると共に、状況取得部33に対してログインユーザーの状況を示す状況情報D4の取得を要求する。
回答取得部32は、質問受付部31から質問情報D1を取得すると、その質問情報D1を回答検索サーバー7へ送信することにより、回答検索サーバー7に対して質問に対する回答を要求する。そして回答取得部32は、回答検索サーバー7から回答情報D3を取得する。この回答情報D3には、少なくともテキストデータが含まれている。また、回答情報D3には、テキストデータに加えて、画像データが含まれていることもある。回答取得部32は、回答情報D3を取得すると、その回答情報D3を出力制御部34へ出力する。
状況取得部33は、質問受付部31においてログインユーザーの質問が受け付けられることに伴い、ログインユーザーを指定した状況問い合わせD2を管理サーバー8へ送信する。そして状況取得部33は、管理サーバー8からログインユーザーの状況を示す状況情報D4を取得する。この状況情報D4には、上述したようにログインユーザーに関する予定情報D5が含まれる。
図5は、予定情報D5の一例を示す図である。図5に示すように、予定情報D5は、ログインユーザー(ユーザーA)の一日の行動予定を記録した情報である。図5に示す予定情報D5では、10時から11時まで会議室Aで会議の予定があり、12時から16時まで外出の予定があり、更に17時から18時まで会議室Bで会議の予定ある例を示している。また予定情報D5においてログインユーザーの外出予定が記録されている場合、その外出予定には、目的地、目的地へ行くための移動時間及び移動手段、目的地での滞在時間、目的地から戻るための移動時間及び移動手段などの情報が含まれる。このような予定情報D5を参照すれば、回答情報D3を音声出力した場合にユーザーが回答情報D3を聞くことができる聴取可能時間を算出することができる。例えば、ユーザーが11時59分に質問を行った場合、その質問に対する回答を聞くことができる聴取可能時間は1分となる。
状況取得部33は、上記のような予定情報D5を含む状況情報D4を取得すると、その状況情報D4を出力制御部34へ出力する。
出力制御部34は、回答情報D3の出力態様を決定し、回答出力部35を制御する処理部である。出力制御部34は、回答情報D3と状況情報D4とに基づき、複数の出力態様のうちから回答情報D3の出力態様を決定する。出力制御部34は、記憶装置11から判定情報23を読み出し、判定情報23に定められたルールに従って回答情報D3の出力態様を決定する。
図6A及び図6Bは、判定情報23の一例を示す図である。図6Aは、回答情報D3の種類がテキストデータである場合を示しており、図6Bは、回答情報D3の種類が画像データである場合を示している。判定情報23は、回答情報D3の種類、機密情報の有無、回答情報D3を音声出力した場合に出力が完了するまでに要する出力所要時間、及び、予定情報D5の内容、に基づいて出力態様を決定することができるテーブル情報となっている。
回答情報D3含まれるテキストデータは、音声情報に変換することにより、音声出力を行うことが可能なデータである。これに対し、回答情報D3に含まれる図や写真、地図などの画像データは、音声出力を行うことができないデータである。そのため、判定情報23では、テキストデータと画像データとを区別して出力態様が対応付けられている。すなわち、テキストデータの出力態様には音声出力が含まれるのに対し、画像データの出力態様には音声出力が含まれない。
また回答検索サーバー7は、社内のデータベースにアクセスして質問に応じた回答を取得することが可能である。そのため、回答情報D3には、機密情報が含まれることがある。このような機密情報には、ユーザーごとにアクセス権限が設定されていることがあり、ログインユーザー以外のユーザーがアクセスできない情報が含まれることもある。したがって、回答情報D3に機密情報が含まれる場合、回答情報D3に基づく音声出力を行うと、ログインユーザー以外の周囲のユーザーに機密情報が漏れてしまう可能性がある。また、回答情報D3に基づく印刷出力を行う場合も同様であり、ログインユーザー以外のユーザーに印刷物が回収されてしまうと、機密情報が漏れてしまう可能性がある。そのため、判定情報23では、回答情報D3に機密情報が含まれる場合、回答情報D3の出力態様として、電子メール送信を決定することが定められている。この点は、テキストデータ及び画像データのいずれであっても同様である。尚、電子メール送信の代わりに、携帯端末5に対する直接送信で回答情報D3を出力する態様を決定するようにしても良く、この点は、他の条件成立により回答情報D3の出力態様として電子メール送信が決定される場合も同様である。
また、回答情報D3に含まれるテキストデータに基づいて音声出力を行う場合に音声出力を開始してから終了するまでの時間(出力所要時間Tx)が長くなると、ユーザーにとっては音声出力される内容を覚えきれず、回答情報D3に含まれる情報を有効活用できなくなることもある。そのため、図6Aに示す判定情報23では、音声出力を行う場合の出力所要時間Txが予め設定されている時間T1(以下、「設定時間T1」という。)以上であれば、音声出力を禁止し、回答情報D3の出力態様として、音声出力とは異なる出力態様を決定することが定められている。この場合の設定時間T1は、例えば5分程度の時間に予め設定される。ただし、この設定時間T1は、ユーザー又は音声情報処理装置3の管理者が適宜設定変更することが可能である。
出力所要時間Txが設定時間T1以上である場合、判定情報23では、ログインユーザーの予定情報D5に基づいて、音声出力を除く複数の出力態様のうちから回答情報D3の出力態様を決定することが定められている。例えば、ログインユーザーのその後の予定に外出や会議の予定がない場合、回答情報D3の出力態様として、電子メール送信を決定することが定められている。また、ログインユーザーのその後の予定に外出や会議の予定がある場合は、電子メール送信、及び、印刷出力のうちのいずれか1つの出力態様を決定することが定められている。
ログインユーザーのアドレスに対して回答情報D3が電子メールとして送信されることにより、ユーザーは、外出先又は会議へ出発した後であっても、自身の情報処理端末6を利用して電子メールを受信することにより、回答情報D3に含まれる情報を有効活用することができる。また、電子メール送信の代わりに、携帯端末5に対して回答情報D3が直接送信される場合も同様である。
ただし、情報処理端末6に予め充電しておいた電力が尽きてしまうと、情報処理端末6が起動しなくなるため、ユーザーは外出中や会議中に回答情報D3に含まれる情報を利用することができなくなる。特にユーザーの外出時間(会議時間を含む)が長くなると、情報処理端末6に予め充電しておいた電力が尽きてしまう可能性が高くなる。そこで、図6Aに示す判定情報23では、ログインユーザーの外出時間(会議時間を含む)及びログインユーザーのいる環境が充電可能環境であるか否かに応じて印刷出力を行うか否かが定められている。すなわち、判定情報23では、外出時間(会議時間)が所定時間T2以上であり、且つ、ユーザーが情報処理端末6を充電することができる環境にいないときに、回答情報D3の出力態様として印刷出力を行うことが定められている。回答情報D3を印刷出力しておけば、情報処理端末6が起動しなくなっても、印刷物に印刷された回答情報D3を参照することにより、回答情報D3に含まれる情報を利用することができるからである。これに対し、外出時間(会議時間)が所定時間T2未満である場合、或いは、外出時間(会議時間)が所定時間T2以上であってもユーザーが情報処理端末6を充電することができる環境にいる場合には、情報処理端末6の電力が尽きてしまう可能性が低いため、回答情報D3の出力態様として電子メール送信が決定される。尚、この場合の所定時間T2は、適宜設定可能であり、例えば5時間程度に予め設定される。
一方、音声出力の出力所要時間Txが設定時間T1未満である場合、ユーザーは音声出力される内容を覚えておくことができる。そのため、回答情報D3の出力態様を決定する際の候補として音声出力が含まれる。しかしながら、質問をしたログインユーザーのその後の予定に外出や会議などの予定がある場合、ログインユーザーが外出先や会議へ出発するまでの残り時間が短いと、音声出力される内容を最後まで聞くことができなくなることが起こり得る。そのため、図6Aに示す判定情報23では、出力所要時間Txが設定時間T1未満である場合にもログインユーザーの予定情報D5に基づいて出力態様を決定することが定められている。例えば、ログインユーザーに外出や会議の予定がない場合、回答情報D3の出力態様として音声出力を決定することが定められている。これに対し、ログインユーザーに外出や会議の予定がある場合、ログインユーザーが出発するまでに音声出力される回答情報D3の内容を最後まで聴取することができるか否かに応じて音声出力を行うか否かが決定される。
図6Aの例では、ログインユーザーが回答情報D3の内容を最後まで聴取することが可能である場合、回答情報D3の出力態様として、音声出力を決定することが定められている。ただし、この場合は、回答情報D3の音声出力に加えて、電子メール送信を付加的に行うようにしても良い。
また、ログインユーザーが出発するまでに回答情報D3の内容を最後まで聴取することができない場合、判定情報23では、回答情報D3の出力態様として、音声出力以外の出力態様を決定することが定められている。すなわち、この場合は回答情報D3の出力態様として、電子メール送信、及び、印刷出力のうちのいずれか1つの出力態様が決定される。例えば、回答情報D3に基づく印刷出力を行うか否かは、上述した出力所要時間Txが設定時間T1以上である場合と同様に、ログインユーザーの外出時間(会議時間を含む)及びログインユーザーのいる環境が充電可能環境であるか否かに応じて決定される。
また、回答情報D3に画像データが含まれる場合、その画像データの出力態様は、図6Bに示す判定情報23に基づいて決定される。画像データに機密情報が含まれていない場合、図6Bに示す判定情報23では、ログインユーザーの予定情報D5に基づいて、メール送信、及び、印刷出力のうちからいずれか1つの出力態様が決定される。例えば、ログインユーザーのその後の予定に外出や会議の予定がない場合、回答情報D3の出力態様として、電子メール送信を決定することが定められている。また、ログインユーザーのその後の予定に外出や会議の予定がある場合は、電子メール送信、及び、印刷出力のうちのいずれか1つの出力態様を決定することが定められている。例えば、回答情報D3に基づく印刷出力を行うか否かは、テキストデータの場合と同様に、ログインユーザーの外出時間(会議時間を含む)及びログインユーザーのいる環境が充電可能環境であるか否かに応じて決定される。
図4に戻り、出力制御部34は、上述した判定情報23に基づいて回答情報D3の出力態様を決定する。出力制御部34は、回答情報D3からテキストデータを抽出し、そのテキストデータに基づく音声出力を行う場合の出力所要時間Txを算出する。例えば、出力制御部34は、テキストデータに含まれるテキスト(文字列)の長さと、音声の再生速度とに基づいて出力所要時間Txを算出する。その出力所要時間Txが設定時間T1未満であれば、回答情報D3に基づく音声出力が、決定される出力態様の候補として残る。また出力制御部34は、ログインユーザーの予定情報D5を参照し、ログインユーザーのその後の予定に外出や会議などの予定がある場合にはログインユーザーが出発するまでの残り時間に基づいてログインユーザーの聴取可能時間Thを算出する。そして出力制御部34は、出力所要時間Txと聴取可能時間Thとに基づき、ログインユーザーが回答情報D3に基づく音声出力を最後まで聴取可能であるか否かを判断する。その結果、ログインユーザーが回答情報D3に基づく音声出力を最後まで聴取可能であれば、回答情報D3の出力態様として回答情報D3に基づく音声出力を行うことを決定する。このとき、出力制御部34は、音声出力以外の出力態様を付加的に行うことを決定するようにしても良い。
これに対し、ユーザーが回答情報D3に基づく音声出力を最後まで聴取することができない場合、出力制御部34は、回答情報D3の出力態様として音声出力以外の出力態様を決定する。このとき、出力制御部34は、ログインユーザーの予定情報D5に基づき、ユーザーの外出時間(会議時間を含む)や外出先が充電可能環境であるか否かを判断し、その判断結果に応じて出力態様を決定する。充電可能環境であるか否かは、ユーザーが利用する移動手段や目的地に基づいて判断することができる。例えば、日本の新幹線などのように、ユーザーが利用する移動手段に電源プラグの差込口が設けられている場合には充電可能環境として判断する。また、ユーザーが訪問する目的地に電源プラグの差込口が設けられている場合にも充電可能環境として判断する。これに対し、移動手段や目的地に電源プラグの差込口が設けられていない場合、或いは、電源プラグの差込口が設けられているか否かが不明である場合、充電不可能な環境として判断する。
また出力制御部34は、テキストデータに機密情報が含まれるか否かを判断する。例えば出力制御部34は、テキストデータに機密情報であることを示す所定の文字列が含まれるか否かを判断し、所定の文字列が含まれていればテキストデータに機密情報が含まれると判断する。テキストデータに機密情報が含まれる場合、出力制御部34は、そのテキストデータの出力態様として、電子メール送信又は携帯端末5への直接送信を決定する。尚、テキストデータに機密情報が含まれるか否かの判断手法は、上述した手法に限られるものではない。
また、回答情報D3に画像データが含まれる場合、出力制御部34は、その画像データの出力態様を、図6Bの判定情報23に基づいて決定する。このときも、出力制御部34は、画像データに機密情報が含まれるか否かを判断する。例えば、出力制御部34は、画像データに機密情報であることを示すウォーターマークやスタンプ画像などが含まれるか否かを判断し、ウォーターマークやスタンプ画像などが含まれていれば画像データに機密情報が含まれると判断する。画像データに機密情報が含まれる場合、出力制御部34は、その画像データの出力態様として、電子メール送信を決定する。また、画像データに機密情報が含まれない場合、出力制御部34は、ログインユーザーの予定情報D5を参照し、ログインユーザーのその後の予定に外出や会議などの予定があるか否かを判断し、外出や会議などの予定があれば、さらにユーザーの外出時間(会議時間を含む)や外出先が充電可能環境であるか否かを判断する。そして出力制御部34は、その判断結果に応じて電子メール送信、及び、印刷出力のうちのいずれか1つの出力態様を決定する。尚、画像データに機密情報が含まれるか否かの判断手法は、上述した手法に限られるものではない。
出力制御部34は、回答情報D3の出力態様として、音声出力を行うことを決定した場合、音声変換部36に対して回答情報D3を出力する。この場合、音声変換部36は、回答情報D3に含まれるテキストデータを音声情報に変換して音声出力部15へ出力する。これにより、回答情報D3に含まれるテキストデータに対応する音声が音声出力部15から出力されるようになる。
また、出力制御部34は、回答情報D3の出力態様として、印刷出力を行うことを決定した場合、印刷制御部37に対して回答情報D3を出力する。この場合、印刷制御部37は、回答情報D3に含まれるテキストデータ及び画像データに基づいて印刷データを生成し、その印刷データをプリンタ部16へ出力する。これにより、プリンタ部16において、回答情報D3に含まれるテキストデータ及び画像データに基づく印刷出力が行われるようになる。
また、出力制御部34は、回答情報D3の出力態様として、電子メール送信を行うことを決定した場合、電子メール処理部38に対して回答情報D3を出力する。この場合、電子メール処理部38は、ユーザー情報22を参照することによってログインユーザーの電子メールアドレスを取得し、そのアドレスを送信先に指定した電子メールを作成する。そして電子メール処理部38は、作成した電子メールに回答情報D3を添付して送信する。これにより、ネットワークインタフェース17を介して回答情報D3が添付された電子メールがログインユーザーのアドレスに送信されるようになる。
尚、出力制御部34は、回答情報D3の出力態様として、電子メール送信の代わりに、携帯端末5に対して直接送信することを決定した場合、通信制御部39に対して回答情報D3を出力する。この場合、通信制御部39は、通信インタフェース18を介してログインユーザーが所持する携帯端末5に対して回答情報D3を直接送信する。
次に音声情報処理装置3において行われる具体的な処理手順の一例について説明する。図7乃至図10は、音声情報処理装置3による処理手順の一例を示すフローチャートである。この処理手順は、制御部10のCPU10aがプログラム21を実行することによって行われる処理である。まず図7に示すように、音声情報処理装置3は、ユーザーの音声入力を検知すると(ステップS10)、入力音声に基づく声紋認証を行い(ステップS11)、ユーザーを特定する(ステップS12)。ユーザーを特定することができると、音声情報処理装置3は、動作状態をログイン状態へ移行させる(ステップS13)。これにより、ユーザーは音声情報処理装置3に対して音声で質問を行うことができるようになる。
音声情報処理装置3は、動作状態をログイン状態へ移行させると、ユーザーの音声による質問を受け付ける(ステップS14)。尚、ユーザーの質問は必ずしも音声入力によるものでなく、ユーザーが操作パネル12を手動操作することによって入力されるものであっても良い。ユーザーによる手動操作であっても、音声情報処理装置3は、ステップS14においてユーザーにより入力される質問を受け付ける。質問を受け付けると、音声情報処理装置3は、質問情報D1を生成し(ステップS15)、その質問情報D1を回答検索サーバー7へ送信することにより、回答検索サーバー7から回答情報D3を取得する(ステップS16)。また、音声情報処理装置3は、質問に対応する回答情報D3を取得する処理と並行して、管理サーバー8に状況問い合わせD2を送信することにより、管理サーバー8からログインユーザーに関する状況情報D4を取得する(ステップS17)。
音声情報処理装置3は、回答情報D3及び状況情報D4を取得すると、出力態様決定処理を行う(ステップS18)。この処理は、上述した出力制御部34によって行われる処理であり、回答情報D3及び状況情報D4に基づき、回答情報D3を出力する際の出力態様を決定する処理である。すなわち、回答情報D3の出力態様として、音声出力、印刷出力及び電子メール送信のうちから少なくとも1つの出力態様が決定される。そして音声情報処理装置3は、ステップS18で決定した出力態様に基づき、回答情報D3を出力する回答出力処理を行う(ステップS19)。
上記のような処理手順により、音声情報処理装置3は、ユーザーからの音声による質問を受け付けて質問に対する回答情報D3を取得し、その回答情報D3をユーザーに対して適切な態様で提供することができるようになる。
図8は、出力態様決定処理(ステップS18)の詳細な処理手順の一例を示すフローチャートである。音声情報処理装置3は、出力態様決定処理を開始すると、まず回答情報D3からテキストデータを抽出する(ステップS20)。音声情報処理装置3は、そのテキストデータに機密情報が含まれるか否かを判断し(ステップS21)、機密情報が含まれる場合には(ステップS21でYES)、回答情報D3に含まれるテキストデータの出力態様として電子メール送信又は携帯端末5への直接送信を決定する(ステップS22)。このとき、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。例えば、音声情報処理装置3は、電子メール送信と携帯端末5への直接装置とをユーザーに提示し、ユーザーによる選択操作を受け付け、ユーザーが携帯端末5への直接送信を選択した場合に電子メール送信に代えて携帯端末5への直接送信を決定するようにしても良い。また、ユーザーによって複数の出力態様が選択されれば、音声情報処理装置3は、それら複数の出力態様を決定しても良い。
これに対し、テキストデータに機密情報が含まれない場合(ステップS21でNO)、音声情報処理装置3は、回答情報D3に基づく音声出力を行った場合に音声出力が完了するまでに要する出力所要時間Txを算出する(ステップS23)。そして音声情報処理装置3は、その出力所要時間Txが予め定められている設定時間T1以上であるか否かを判断する(ステップS24)。
出力所要時間Txが設定時間T1以上である場合(ステップS24でYES)、音声情報処理装置3は、第1状況判定処理を実行する(ステップS25)。この第1状況判定処理では、音声出力が完了するまでに長時間を要することから回答情報D3に基づく音声出力が禁止され、管理サーバー8から取得した状況情報D4に基づいて音声出力を除く複数の出力態様のうちから少なくとも1つの出力態様が決定される。尚、この第1状況判定処理の詳細については後述する。
また、出力所要時間Txが設定時間T1未満である場合(ステップS24でNO)、音声情報処理装置3は、第2状況判定処理を実行する(ステップS26)。この第2状況判定処理では、回答情報D3に基づく音声出力が許容されており、管理サーバー8から取得した状況情報D4に基づいてユーザーが音声出力を最後まで聴取可能であるか否かが判断され、その判断結果に応じて、音声出力を含む複数の出力態様のうちから少なくとも1つの出力態様が決定される。尚、この第2状況判定処理の詳細についても後述する。
次に音声情報処理装置3は、回答情報D3に画像データが含まれているか否かを判断する(ステップS27)。画像データが含まれていない場合(ステップS27でNO)、出力態様決定処理が終了する。これに対し、画像データが含まれている場合(ステップS27でYES)、音声情報処理装置3は、画像データに機密情報が含まれるか否かを判断し(ステップS28)、機密情報が含まれる場合には(ステップS28でYES)、回答情報D3に含まれる画像データの出力態様として電子メール送信を決定する(ステップS29)。このときも、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。
これに対し、画像データに機密情報が含まれていない場合(ステップS28でNO)、音声情報処理装置3は、第3状況判定処理を実行する(ステップS30)。この第3状況判定処理では、管理サーバー8から取得した状況情報D4に基づいて音声出力を除く複数の出力態様のうちから少なくとも1つの出力態様が決定される。尚、この第3状況判定処理の詳細については後述する。以上で、出力態様決定処理が終了する。
図9は、第1状況判定処理(ステップS25)の詳細な処理手順の一例を示すフローチャートである。音声情報処理装置3は、第1状況判定処理を開始すると、まず回答情報D3に基づく音声出力を禁止する(ステップS40)。これにより、回答情報D3の出力態様の候補から音声出力が除外される。そして音声情報処理装置3は、ログインユーザーの予定情報D5を参照し、ログインユーザーのその後の予定として外出予定(会議予定を含む)が登録されているか否かを判断する(ステップS41)。その結果、外出予定が登録されていない場合(ステップS41でNO)、音声情報処理装置3は、テキストデータの出力態様として、音声出力を除く複数の出力態様のうちから電子メール送信を決定する(ステップS42)。このとき、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。
一方、外出予定が登録されている場合(ステップS41でYES)、音声情報処理装置3は、ログインユーザーの予定情報D5に基づいて外出時間Tzを判定し(ステップS43)、ログインユーザーの外出時間Tzが所定時間T2以上であるか否かを判断する(ステップS44)。ログインユーザーの外出時間Tzが所定時間T2以上である場合(ステップS44でYES)、音声情報処理装置3は、ログインユーザーの移動先が充電可能環境であるか否かを判断する(ステップS45)。ログインユーザーの外出時間Tzが所定時間T2未満である場合(ステップS44でNO)、又は、ログインユーザーの移動先が充電可能環境である場合(ステップS45でYES)、音声情報処理装置3は、テキストデータの出力態様として、電子メール送信を決定する(ステップS46)。このときも、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。
また、ログインユーザーの外出時間Tzが所定時間T2以上であり(ステップS44でYES)、且つ、ログインユーザーの移動先が充電可能環境でない場合(ステップS45でNO)、音声情報処理装置3は、テキストデータの出力態様として、印刷出力を行うことを決定する(ステップS47)。テキストデータの印刷出力を行っておくことにより、ユーザーの外出中に仮に情報処理端末6の電力が尽きてしまったとしても、ユーザーは印刷物を持参することにより回答情報D3に含まれる情報を利用することができる。以上で、第1状況判定処理が終了する。
次に図10は、第2状況判定処理(ステップS26)の詳細な処理手順の一例を示すフローチャートである。音声情報処理装置3は、第2状況判定処理を開始すると、まずログインユーザーの予定情報D5を参照し、ログインユーザーのその後の予定として外出予定(会議予定を含む)が登録されているか否かを判断する(ステップS50)。その結果、外出予定が登録されていない場合(ステップS50でNO)、音声情報処理装置3は、テキストデータの出力態様として、音声出力を行うことを決定する(ステップS51)。
一方、外出予定が登録されている場合(ステップS50でYES)、音声情報処理装置3は、内部の時計回路が計時している現在時刻Trを取得する(ステップS52)。また音声情報処理装置3は、ログインユーザーの予定情報D5に基づき、ログインユーザーの出発予定時刻Tsを取得する(ステップS53)。そして音声情報処理装置3は、現在時刻Trと出発予定時刻Tsとに基づき、ログインユーザーが出発までに音声出力を聞くことができる聴取可能時間Thを算出する(ステップS54)。例えば、音声情報処理装置3は、現在時刻Trと、ログインユーザーの出発予定時刻Tsとの差分を聴取可能時間Thとして算出する。そして音声情報処理装置3は、出力所要時間Txと聴取可能時間Thとを比較することによりログインユーザーが最後まで回答情報D3に基づく音声出力を聞くことができるか否かを判断する(ステップS55)。すなわち、ログインユーザーの聴取可能時間Thが出力所要時間Tx以上である場合、音声情報処理装置3は、ログインユーザーが最後まで音声出力を聞くことができると判断する。これに対し、出力所要時間Txがログインユーザーの聴取可能時間Thよりも長い場合には、ログインユーザーが最後まで音声出力を聞くことができないと判断する。
ログインユーザーが音声出力を最後まで聴取可能である場合(ステップS55でYES)、音声情報処理装置3は、テキストデータの出力態様として、音声出力を行うことを決定する(ステップS56)。これにより、ユーザーの質問に対する回答が音声で出力されるようになる。
これに対し、ログインユーザーが音声出力を最後まで聴取することができない場合(ステップS55でNO)、音声情報処理装置3は、ログインユーザーの外出時間Tzを判定し(ステップS57)、所定時間T2以上であるか否かを判断する(ステップS58)。ログインユーザーの外出時間Tzが所定時間T2以上である場合(ステップS58でYES)、音声情報処理装置3は、ログインユーザーの移動先が充電可能環境であるか否かを判断する(ステップS59)。ログインユーザーの外出時間Tzが所定時間T2未満である場合(ステップS58でNO)、又は、ログインユーザーの移動先が充電可能環境である場合(ステップS59でYES)、音声情報処理装置3は、テキストデータの出力態様として、電子メール送信を決定する(ステップS60)。このとき、音声情報処理装置3は、電子メール送信に代えて、携帯端末5への直接送信を決定するようにしても良い。
また、ログインユーザーの外出時間Tzが所定時間T2以上であり(ステップS58でYES)、且つ、ログインユーザーの移動先が充電可能環境でない場合(ステップS59でNO)、音声情報処理装置3は、テキストデータの出力態様として、印刷出力を行うことを決定する(ステップS61)。テキストデータの印刷出力を行っておくことにより、ユーザーの外出中に仮に情報処理端末6の電力が尽きてしまったとしても、ユーザーは印刷物を持参することにより回答情報D3に含まれる情報を利用することができる。以上で、第2状況判定処理が終了する。
次に図11は、第3状況判定処理(ステップS30)の詳細な処理手順の一例を示すフローチャートである。音声情報処理装置3は、第3状況判定処理を開始すると、ログインユーザーの予定情報D5を参照し、ログインユーザーのその後の予定として外出予定(会議予定を含む)が登録されているか否かを判断する(ステップS70)。その結果、外出予定が登録されていない場合(ステップS70でNO)、音声情報処理装置3は、画像データの出力態様として、音声出力を除く複数の出力態様のうちから電子メール送信を決定する(ステップS71)。このとき、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。
一方、外出予定が登録されている場合(ステップS71でYES)、音声情報処理装置3は、ログインユーザーの予定情報D5に基づいて外出時間Tzを判定し(ステップS72)、ログインユーザーの外出時間Tzが所定時間T2以上であるか否かを判断する(ステップS73)。ログインユーザーの外出時間Tzが所定時間T2以上である場合(ステップS73でYES)、音声情報処理装置3は、ログインユーザーの移動先が充電可能環境であるか否かを判断する(ステップS74)。ログインユーザーの外出時間Tzが所定時間T2未満である場合(ステップS73でNO)、又は、ログインユーザーの移動先が充電可能環境である場合(ステップS74でYES)、音声情報処理装置3は、画像データの出力態様として、電子メール送信を決定する(ステップS75)。このときも、音声情報処理装置3は、電子メール送信による出力態様に代えて、携帯端末5への直接送信による出力態様を決定するようにしても良い。
また、ログインユーザーの外出時間Tzが所定時間T2以上であり(ステップS73でYES)、且つ、ログインユーザーの移動先が充電可能環境でない場合(ステップS74でNO)、音声情報処理装置3は、画像データの出力態様として、印刷出力を行うことを決定する(ステップS76)。画像データの印刷出力を行っておくことにより、ユーザーの外出中に仮に情報処理端末6の電力が尽きてしまったとしても、ユーザーは印刷物を持参することにより回答情報D3に含まれる情報を利用することができる。以上で、第3状況判定処理が終了する。
音声情報処理装置3は、上記のような処理を行うことにより、質問を行ったユーザーに対し、情報を有効活用することができる態様で回答情報D3を提供することができる。例えば、ユーザーが外出する直前に質問した場合、音声情報処理装置は、ユーザーが回答を最後まで聴取することができるか否かを判断し、最後まで聴取することができるのであれば、回答情報D3に基づく音声出力を行う。これに対し、ユーザーが最後まで回答を聴取することができないのであれば、音声情報処理装置3は、音声出力を行うことなく、電子メール送信、又は、印刷出力といった出力態様で回答情報D3をユーザーに提供する。したがって、ユーザーは、音声情報処理装置3から取得した回答を外出先でも有効に利用することができる。
また、音声情報処理装置3は、出力所要時間Txが予め定められた設定時間T1以上である場合にも、音声出力を行うことなく、電子メール送信、又は、印刷出力といった出力態様で回答情報D3をユーザーに提供する。そのため、ユーザーは、音声情報処理装置3から提供される回答情報D3の内容を覚える必要がなく、いつでも回答情報D3を参照することが可能であり、回答情報D3に含まれる情報を有効に活用することができるという利点もある。
以上、本発明に関する好ましい実施形態について説明した。しかし、本発明は、上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。
例えば、上記実施形態では、MFPなどの画像処理装置2が音声情報処理装置3として機能する例を説明した。しかし、音声情報処理装置3は、画像処理装置2の一部として設けられるものに限られず、それ単体で構成されるものであっても構わない。例えば音声情報処理装置3は、上述したプログラム21を一般的なコンピュータにおいて実行させることによって実現することも可能である。この場合、画像処理装置2と音声情報処理装置3とは、ネットワーク9を介して互いに接続される。そのため、音声情報処理装置3は、回答情報D3の出力態様として印刷出力を行うことを決定すると、回答情報D3に基づく印刷ジョブを生成し、ネットワーク9を介してその印刷ジョブを画像処理装置2へ送信することにより、画像処理装置2に印刷出力を行わせるようにすれば良い。
また上記実施形態では、回答検索サーバー7が音声情報処理装置3とは別に設けられる例を説明した。しかし、上述した回答検索サーバー7の機能は、音声情報処理装置3に内蔵されていても構わない。
また上記実施形態では、音声情報処理装置3が管理サーバー8へ問い合わせを行うことにより、ログインユーザーに関する状況情報D4を管理サーバー8から取得する例を説明した。しかし、質問を行ったユーザーの状況情報D4を取得する手法はこれに限られない。例えば、音声情報処理装置3は、ユーザーの音声による質問を受け付けた場合に、そのユーザーに対して今後の予定などを質問し、ユーザーによる状況情報D4の更なる入力を受け付けるようにしても良い。この場合、ユーザーは、自身の予定などを音声で入力するようにしても良いし、手動操作で入力するようにしても良い。
また上記実施形態では、音声情報処理装置3がオフィスに設置されることを想定した例について説明した。しかし、上述した音声情報処理装置3は、オフィス用に限られず、一般家庭用として用いることも可能である。
さらに上記実施形態では、制御部10のCPU10aによって実行されるプログラム21が予め記憶装置11に格納されている場合を例示した。しかし、プログラム21は、例えばネットワークインタフェース17や通信インタフェース18などを介して音声情報処理装置3にインストールされたり、或いは、アップデートされたりするものであっても構わない。この場合、プログラム21は、インターネットなどを介してダウンロード可能な態様で提供される。また、これに限らず、プログラム21は、CD-ROMやUSBメモリなどのコンピュータ読み取り可能な記録媒体に記録された態様で提供されるものであっても構わない。
1 情報処理システム
2 画像処理装置
3 音声情報処理装置
6 情報処理端末
7 回答検索サーバー
8 管理サーバー
15 音声出力部(出力手段)
16 プリンタ部(出力手段)
17 ネットワークインタフェース(出力手段)
18 通信インタフェース(出力手段)
19 出力手段
21 プログラム
23 判定情報
30 ユーザー認証部(認証手段)
31 質問受付部(受付手段)
32 回答取得部(回答取得手段)
33 状況取得部(状況取得手段)
34 出力制御部(出力制御手段)
35 回答出力部

Claims (18)

  1. ユーザーの質問を受け付ける受付手段と、
    前記受付手段で受け付けられた質問に対する回答情報を取得する回答取得手段と、
    前記回答情報を、音声出力を含む複数の出力態様で出力可能な出力手段と、
    ユーザーの状況に関する状況情報を取得する状況取得手段と、
    前記回答情報と前記状況情報とに基づき、前記複数の出力態様のうちから前記回答情報の出力態様を決定し、前記出力手段による出力態様を制御する出力制御手段と、
    を備え、
    前記状況情報には、ユーザーの予定に関する予定情報が含まれており、
    前記出力制御手段は、前記回答情報を音声出力する際の出力所要時間を算出すると共に、前記予定情報に基づいてユーザーの聴取可能時間を算出し、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする音声情報処理装置。
  2. 前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として印刷出力を決定することを特徴とする請求項1に記載の音声情報処理装置。
  3. 前記出力手段は、音声出力とは異なる出力態様として、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として前記情報処理端末に対する送信を決定することを特徴とする請求項1又は2に記載の音声情報処理装置。
  4. 前記出力手段は、ユーザーのアドレスに対して電子メールを送信することにより、前記回答情報を前記情報処理端末へ送信することを特徴とする請求項3に記載の音声情報処理装置。
  5. 前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であると共に、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長いと判定した場合、前記予定情報に含まれるユーザーの外出時間に基づいて、印刷出力と、前記情報処理端末への送信との少なくとも一方を前記回答情報の出力態様として決定することを特徴とする請求項1乃至4のいずれかに記載の音声情報処理装置。
  6. 前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合、音声出力とは異なる出力態様をユーザーに提示してユーザーによる操作を受け付け、ユーザーによる操作に基づいて音声出力とは異なる出力態様を決定することを特徴とする請求項1乃至5のいずれかに記載の音声情報処理装置。
  7. 前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも短い場合、前記回答情報の出力態様として音声出力を決定することを特徴とする請求項1乃至6のいずれかに記載の音声情報処理装置。
  8. 前記出力制御手段は、前記回答情報に機密情報が含まれるか否かを判定し、前記回答情報に機密情報が含まれるときには前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする請求項1乃至7のいずれかに記載の音声情報処理装置。
  9. ユーザーの音声に基づく声紋認証を行ってユーザーを特定する認証手段、
    を更に備え、
    前記状況取得手段は、前記認証手段によって特定されるユーザーに対応付けられている前記状況情報を取得することを特徴とする請求項1乃至8のいずれかに記載の音声情報処理装置。
  10. 音声出力を含む複数の出力態様で情報を出力可能な出力手段を備えるコンピュータにおいて実行されるプログラムであって、前記コンピュータを、
    ユーザーの質問を受け付ける受付手段、
    前記受付手段で受け付けられた質問に対する回答情報を取得する回答取得手段、
    ユーザーの状況に関する状況情報を取得する状況取得手段、及び、
    前記回答情報と前記状況情報とに基づき、前記複数の出力態様のうちから前記回答情報の出力態様を決定し、前記出力手段による出力態様を制御する出力制御手段、
    として機能させ、
    前記状況情報には、ユーザーの予定に関する予定情報が含まれており、
    前記出力制御手段は、前記回答情報を音声出力する際の出力所要時間を算出すると共に、前記予定情報に基づいてユーザーの聴取可能時間を算出し、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とするプログラム。
  11. 前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として印刷出力を決定することを特徴とする請求項10に記載のプログラム。
  12. 前記出力手段は、音声出力とは異なる出力態様として、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合に、前記回答情報の出力態様として前記情報処理端末に対する送信を決定することを特徴とする請求項10又は11に記載のプログラム。
  13. 前記出力手段は、ユーザーのアドレスに対して電子メールを送信することにより、前記回答情報を前記情報処理端末へ送信することを特徴とする請求項12に記載のプログラム。
  14. 前記出力手段は、音声出力とは異なる出力態様として、前記回答情報に基づく印刷出力を行うことが可能であると共に、ユーザーの情報処理端末に対して前記回答情報を送信することが可能であり、
    前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長いと判定した場合、前記予定情報に含まれるユーザーの外出時間に基づいて、印刷出力と、前記情報処理端末への送信との少なくとも一方を前記回答情報の出力態様として決定することを特徴とする請求項10乃至13のいずれかに記載のプログラム。
  15. 前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも長い場合、音声出力とは異なる出力態様をユーザーに提示してユーザーによる操作を受け付け、ユーザーによる操作に基づいて音声出力とは異なる出力態様を決定することを特徴とする請求項10乃至14のいずれかに記載のプログラム。
  16. 前記出力制御手段は、前記出力所要時間が前記聴取可能時間よりも短い場合、前記回答情報の出力態様として音声出力を決定することを特徴とする請求項10乃至15のいずれかに記載のプログラム。
  17. 前記出力制御手段は、前記回答情報に機密情報が含まれるか否かを判定し、前記回答情報に機密情報が含まれるときには前記回答情報の出力態様として音声出力とは異なる出力態様を決定することを特徴とする請求項10乃至16のいずれかに記載のプログラム。
  18. 前記コンピュータを、
    ユーザーの音声に基づく声紋認証を行ってユーザーを特定する認証手段、
    として更に機能させ、
    前記状況取得手段は、前記認証手段によって特定されるユーザーに対応付けられている前記状況情報を取得することを特徴とする請求項10乃至17のいずれかに記載のプログラム。
JP2019049387A 2019-03-18 2019-03-18 音声情報処理装置及びプログラム Active JP7318241B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019049387A JP7318241B2 (ja) 2019-03-18 2019-03-18 音声情報処理装置及びプログラム
US16/804,144 US11316987B2 (en) 2019-03-18 2020-02-28 Voice information processing apparatus and recording medium that provide information in response to user question
CN202010181545.2A CN111708507B (zh) 2019-03-18 2020-03-16 声音信息处理装置以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019049387A JP7318241B2 (ja) 2019-03-18 2019-03-18 音声情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2020154356A JP2020154356A (ja) 2020-09-24
JP7318241B2 true JP7318241B2 (ja) 2023-08-01

Family

ID=72515065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019049387A Active JP7318241B2 (ja) 2019-03-18 2019-03-18 音声情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11316987B2 (ja)
JP (1) JP7318241B2 (ja)
CN (1) CN111708507B (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008026621A (ja) 2006-07-21 2008-02-07 Fujitsu Ltd 音声対話機能を有する情報処理装置
JP2007140851A5 (ja) 2005-11-17 2009-01-08
WO2016042889A1 (ja) 2014-09-17 2016-03-24 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2016149014A (ja) 2015-02-12 2016-08-18 株式会社デンソー 対話装置
WO2016136062A1 (ja) 2015-02-27 2016-09-01 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2016158792A1 (ja) 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2017175432A1 (ja) 2016-04-05 2017-10-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20180262834A1 (en) 2017-03-08 2018-09-13 Lg Electronics Inc. Terminal and vehicle control method of mobile terminal using machine learning
US20190295542A1 (en) 2018-03-26 2019-09-26 Midea Group Co., Ltd. Voice-based user interface with dynamically switchable endpoints

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302351A (ja) * 1994-05-09 1995-11-14 Canon Inc 画像・音声応答装置及び画像・音声応答方法
JPH11101652A (ja) * 1997-09-26 1999-04-13 Toyota Motor Corp 電子メールデータ受信装置、電子メールホスト装置、これらのためのプログラムを記録した媒体、及び電子メールシステム
JP2007140851A (ja) 2005-11-17 2007-06-07 Ricoh Co Ltd 電子装置、画像形成装置及び操作マニュアルの取得方法
JP2008249893A (ja) * 2007-03-29 2008-10-16 Toshiba Corp 音声応答装置及びその方法
JP2009104288A (ja) * 2007-10-22 2009-05-14 Hitachi Ltd 通信管理サーバ及び計算機システム
KR101977087B1 (ko) * 2012-12-24 2019-05-10 엘지전자 주식회사 자동응대 기능을 갖는 이동 단말기 및 그의 자동응대 방법
US10748529B1 (en) * 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
JP2016081401A (ja) * 2014-10-21 2016-05-16 株式会社日立製作所 情報検索提示装置、及び情報検索提示方法
KR102477272B1 (ko) * 2015-04-16 2022-12-14 삼성전자주식회사 응답 문자 추천 방법 및 이를 위한 장치
KR102598273B1 (ko) * 2015-09-01 2023-11-06 삼성전자주식회사 답신 메시지 추천 방법 및 이를 위한 디바이스
WO2017175363A1 (ja) * 2016-04-07 2017-10-12 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム
JP6753722B2 (ja) 2016-07-29 2020-09-09 コイト電工株式会社 音案内装置
JP2018136791A (ja) * 2017-02-22 2018-08-30 コニカミノルタ株式会社 情報処理装置及びプログラム
DK179560B1 (en) * 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US11158312B2 (en) * 2018-09-25 2021-10-26 International Business Machines Corporation Presenting contextually appropriate responses to user queries by a digital assistant device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140851A5 (ja) 2005-11-17 2009-01-08
JP2008026621A (ja) 2006-07-21 2008-02-07 Fujitsu Ltd 音声対話機能を有する情報処理装置
WO2016042889A1 (ja) 2014-09-17 2016-03-24 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2016149014A (ja) 2015-02-12 2016-08-18 株式会社デンソー 対話装置
WO2016136062A1 (ja) 2015-02-27 2016-09-01 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20170337921A1 (en) 2015-02-27 2017-11-23 Sony Corporation Information processing device, information processing method, and program
WO2016158792A1 (ja) 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US20180107445A1 (en) 2015-03-31 2018-04-19 Sony Corporation Information processing device, control method, and program
WO2017175432A1 (ja) 2016-04-05 2017-10-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20180262834A1 (en) 2017-03-08 2018-09-13 Lg Electronics Inc. Terminal and vehicle control method of mobile terminal using machine learning
US20190295542A1 (en) 2018-03-26 2019-09-26 Midea Group Co., Ltd. Voice-based user interface with dynamically switchable endpoints

Also Published As

Publication number Publication date
JP2020154356A (ja) 2020-09-24
US20200304651A1 (en) 2020-09-24
CN111708507B (zh) 2023-06-30
US11316987B2 (en) 2022-04-26
CN111708507A (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
USRE49898E1 (en) Image forming system, information forming apparatus, and computer readable medium having management apparatus with distributed storage
US6947156B1 (en) Remote control apparatus and system in which identification or control information is obtained from a device to be controlled
US11211069B2 (en) Information processing system, information processing method, and non-transitory recording medium
US20100302586A1 (en) Image forming apparatus, server apparatus and recording medium
JP7059929B2 (ja) 情報処理装置
CN110609662B (zh) 打印***、控制方法和服务器
US20080004056A1 (en) Methods and systems for incorporating a voice-attached, tagged rich media package from a wireless camera-equipped handheld mobile device into a collaborative workflow
JP6098151B2 (ja) 情報処理システム及び情報処理方法
JP2014010769A (ja) 中継装置
JP2003244183A (ja) ネットワーク機器及び遠隔制御中継サーバ
CN101166156A (zh) 文档管理***和文档管理方法
US8630007B2 (en) Image forming apparatus, method for managing print job, and computer-readable storage medium for computer program
US11006007B2 (en) Control system, server system, and control method
WO2003079180A1 (fr) Impression par le biais d'un reseau
US20090287491A1 (en) Data processing apparatus, speech conversion method, and speech conversion program embodied on computer readable medium
JP4898015B2 (ja) 通信教育システム、このシステムに使用される保管用サーバ及びこの保管用サーバに使用されるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP7318241B2 (ja) 音声情報処理装置及びプログラム
US20210006673A1 (en) Peripheral device management system, peripheral device management method, and printing apparatus control system
JP2020141385A (ja) ジョブ生成装置、画像処理装置、ジョブ生成方法およびジョブ生成プログラム
JP2021105849A (ja) 印刷制御システムおよびその制御方法、並びにプログラム
JP2020077344A (ja) 情報処理システム、情報処理装置、ジョブ制御方法およびジョブ制御プログラム
KR20040096436A (ko) 통신망을 통하여 골프 레슨 서비스를 제공하기 위한 방법및 이를 위한 시스템
US20220214846A1 (en) Image forming apparatus, control method, and non-transitory computer readable storage medium
JP2019117475A (ja) 画像処理システム
JP5577234B2 (ja) 視覚障害者支援システムおよび視覚障害者支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150