JP6289662B2 - 情報送信方法及び送信装置 - Google Patents

情報送信方法及び送信装置 Download PDF

Info

Publication number
JP6289662B2
JP6289662B2 JP2016558101A JP2016558101A JP6289662B2 JP 6289662 B2 JP6289662 B2 JP 6289662B2 JP 2016558101 A JP2016558101 A JP 2016558101A JP 2016558101 A JP2016558101 A JP 2016558101A JP 6289662 B2 JP6289662 B2 JP 6289662B2
Authority
JP
Japan
Prior art keywords
image
information
session
detecting
trigger condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016558101A
Other languages
English (en)
Other versions
JP2017522626A (ja
Inventor
リ、シャオジャン
リウ、ジュ
ガオ、ウェンメイ
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2017522626A publication Critical patent/JP2017522626A/ja
Application granted granted Critical
Publication of JP6289662B2 publication Critical patent/JP6289662B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Hospice & Palliative Care (AREA)
  • Acoustics & Sound (AREA)
  • Child & Adolescent Psychology (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Description

本発明は通信分野に関し、特に、情報送信方法及び送信装置に関する。
社会の発展により、人と人との間、人とモバイルデバイスとの間、及び人とコンピュータとの間でのやり取りが増えてきている。人と人との間、人とモバイルデバイスとの間、及び人とコンピュータとの間でのやり取りは、一般的にセッション形態で実行される。セッションは、途切れのない一連の要求及び応答である。セッションは、例えば、音声情報、テキスト情報と画像と情報といった複数のタイプの情報を含む。単一情報送信方式が最もよく使用される送信方式である。単一情報送信方式は、操作が容易であり、システム性能に対する要求が比較的低い。しかしながら、単一チャネル送信方式で送信された情報は比較的単調であり、ユーザの思考を総合的かつ正確に伝達することはできない。例えば、ユーザがチャットツール又はソーシャルツールを使用してチャットを行う場合、ユーザは一般的にテキストを使用してチャットを行うが、テキストだけではユーザの感情を総合的かつ正確に伝達することはできない。
マルチ情報送信方式は単一情報送信方式の欠点をある程度克服するが、ユーザは、1つの情報を使用する場合に他の情報を手動で挿入する必要があり、それは操作が煩わしい。例えば、ユーザは、テキストチャットの間に顔文字を追加する。従来技術に従えば、まずユーザは顔文字ライブラリで適切な顔文字画像を手動で検索し、次に、チャットセッションに顔文字画像を追加する必要がある。顔文字ライブラリは限られた数量の顔文字しか有さないので、ユーザは、ユーザの気分を伝達する適切な顔文字画像を発見できない可能性が高い。ユーザが、いくつかの景勝地、食べ物、天候、ユーザが滞在している環境等について話す場合、ユーザはまた、これらを他のグループにリアルタイムで示すことができない。既存のマルチチャネル対話方式は操作が煩わしく、情報転送効率は比較的低いということが分かる。
本発明の複数の実施形態は、情報送信効率を向上させ得る送信方法を提供する。
上述の技術的課題を解消すべく、本発明の複数の実施形態は以下の技術的解決手段を開示する。
第1の態様に従い、情報送信方法が提供される。当該方法は、
端末とピア端末との間でセッションを開始する段階と、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
情報がトリガ条件を満たす場合、画像を取得し、ピア端末に画像を送信する段階とを含む。セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
第1の態様を参照して、第1の態様の第1の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出する段階は、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を含み、
画像を取得する段階は、顔文字画像を取得する段階を含む。
第1の態様を参照して、第1の態様の第2の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出する段階は、テキスト情報においてキーワードを検出する段階、又は、音声情報においてキーワードを検出する段階を含み、
画像を取得する段階は、顔文字画像を取得する段階、又は、キーワードに対応する画像を取得する段階、又は、環境背景画像を取得する段階を含む。
第1の態様の第1の可能な実施例、又は、第1の態様の第2の可能な実施例を参照して、第1の態様の第3の可能な実施例において、顔文字画像を取得する段階が実行される場合、顔文字画像を取得する段階は、
ユーザの現在の表情を取り込む段階と、
表情に応じた顔文字画像を取得する段階とを含む。
第1の態様の第3の可能な実施例を参照して、第1の態様の第4の可能な実施例において、表情に応じた顔文字画像を取得する段階は、
表情に対応する感情を分析する段階と、
感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、当該顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階を含む。
第1の態様の第2の可能な実施例を参照して、第1の態様の第5の可能な実施例において、キーワードに対応する画像を取得する段階が実行される場合、キーワードに対応する画像を取得する段階は、
キーワードに応じた画像を検索する段階と、
見つけ出された画像に応じて、キーワードに対応する画像を取得する段階とを含む。
第1の態様の第2の可能な実施例を参照して、第1の態様の第6の可能な実施例において、環境背景画像を取得する段階が実行される場合、環境背景画像を取得する段階は、
温度、湿度、又は風力である環境パラメータを取得する段階と、
環境パラメータに応じた環境状況を取得する段階と、
環境状況に応じた環境背景画像を取得する段階とを含む。
第1の態様の第2の可能な実施例を参照して、第1の態様の第7の可能な実施例において、環境背景画像を取得する段階が実行される場合、環境背景画像を取得する段階は、
ユーザの現在の地理的位置を取得する段階と、
地理的位置に応じた天候状況を取得する段階と、
天候状況に応じた環境背景画像を取得する段階とを含む。
第1の態様の第2の可能な実施例を参照して、第1の態様の第8の可能な実施例において、送信された情報がテキスト情報である場合、画像を取得する段階の後、当該方法は更に、
セッションにおいてテキスト情報と画像とを結合する段階を含む。
第1の態様の第8の可能な実施例を参照して、第1の態様の第9の可能な実施例において、テキスト情報と画像とを結合する段階は、
キーワードに対応する画像又は顔文字画像をテキスト情報に挿入する段階を含む。
第1の態様の第8の可能な実施例を参照して、第1の態様の第10の可能な実施例において、テキスト情報と画像とを結合する段階は、
セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用する段階を含む。
第2の態様に従って、情報送信装置が提供される。当該装置は、
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニットと、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニットと、
当該情報がトリガ条件を満たす場合、画像を取得し、ピア端末に当該画像を送信するよう構成された画像取得ユニットとを含み、セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。
第2の態様を参照して、第2の態様の第1の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
画像取得ユニットは更に、ユーザの表情を取り込むよう構成されている。
第2の態様を参照して、第2の態様の第2の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、テキスト情報においてキーワードを検出すること、又は、音声情報においてキーワードを検出することを含み、
画像取得ユニットは更に、顔文字画像を取得するよう構成されている、又は、キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている。
第2の態様の第1の可能な実施例、又は、第2の態様の第2の可能な実施例を参照して、第2の態様の第3の可能な実施例において、顔文字画像を取得するよう構成された場合、画像取得ユニットは、顔文字画像を取得するよう構成された第1の画像取得サブユニットを含み、
第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
第1の画像取得サブユニットは更に、表情に応じた顔文字画像を取得するよう構成されている。
第2の態様の第3の可能な実施例を参照して、第2の態様の第4の可能な実施例において、第1の画像取得サブユニットは更に、表情に対応する感情を分析するよう構成され、
第1の画像取得サブユニットは更に、感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像取得するよう構成されている。
第2の態様の第2の可能な実施例を参照して、第2の態様の第5の可能な実施例において、キーワードに対応する画像を取得するよう構成された場合、画像取得ユニットは、キーワードに応じた画像を検索するよう構成された第2の画像取得サブユニットを含み、第2の画像取得サブユニットは更に、見つけ出された画像に応じて、キーワードに対応する画像を取得するよう構成されている。
第2の態様の第2の可能な実施例を参照して、第2の態様の第6の可能な実施例において、環境背景画像を取得するよう構成された場合、画像取得ユニットは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成された第3の画像取得サブユニットを含み、第3の画像取得サブユニットは更に、環境パラメータに応じた環境状況を取得するよう構成され、
第3の画像取得サブユニットは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
第2の態様の第2の可能な実施例を参照して、第2の態様の第7の可能な実施例において、環境背景画像を取得するよう構成された場合、画像取得ユニットは更に、ユーザの地理的位置を取得するよう構成された第4の画像取得サブユニットを含み、
第4の画像取得サブユニットは更に、地理的位置に応じた天候状況を取得するよう構成され、
第4の画像取得サブユニットは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
第2の態様の第2の可能な実施例を参照して、第2の態様の第8の可能な実施例において、当該装置は更に、送信された情報がテキスト情報である場合、画像取得後、セッションにおいてテキスト情報と画像とを結合するよう構成された結合ユニットを含む。
第2の態様の第8の可能な実施例を参照して、第2の態様の第9の可能な実施例において、結合ユニットは、キーワードに対応する画像をテキスト情報に挿入するよう構成された第1の結合サブユニットを含む。
第2の態様の第8の可能な実施例を参照して、第2の態様の第10の可能な実施例において、結合ユニットは更に、セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用するよう構成された第2の結合サブユニットを含む。
第3の態様に従って、情報送信デバイスが提供される。当該デバイスは、
端末とピア端末との間でセッションを開始するよう構成され、
更に、セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、当該情報がトリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
画像をピア端末に送信するよう構成された送信機とを含む。
セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
第3の態様を参照して、第3の態様の第1の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
プロセッサは更に、顔文字画像を取得するよう構成されている。
第3の態様を参照して、第3の態様の第2の可能な実施例において、セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、テキスト情報においてキーワードを検出すること、又は音声情報においてキーワードを検出することを含み、
プロセッサは更に、顔文字画像を取得する、又はキーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている。
第3の態様の第1の可能な実施例、又は第3の態様の第2の可能な実施例を参照して、第3の態様の第3の可能な実施例において、顔文字画像の取得が実行される場合、デバイスは更に、プロセッサの制御のもと、ユーザの表情を取り込むよう構成されたカメラを含み、
プロセッサは更に、キーワードに対応する画像を表情に応じて取得するよう構成されている。
第3の態様の第2の可能な実施例を参照して、第3の態様の第4の可能な実施例において、プロセッサは更に、表情に対応する感情を分析するよう構成され、
プロセッサは更に、感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
第3の態様の第2の可能な実施例を参照して、第3の態様の第5の可能な実施例において、キーワードに対応する画像の取得が実行される場合、プロセッサは更に、キーワードに応じた画像を検索するよう構成され、
プロセッサは更に、見つけ出された画像に応じてキーワードに対応する画像を取得するよう構成されている。
第3の態様の第2の可能な実施例を参照して、第3の態様の第6の可能な実施例において、環境背景画像の取得が実行される場合、プロセッサは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成され、
プロセッサは更に、環境パラメータに応じた環境状況を取得するよう構成され、
プロセッサは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
第3の態様の第2の可能な実施例を参照して、第3の態様の第7の可能な実施例において、環境背景画像の取得が実行される場合、プロセッサは更に、ユーザの地理的位置を取得するよう構成され、
プロセッサは更に、地理的位置に応じた天候状況を取得するよう構成され、
プロセッサは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
第3の態様の第2の可能な実施例を参照して、第3の態様の第8の可能な実施例において、送信された情報がテキスト情報である場合、プロセッサは更に、画像取得後、セッションにおいてテキスト情報と画像とを結合するよう構成されている。
第3の態様の第8の可能な実施例を参照して、第3の態様の第9の可能な実施例において、プロセッサは更に、キーワードに対応する画像をテキスト情報に挿入するよう構成されている。
第3の態様の第8の可能な実施例を参照して、第3の態様の第10の可能な実施例において、プロセッサは更に、セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用するよう構成されている。
本発明の複数の実施形態は、情報送信方法を開示する。当該情報送信方法において、端末とピア端末との間のセッション開始後、セッションにおいて送信された情報がトリガ条件を満たすかどうかが検出され、当該情報がトリガ条件を満たす場合、画像が取得され、画像がピア端末に送信される。セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。本発明の方法に従って、手動操作することなく画像が自動的に取得され得る。このことは、ユーザの感情をより良く伝達し、情報送信効率を向上させ得る。
本発明の複数の実施形態における、又は従来技術における技術的解決手段をより明確に説明すべく、実施形態の説明に必要な添付の図面が以下で簡潔に説明される。明らかに、以下の説明における添付の図面は、単に本発明のいくつかの実施形態を示しているに過ぎず、当業者ならば、創造的な努力なしに、これらの添付の図面から他の図面を更に導き出し得る。
本発明の一実施形態による情報送信方法のフローチャートである。
本発明の一実施形態による情報送信方法のフローチャートである。
本発明の一実施形態による情報送信方法のフローチャートである。
本発明の一実施形態による情報送信方法のアプリケーションシナリオの概略図である。
本発明の一実施形態による情報送信装置の概略構造図である。
下記の本発明の複数の実施形態が情報送信方法を提供する。これにより、情報送信効率を向上させ得る。
本発明の複数の実施形態の添付の図面を参照して、以下で本発明の複数の実施形態における技術的解決手段が明確かつ完全に説明される。明らかに、説明される実施形態は、単に本発明の複数の実施形態の一部に過ぎず、全てではない。創造的な努力なしに、本発明の複数の実施形態に基づいて当業者によって得られる他の全ての実施形態は、本発明の保護範囲内に含まれるものとする。
図1は本発明の一実施形態による情報送信方法のフローチャートである。図1に示されるように、本発明のこの実施形態は情報送信方法を提供する。当該方法は以下を含む。
段階101:端末とピア端末との間でセッションを開始する。
段階102:セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する。
段階103:当該情報がトリガ条件を満たす場合、画像を取得し、当該画像をピア端末に送信する。セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。
この実施形態における情報送信方法に従えば、トリガ条件に従って画像が自動的に取得される。ここで、ユーザは画像を手動で取得する必要がなく、このことは操作が容易であり、情報送信効率を向上させ得る。
本発明の別の実施形態において、セッションにおいて送信された情報がトリガ条件を満たすことを検出する段階は、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を含み、画像を取得する段階は、顔文字画像を取得する段階を含む。
セッションにおいて送信された情報がトリガ条件を満たすことを検出する段階は、テキスト情報においてキーワードを検出する段階、又は、音声情報においてキーワードを検出する段階を含み、画像を取得する段階は、顔文字画像を取得する段階、又は、キーワードに対応する画像を取得する段階、又は、環境背景画像を取得する段階を含む。
キーワードは名詞、形容詞、動詞、又は形式上の不変化詞(modal particle)であってよい。
上述の実施形態において、顔文字画像を取得する段階は、
ユーザの現在の表情を取り込む段階と、
表情に応じた顔文字画像を取得する段階とを含む。
表情に応じた顔文字画像を取得する段階は、
表情に対応する感情を分析する段階と、
感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得する段階とを含む。
表情に対応する感情を分析する段階は、主に、顔の主な特徴に応じて実行される。顔の主な特徴としては、目、唇、額等の特徴が挙げられるが、それらに限定されない。例えば、口角を上げることは楽しい感情を示していると考えられ、額にしわを寄せることは苛立たしい感情を示していると考えられる。
感情的に楽しい場合、「楽しい」に対応する漫画形態の顔文字画像が取得されてよい。予め設定された顔画像に、「楽しい」に対応する顔の特徴が追加されてよい。予め設定された顔画像は、セッションを開始した人の顔画像であってよい、又は、別の人の予め設定された顔画像であってよい。
ユーザが音声チャットを行う場合、顔文字画像はセッション内で対応するユーザインタフェースに表示されてよい、又は、顔文字画像は別のセッション内で表示されてよい。
顔文字画像は、音声情報における話速、又は音声のイントネーション、又はキーワードに応じて取得され、これにより、音声チャットを行う場合、ユーザは顔文字画像も見ることができる。このことは、ユーザの個人的感情をより良く伝達し、情報送信効率を向上させ得る。
画像を取得する段階は、キーワードに対応する画像を取得する段階を含む。
キーワードに対応する画像を取得する段階は、複数の方式で実行されてよく、本発明の実施形態における、キーワードに対応する画像を取得する段階は、
キーワードに応じた画像を検索する段階と、
見つけ出された画像に応じてキーワードに対応する画像を取得する段階とを含む。
この実施形態において、キーワードは、「万里の長城」若しくは「頤和園」などの景勝地の名称、又は、「凧」若しくは「ケーキ」などの物品の名称であってよい。キーワードに応じた画像を検索する段階は、ウェブサーバを検索する段階であってよい、又は、ローカル画像ライブラリを検索する段階であってよい。見つけ出された画像のサイズは、比較的大きいことがあり、画像は拡大・縮小又はカットを必要とする可能性が高く、ズーム比及びカットされるサイズは予め設定されてよい、又は、画像はセッションのサイズに自動的に適合してよい。
本発明の実施形態において、環境背景画像の取得が実行される場合、環境背景画像を取得する段階は、
温度、湿度、又は風力である環境パラメータを取得する段階と、
環境パラメータに応じた環境状況を取得する段階と、
環境状況に応じた環境背景画像を取得する段階とを含む。
本発明の別の実施形態において、環境背景画像を取得する段階は、
ユーザの現在の地理的位置を取得する段階と、
地理的位置に応じた天候状況を取得する段階と、
天候状況に応じた環境背景画像を取得する段階とを含む。
送信された情報がテキスト情報である場合、画像を取得する段階の後、当該方法は更に、 セッションにおいてテキスト情報と画像とを結合する段階を含む。
セッションにおいてテキスト情報と画像とを結合する段階は、
キーワードに対応する画像又は顔文字画像をテキスト情報に挿入する段階を含む。
この実施形態において、キーワードに対応する画像は、テキスト情報において対応するキーワードの後に挿入される、又は、テキスト情報において対応するキーワードの前に挿入されてよい。
セッションにおいてテキスト情報と画像とを結合する段階は、
セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用する段階を含む。
本発明のこの実施形態における方法に従えば、テキストチャネルにおけるキーワードに応じて、手動操作することなくキーワードに対応する画像が自動的に取得される。このことは、操作が簡便であり、ユーザの感情をより良く伝達し、ユーザにより良い使用経験を提供し、情報送信効率を向上させ得る。
図2は、本発明の一実施形態による送信方法のフローチャートである。図2に示される方法において、セッションにおいて送信された情報は、テキスト情報である。図2に示されるように、当該方法は、以下を含む。
段階201:端末とピア端末との間でセッションを開始し、セッションにおいて送信されたテキスト情報を検出する。
段階202:テキスト情報にキーワードが存在するかどうかを決定し、存在する場合、段階203を実行する、又は、存在しない場合、段階201に戻る。
段階203:キーワードに対応する画像をキーワードに応じて取得する。
段階204:テキスト情報において、キーワードに対応する画像を対応するキーワードの後に挿入する。
本発明のこの実施形態における方法に従えば、セッションにおけるテキスト情報内のキーワードに応じて、手動操作することなく、キーワードに対応する画像が自動的に取得される、又は、環境背景画像が取得される。このことは、操作が簡便であり、ユーザの感情をより良く伝達し、ユーザにより良い使用経験を提供し、情報送信効率を向上させ得る。
図3は、本発明の一実施形態による送信方法のフローチャートである。図3に示される方法において、セッションにおいて送信された情報はテキスト情報である。図3に示されるように、当該方法は以下を含む。
段階301:セッションにおいて送信されたテキスト情報を検出する。
段階302:テキスト情報においてキーワードが存在するかどうかを決定し、存在する場合、段階303を実行する、又は存在しない場合、段階301に戻る。
段階303:環境背景画像を取得する。
段階304:セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用する。
本発明のこの実施形態における方法に従えば、手動操作することなくテキストチャネルにおけるキーワードに応じた環境背景画像が自動的に取得される。このことは、操作が簡便であり、ユーザの感情をより良く伝達し、ユーザにより良い使用経験を提供し、情報送信効率を向上させ得る。
図4は、本発明の一実施形態による情報送信方法のアプリケーションシナリオの概略図である。図4に示されるように、401はセッションのユーザインタフェースである。図4に示されるアプリケーションシナリオにおいて、セッションにおいて送信された情報はテキスト情報である。
画像の取得はバックグラウンド処理であり、ユーザには見えない。セッションのユーザインタフェースにおいて表示されるテキスト及び画像はユーザに見えている。
テキストを使用してユーザがチャットを行う場合、テキストはセッションにおいて表示される。図4では、ユーザのテキストチャットの内容が小吹き出し方式で表示されている。
現在ユーザがチャットを行っている場合、テキストにおいて「象山」のキーワードが検出された後、検索が開始され、象山の写真が見つけ出される。カット及び圧縮の後、象山に対応する画像が取得され、テキストにおいて「象山」の単語の後に挿入される。「楽しい」が検出された後、ユーザの現在の表情がカメラによって取り込まれる。「楽しい」に対応する画像が表情に応じて取得され、その画像がテキストにおいて「楽しい」の単語の後に挿入される。
チャットは続く。チャット中に、他方のユーザが「苛立たしい」という単語を述べる。「苛立たしい」が検出された後、ユーザの現在の表情がカメラによって取り込まれる。現在の表情に応じて対応する動作が分析される。ユーザは眉をひそめる。ユーザの現在の感情は「苛立たしい」であると分析され、「苛立たしい」に対応する漫画形態の顔文字が検索され、ユーザの顔文字画像としてその漫画の顔文字が使用される。その顔文字画像はテキストにおいて「苛立たしい」の単語の後に挿入される。セッションのユーザインタフェースは、最終的に図4に示されるように表示される。
本発明のこの実施形態における方法に従えば、手動操作することなく画像が取得される。このことは、操作が簡便であり、ユーザの感情をより良く伝達し、ユーザにより良い使用経験を提供し、情報送信効率を向上させ得る。
上述の方法の実施形態に対応して、本発明の実施形態は更に送信装置を提供する。図5は、本発明の一実施形態による情報送信装置の概略構造図である。図5に示されるように、装置は、
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニット501と、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニット502と、
情報がトリガ条件を満たす場合、画像を取得し、当該画像をピア端末に送信するよう構成された画像取得ユニット503とを含む。セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
本発明のこの実施形態の送信装置に従えば、操作は簡便であり、ユーザにより良い使用経験が提供され、情報送信効率が向上される。
セッションにおいて送信された情報がトリガ条件を満たすことを検出ユニット502が検出することは、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
画像取得ユニット503は、ユーザの表情を取り込むよう構成された第1の取得サブユニットを含む。
セッションにおいて送信された情報がトリガ条件を満たすことを検出ユニット502が検出することは、テキスト情報においてキーワードを検出すること、又は、音声情報においてキーワードを検出することを含み、
画像取得ユニット503は更に、顔文字画像を取得するよう構成されている、又は、キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている。
顔文字画像を取得するよう構成された場合、画像取得ユニット503は、顔文字画像を取得するよう構成された第1の画像取得サブユニットを含み、
第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
第1の画像取得サブユニットは更に、表情に応じた顔文字画像を取得するよう構成されている。
画像取得ユニット503は更に、環境背景画像を取得するよう構成された第3の画像取得サブユニットを含む。
第1の画像取得サブユニットは更に、表情に対応する感情を分析するよう構成され、
第1の画像取得サブユニットは更に、その感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、その感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
画像取得ユニット503がキーワードに対応する画像を取得するよう構成されている場合、画像取得ユニットは更に、キーワードに応じた画像を検索するよう構成された第2の画像取得サブユニットを含む。第2の画像取得サブユニットは更に、見つけ出された画像に応じて、キーワードに対応する画像を取得するよう構成されている。
環境背景画像を取得するよう構成された場合、画像取得ユニット503は更に第3の画像取得サブユニットを含む。当該第3の画像取得サブユニットは、温度、湿度、又は風力である環境パラメータを取得するよう構成され、
第3の画像取得サブユニットは更に、環境パラメータに応じた環境状況を取得するよう構成され、
第3の画像取得サブユニットは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
環境背景画像を取得するよう構成された場合、画像取得ユニット503は更に、ユーザの地理的位置を取得するよう構成された第4の画像取得サブユニットを含み、
第4の画像取得サブユニットは更に、地理的位置に応じた天候状況を取得するよう構成され、
第4の画像取得サブユニットは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
装置は更に、送信された情報がテキスト情報である場合、画像取得後、セッションにおいてテキスト情報と画像とを結合するよう構成された結合ユニットを含む。
結合ユニットは、キーワードに対応する画像をテキスト情報に挿入するよう構成された第1の結合サブユニットを含む。
結合ユニットは更に、セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用するよう構成された第2の結合サブユニットを含む。
本発明のこの実施形態の送信装置に従えば、手動操作することなく画像を自動的に取得可能である。このことは、操作が簡便であり、ユーザにより良い使用経験を提供し、情報送信効率を向上させる。
本発明の実施形態は更に情報送信デバイスを提供する。当該デバイスは、
端末とピア端末との間でセッションを開始するよう構成され、
更に、セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、当該情報がトリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
ピア端末に当該画像を送信するよう構成された送信機とを含み、
セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。
セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるキーワードを検出することを含み、
プロセッサは更に、顔文字画像を取得するよう構成されている。
セッションにおいて送信された情報がトリガ条件を満たすことを検出することは、テキスト情報においてキーワードを検出すること、又は、音声情報においてキーワードを検出することを含み、
プロセッサは更に、顔文字画像を取得する、又は、キーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている。
顔文字画像の取得が実行される場合、デバイスは更に、プロセッサの制御のもと、ユーザの表情を取り込むよう構成されたカメラを含み、
プロセッサは更に、キーワードに対応する画像を表情に応じて取得するよう構成されている。
プロセッサは更に、表情に対応する感情を分析するよう構成され、
プロセッサは更に、感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
キーワードに対応する画像の取得が実行される場合、プロセッサは更に、キーワードに応じた画像を検索するよう構成され、
プロセッサは更に、見つけ出された画像に応じてキーワードに対応する画像を取得するよう構成されている。
環境背景画像の取得が実行される場合、プロセッサは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成され、
プロセッサは更に、環境パラメータに応じた環境状況を取得するよう構成され、
プロセッサは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
環境背景画像の取得が実行される場合、プロセッサは更に、ユーザの地理的位置を取得するよう構成され、
プロセッサは更に、地理的位置に応じた天候状況を取得するよう構成され、
プロセッサは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
送信された情報がテキスト情報である場合、プロセッサは更に、画像取得後、セッションにおいてテキスト情報と画像とを結合するよう構成されている。
プロセッサは更に、キーワードに対応する画像をテキスト情報に挿入するよう構成されている。
プロセッサは更に、セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用するよう構成されている。
本発明のこの実施形態の送信デバイスに従えば、手動操作することなく画像が自動的に取得され得る。このことは、操作が簡便であり、ユーザにより良い使用経験を提供し、情報送信効率を向上させる。
本発明の複数の実施形態は、情報送信方法、送信装置、及び送信デバイスを開示する。当該方法、装置、及びデバイスにおいて、手動操作することなく画像が自動的に取得され得る。このことは、操作が簡便であり、ユーザにより良い使用経験を提供し、情報送信効率を向上させる。
本発明の複数の実施形態における技術が、ソフトウェアに加え必要な汎用ハードウェアによって実装され得るが、多くの場合では、前者が好ましいことは当業者ならば明確に理解するであろう。当該汎用ハードウェアとしては、汎用集積回路、汎用CPU、汎用メモリ、汎用デバイス等が挙げられ、特定用途向け集積回路、特定用途向けCPU、特定用途向けメモリ、特定用途向けデバイス等のような特定用途向けハードウェアによって確かに実装され得る。そのような理解に基づき、本質的に又は一部従来技術に寄与する本発明の技術的解決手段は、ソフトウェア製品の形態で実装されてよい。当該ソフトウェア製品は、リードオンリメモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、ハードディスク、又は光ディスクなどの記憶媒体に格納され、本発明の実施形態又は実施形態のいくつかの部分で説明された方法を実行するよう(パーソナルコンピュータ、サーバ、又はネットワークデバイスであってよい)コンピュータデバイスに指示するための数個の命令を含む。
本明細書の実施形態は全て進歩的な方式で説明されており、複数の実施形態内の同一又は同様の部分については、これらの実施形態が参照されてよく、各実施形態は他の実施形態との違いに焦点を当てている。特に、システムの実施形態は、基本的に方法の実施形態と類似しているので簡潔に説明されている。関連部分については、方法の実施形態の部分的な説明が参照されてよい。
上述の説明は本発明の実施例であり、本発明の保護範囲を限定するよう意図されているものではない。本発明の主旨及び原理から逸脱することなく成された何れの変形、同等な置換、及び改善も、本発明の保護範囲内に含まれるものである。
[項目1]
端末とピア端末との間でセッションを開始する段階と、
上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
上記送信された情報が上記トリガ条件を満たす場合、画像を取得し、上記画像を上記ピア端末に送信する段階と、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のための方法。
[項目2]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出する上記段階は、
上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を有し、
画像を取得する上記段階は、顔文字画像を取得する段階を有する、項目1に記載の方法。
[項目3]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出する上記段階は、上記テキスト情報においてキーワードを検出する段階、又は、上記音声情報においてキーワードを検出する段階を有し、
画像を取得する上記段階は、顔文字画像を取得する段階、上記キーワードに対応する画像を取得する段階、又は、環境背景画像を取得する段階を有する、項目1に記載の方法。
[項目4]
顔文字画像を取得する上記段階が実行される場合、顔文字画像を取得する上記段階は、
ユーザの現在の表情を取り込む段階と、
上記表情に応じた顔文字画像を取得する段階と
を含む、項目2又は3に記載の方法。
[項目5]
上記表情に応じた顔文字画像を取得する上記段階は、
上記表情に対応する感情を分析する段階と、
上記感情に対応する漫画形態の顔文字画像を取得する、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、上記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階と
を含む、項目4に記載の方法。
[項目6]
上記キーワードに対応する画像を取得する上記段階が実行される場合、上記キーワードに対応する画像を取得する上記段階は、
上記キーワードに応じた画像を検索する段階と、
上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得する段階と
を含む、項目3に記載の方法。
[項目7]
環境背景画像を取得する上記段階が実行される場合、環境背景画像を取得する上記段階は、
温度、湿度、又は風力である環境パラメータを取得する段階と、
上記環境パラメータに応じた環境状況を取得する段階と、
上記環境状況に応じた上記環境背景画像を取得する段階と
を含む、項目3に記載の方法。
[項目8]
環境背景画像を取得する上記段階が実行される場合、環境背景画像を取得する上記段階は、
ユーザの現在の地理的位置を取得する段階と、
上記地理的位置に応じた天候状況を取得する段階と、
上記天候状況に応じた上記環境背景画像を取得する段階と
を含む、項目3に記載の方法。
[項目9]
上記送信された情報がテキスト情報である場合、画像を取得する上記段階の後、
上記セッションにおいて上記テキスト情報と上記画像とを結合する段階を更に備える項目3に記載の方法。
[項目10]
上記セッションにおいて上記テキスト情報と上記画像とを結合する上記段階は、上記キーワードに対応する上記画像又は上記顔文字画像を上記テキスト情報に挿入する段階を有する、項目9に記載の方法。
[項目11]
上記テキスト情報と上記画像とを結合する上記段階は、
上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用する段階を有する、項目9に記載の方法。
[項目12]
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニットと、
上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニットと、
上記情報が上記トリガ条件を満たす場合、画像を取得し、上記画像を上記ピア端末に送信するよう構成された画像取得ユニットと、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のための装置。
[項目13]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、
上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを有し、
上記画像取得ユニットは更に、顔文字画像を取得するよう構成されている、項目12に記載の装置。
[項目14]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記テキスト情報においてキーワードを検出すること、又は、上記音声情報においてキーワードを検出することを含み、
上記画像取得ユニットは更に、顔文字画像を取得するよう構成されている、上記キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている、項目12に記載の装置。
[項目15]
顔文字画像を取得するよう構成された場合、上記画像取得ユニットは、顔文字画像を取得するよう構成された第1の画像取得ユニットを有し、
上記第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
上記第1の画像取得サブユニットは更に、上記表情に応じた顔文字画像を取得するよう構成されている、項目13又は14に記載の装置。
[項目16]
上記第1の画像取得サブユニットは更に、上記表情に対応する感情を分析するよう構成され、
上記第1の画像取得サブユニットは更に、上記感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、予め設定された顔画像に上記顔の特徴を追加して顔文字画像を取得するよう構成されている、項目15に記載の装置。
[項目17]
上記キーワードに対応する画像を取得するよう構成された場合、上記画像取得ユニットは更に、上記キーワードに応じた画像を検索するよう構成された第2の画像取得サブユニットを有し、
上記第2の画像取得サブユニットは更に、上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得するよう構成されている、項目14に記載の装置。
[項目18]
環境背景画像を取得するよう構成された場合、上記画像取得ユニットは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成された第3の画像取得サブユニットを有し、
上記第3の画像取得サブユニットは更に、上記環境パラメータに応じた環境状況を取得するよう構成され、
上記第3の画像取得サブユニットは更に、上記環境状況に応じた上記環境背景画像を取得するよう構成されている、項目14に記載の装置。
[項目19]
環境背景画像を取得するよう構成された場合、上記画像取得ユニットは更に、ユーザの地理的位置を取得するよう構成された第4の画像取得サブユニットを有し、
上記第4の画像取得サブユニットは更に、上記地理的位置に応じた天候状況を取得するよう構成され、
上記第4の画像取得サブユニットは更に、上記天候状況に応じた上記環境背景画像を取得するよう構成されている、項目14に記載の装置。
[項目20]
更に、上記送信された情報が上記テキスト情報である場合、上記画像の取得後に、上記セッションにおいて上記テキスト情報と上記画像とを結合するよう構成された結合ユニットを備える項目14に記載の装置。
[項目21]
上記結合ユニットは、上記キーワードに対応する上記画像を上記テキスト情報に挿入するよう構成された第1の結合サブユニットを有する、項目20に記載の装置。
[項目22]
上記結合ユニットは更に、上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用するよう構成された第2の結合サブユニットを有する、項目14に記載の装置。
[項目23]
端末とピア端末との間でセッションを開始するよう構成され、
更に、上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、上記情報が上記トリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
上記画像を上記ピア端末に送信するよう構成された送信機と、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のためのデバイス。
[項目24]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出すること、又は、上記音声情報においてキーワードを検出することを備え、
上記プロセッサは更に、顔文字画像を取得するよう構成されている、項目23に記載のデバイス。
[項目25]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記テキスト情報においてキーワードを検出すること、又は、上記音声情報においてキーワードを検出することを有し、
上記プロセッサは更に、顔文字画像を取得する、上記キーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている、項目23に記載のデバイス。
[項目26]
上記顔文字画像の取得が実行される場合、上記デバイスは更に、上記プロセッサの制御のもと、ユーザの表情を取り込むよう構成されたカメラを備え、
上記プロセッサは更に、上記キーワードに対応する画像を上記表情に応じて取得するよう構成されている、項目24又は25に記載のデバイス。
[項目27]
上記プロセッサは更に、上記表情に対応する感情を分析するよう構成され、
上記プロセッサは更に、上記感情に対応する漫画形態の顔文字画像を取得する、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、上記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得するよう構成されている、項目26に記載のデバイス。
[項目28]
上記キーワードに対応する画像の取得が実行される場合、上記プロセッサは更に、上記キーワードに応じた画像を検索するよう構成され、
上記プロセッサは更に、上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得するよう構成されている、項目25に記載のデバイス。
[項目29]
上記環境背景画像の取得が実行される場合、上記プロセッサは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成され、
上記プロセッサは更に、上記環境パラメータに応じた環境状況を取得するよう構成され、
上記プロセッサは更に、上記環境状況に応じた上記環境背景画像を取得するよう構成されている、項目25に記載のデバイス。
[項目30]
上記環境背景画像の取得が実行される場合、上記プロセッサは更に、ユーザの地理的位置を取得するよう構成され、
上記プロセッサは更に、上記地理的位置に応じた天候状況を取得するよう構成され、
上記プロセッサは更に、上記天候状況に応じた上記環境背景画像を取得するよう構成されている、項目25に記載のデバイス。
[項目31]
上記送信された情報が上記テキスト情報である場合、上記プロセッサは更に、上記画像の取得後、上記セッションにおいて上記テキスト情報と上記画像とを結合するよう構成されている、項目25に記載のデバイス。
[項目32]
上記プロセッサは更に、上記キーワードに対応する上記画像を上記テキスト情報に挿入するよう構成されている、項目31に記載のデバイス。
[項目33]
上記プロセッサは更に、上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用するよう構成されている、項目31に記載のデバイス。

Claims (17)

  1. 端末とピア端末との間でセッションを開始する段階と、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
    前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
    を備え、前記セッションにおいて送信された前記情報は、声情報を含み、
    前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
    前記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、前記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、前記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、前記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を有する、
    情報送信のための方法。
  2. 画像を取得する前記段階は、顔文字画像を取得する段階を有する、請求項1に記載の方法。
  3. 端末とピア端末との間でセッションを開始する段階と、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
    前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    画像を取得する前記段階は、
    ユーザの現在の表情を取り込む段階と、
    前記表情に応じた前記画像を取得する段階と
    を含む、
    情報送信のための方法。
  4. 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
    前記テキスト情報においてキーワードを検出する段階、又は、前記音声情報においてキーワードを検出する段階を有し、
    画像を取得する前記段階は、顔文字画像を取得する段階を有し、
    顔文字画像を取得する前記段階は、
    前記表情に応じた顔文字画像を取得する段階を含む、
    請求項3に記載の方法。
  5. 端末とピア端末との間でセッションを開始する段階と、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
    前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    画像を取得する前記段階は、
    温度、湿度、又は風力である環境パラメータを取得する段階と、
    前記環境パラメータに応じた環境状況を取得する段階と、
    前記環境状況に応じた前記画像を取得する段階と
    を含む、
    情報送信のための方法。
  6. 端末とピア端末との間でセッションを開始する段階と、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
    前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    画像を取得する前記段階は、
    ユーザの現在の地理的位置を取得する段階と、
    前記地理的位置に応じた天候状況を取得する段階と、
    前記天候状況に応じた前記画像を取得する段階と
    を含む、
    情報送信のための方法。
  7. 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
    前記テキスト情報においてキーワードを検出する段階、又は、前記音声情報においてキーワードを検出する段階を有し、
    画像を取得する前記段階は、前記画像として環境背景画像を取得する段階を有する、請求項5または6に記載の方法。
  8. 前記表情に応じた顔文字画像を取得する前記段階は、
    前記表情に対応する感情を分析する段階と、
    前記感情に対応する漫画形態の顔文字画像を取得する、又は、前記感情に対応する顔の特徴を前記感情に応じて生成し、前記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階と
    を含む、請求項4に記載の方法。
  9. 前記送信された情報がテキスト情報である場合、画像を取得する前記段階の後、
    前記セッションにおいて前記テキスト情報と前記画像とを結合する段階を更に備える請求項に記載の方法。
  10. 前記テキスト情報と前記画像とを結合する前記段階は、
    前記セッションにおいて前記テキスト情報を表示し、前記セッションの背景として前記環境背景画像を使用する段階を有する、請求項9に記載の方法。
  11. 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
    前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
    を備え、前記セッションにおいて送信された前記情報は、声情報を含み、
    前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出することは、
    前記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、前記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、前記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、前記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを有する、
    情報送信のための装置。
  12. 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
    前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    前記画像取得ユニットは、
    ユーザの現在の表情を取り込み、
    前記表情に応じた前記画像を取得する、
    情報送信のための装置。
  13. 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
    前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    前記画像取得ユニットは、
    温度、湿度、又は風力である環境パラメータを取得し、
    前記環境パラメータに応じた環境状況を取得し、
    前記環境状況に応じた前記画像を取得する、
    情報送信のための装置。
  14. 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
    前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
    前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
    を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
    前記画像取得ユニットは、
    ユーザの現在の地理的位置を取得し、
    前記地理的位置に応じた天候状況を取得し、
    前記天候状況に応じた前記画像を取得する、
    情報送信のための装置。
  15. 記画像取得ユニット、顔文字画像を取得する、請求項12に記載の装置。
  16. 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出することは、前記テキスト情報においてキーワードを検出すること、又は、前記音声情報においてキーワードを検出することを含み、
    前記画像取得ユニットは、環境背景画像を取得する、請求項13または14に記載の装置。
  17. 記画像取得ユニットは、顔文字画像を取得する第1の画像取得サブユニットを有し、
    前記第1の画像取得サブユニット前記ユーザの前記現在の表情を取り込み、
    前記第1の画像取得サブユニットは、前記表情に応じた前記顔文字画像を取得する、請求項15に記載の装置。
JP2016558101A 2014-07-02 2014-07-02 情報送信方法及び送信装置 Active JP6289662B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/081457 WO2016000219A1 (zh) 2014-07-02 2014-07-02 信息传输方法及传输装置

Publications (2)

Publication Number Publication Date
JP2017522626A JP2017522626A (ja) 2017-08-10
JP6289662B2 true JP6289662B2 (ja) 2018-03-07

Family

ID=55018298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016558101A Active JP6289662B2 (ja) 2014-07-02 2014-07-02 情報送信方法及び送信装置

Country Status (6)

Country Link
US (1) US10387717B2 (ja)
EP (1) EP3110078A4 (ja)
JP (1) JP6289662B2 (ja)
KR (1) KR101870849B1 (ja)
CN (1) CN105519047B (ja)
WO (1) WO2016000219A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3067884B1 (en) * 2015-03-13 2019-05-08 Samsung Electronics Co., Ltd. Speech recognition system and speech recognition method thereof
CN107092664B (zh) * 2017-03-30 2020-04-28 华为技术有限公司 一种内容解释方法及装置
CN107193571A (zh) * 2017-05-31 2017-09-22 广东欧珀移动通信有限公司 界面推送的方法、移动终端及存储介质
KR20190076273A (ko) 2017-12-22 2019-07-02 한동대학교 산학협력단 컨볼루션 신경망 기반의 검색 이미지 정렬 방법
JP6993314B2 (ja) * 2018-11-09 2022-01-13 株式会社日立製作所 対話システム、装置、及びプログラム
KR20210041757A (ko) 2019-10-08 2021-04-16 삼성전자주식회사 전자 장치 및 그 제어 방법
US11521340B2 (en) 2020-02-28 2022-12-06 Beijing Baidu Netcom Science And Technology Co., Ltd. Emoticon package generation method and apparatus, device and medium
CN111353064B (zh) * 2020-02-28 2023-06-13 北京百度网讯科技有限公司 表情包生成方法、装置、设备和介质
JP6899940B1 (ja) * 2020-03-30 2021-07-07 株式会社エヌ・ティ・ティ・データ 簡易通信システム、簡易通信方法、及びプログラム
CN112235180A (zh) * 2020-08-29 2021-01-15 上海量明科技发展有限公司 语音消息处理方法、设备及即时通信客户端
KR102482689B1 (ko) * 2020-09-17 2022-12-29 주식회사 비밀리 대화형 이모티콘 생성 장치 및 방법
CN112511407B (zh) * 2020-10-30 2022-04-29 国网山东省电力公司泰安供电公司 自适应语音播放方法和***
KR20220103382A (ko) * 2021-01-15 2022-07-22 삼성전자주식회사 감정 상태를 식별하는 전자 장치 및 그 운용 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008053826A (ja) * 2006-08-22 2008-03-06 Oki Electric Ind Co Ltd 電話応答システム
US8370145B2 (en) * 2007-03-29 2013-02-05 Panasonic Corporation Device for extracting keywords in a conversation
US8620658B2 (en) 2007-04-16 2013-12-31 Sony Corporation Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition
JP5042799B2 (ja) * 2007-04-16 2012-10-03 ソニー株式会社 音声チャットシステム、情報処理装置およびプログラム
US20100177116A1 (en) 2009-01-09 2010-07-15 Sony Ericsson Mobile Communications Ab Method and arrangement for handling non-textual information
KR101274471B1 (ko) 2009-08-31 2013-06-13 에스케이플래닛 주식회사 영상통화 중 감정 전달 시스템 및 방법
JP5267450B2 (ja) * 2009-12-28 2013-08-21 株式会社デンソー 電子機器及びプログラム
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
KR20120108485A (ko) 2011-03-24 2012-10-05 이민지 감정표현 문자메시지 디스플레이 방법
US20150046371A1 (en) * 2011-04-29 2015-02-12 Cbs Interactive Inc. System and method for determining sentiment from text content
JP5436494B2 (ja) * 2011-06-09 2014-03-05 京セラ株式会社 通信機器および文字メッセージ分析方法
CN102307292A (zh) 2011-09-01 2012-01-04 宇龙计算机通信科技(深圳)有限公司 一种可视通话方法及可视终端
US9870552B2 (en) * 2011-10-19 2018-01-16 Excalibur Ip, Llc Dynamically updating emoticon pool based on user targeting
KR101951761B1 (ko) * 2012-01-27 2019-02-25 라인 가부시키가이샤 모바일 환경에서 제공되는 서비스에서 아바타를 제공하는 아바타 서비스 시스템 및 방법
CN102662961B (zh) * 2012-03-08 2015-04-08 北京百舜华年文化传播有限公司 一种语义与图像匹配处理方法、装置及终端设备
KR101401503B1 (ko) 2012-03-14 2014-06-09 심플렉스 인터넷 주식회사 사용자 음성 기반의 서비스 제공 시스템, 방법 및 장치
CN102664825A (zh) * 2012-04-18 2012-09-12 上海量明科技发展有限公司 通过即时通信工具实现镜子功能的方法及客户端
US9247306B2 (en) * 2012-05-21 2016-01-26 Intellectual Ventures Fund 83 Llc Forming a multimedia product using video chat
CN102842033A (zh) 2012-08-17 2012-12-26 苏州两江科技有限公司 基于人脸识别进行人物表情情感语义识别方法
US20140070965A1 (en) * 2012-09-12 2014-03-13 Honeywell International Inc. Systems and methods for shared situational awareness using telestration
US9105042B2 (en) * 2013-02-07 2015-08-11 Verizon Patent And Licensing Inc. Customer sentiment analysis using recorded conversation
IL226047A (en) * 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
CN103886632A (zh) 2014-01-06 2014-06-25 宇龙计算机通信科技(深圳)有限公司 用户表情头像的生成方法及通信终端
CN103823561B (zh) * 2014-02-27 2017-01-18 广州华多网络科技有限公司 表情输入方法和装置
US9576175B2 (en) * 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
US20160191958A1 (en) * 2014-12-26 2016-06-30 Krush Technologies, Llc Systems and methods of providing contextual features for digital communication

Also Published As

Publication number Publication date
CN105519047B (zh) 2020-07-21
WO2016000219A1 (zh) 2016-01-07
KR101870849B1 (ko) 2018-06-25
JP2017522626A (ja) 2017-08-10
US20170154210A1 (en) 2017-06-01
EP3110078A4 (en) 2017-03-08
US10387717B2 (en) 2019-08-20
KR20160132955A (ko) 2016-11-21
CN105519047A (zh) 2016-04-20
EP3110078A1 (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6289662B2 (ja) 情報送信方法及び送信装置
CN109379641B (zh) 一种字幕生成方法和装置
US10210002B2 (en) Method and apparatus of processing expression information in instant communication
US20150281142A1 (en) Hot Topic Pushing Method and Apparatus
CN110730952B (zh) 处理网络上的音频通信的方法和***
CN107977928B (zh) 表情生成方法、装置、终端及存储介质
CN107085495B (zh) 一种信息展示方法、电子设备及存储介质
US9087131B1 (en) Auto-summarization for a multiuser communication session
CN110719525A (zh) 弹幕表情包的生成方法、电子设备和可读存储介质
US11900683B2 (en) Setting ad breakpoints in a video within a messaging system
CN108304368B (zh) 文本信息的类型识别方法和装置及存储介质和处理器
US11792491B2 (en) Inserting ads into a video within a messaging system
JP2012113589A (ja) 行動促進装置、行動促進方法およびプログラム
US11856255B2 (en) Selecting ads for a video within a messaging system
US10902301B2 (en) Information processing device and non-transitory computer readable medium storing information processing program
US20160154959A1 (en) A method and system for monitoring website defacements
US20180158457A1 (en) Dialog agent, reply sentence generation method, and non-transitory computer-readable recording medium
JP6690442B2 (ja) プレゼンテーション支援装置、プレゼンテーション支援システム、プレゼンテーション支援方法及びプレゼンテーション支援プログラム
CN110221710A (zh) 一种键盘输入方法、装置、电子设备及存储介质
CN107222398B (zh) 社交消息控制方法、装置、存储介质和计算机设备
JP2015146550A (ja) 情報処理装置、情報処理方法、及びプログラム
CN114564952A (zh) 一种文本标题生成方法、装置、设备及介质
US20230318992A1 (en) Smart media overlay selection for a messaging system
CN117812375A (zh) 面向直播场景的视频渲染方法、装置和电子设备
JP2017211546A (ja) 雑談検出装置、画像表示システム、雑談検出方法及び雑談検出プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250