JP6289662B2 - 情報送信方法及び送信装置 - Google Patents
情報送信方法及び送信装置 Download PDFInfo
- Publication number
- JP6289662B2 JP6289662B2 JP2016558101A JP2016558101A JP6289662B2 JP 6289662 B2 JP6289662 B2 JP 6289662B2 JP 2016558101 A JP2016558101 A JP 2016558101A JP 2016558101 A JP2016558101 A JP 2016558101A JP 6289662 B2 JP6289662 B2 JP 6289662B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- session
- detecting
- trigger condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000007613 environmental effect Effects 0.000 claims description 101
- 230000008451 emotion Effects 0.000 claims description 50
- 230000005540 biological transmission Effects 0.000 claims description 49
- 230000008921 facial expression Effects 0.000 claims description 42
- 230000001815 facial effect Effects 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 102
- 230000004044 response Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/434—Query formulation using image data, e.g. images, photos, pictures taken by a user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/18—Commands or executable codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Psychiatry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Hospice & Palliative Care (AREA)
- Acoustics & Sound (AREA)
- Child & Adolescent Psychology (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
Description
端末とピア端末との間でセッションを開始する段階と、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
情報がトリガ条件を満たす場合、画像を取得し、ピア端末に画像を送信する段階とを含む。セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を含み、
画像を取得する段階は、顔文字画像を取得する段階を含む。
画像を取得する段階は、顔文字画像を取得する段階、又は、キーワードに対応する画像を取得する段階、又は、環境背景画像を取得する段階を含む。
ユーザの現在の表情を取り込む段階と、
表情に応じた顔文字画像を取得する段階とを含む。
表情に対応する感情を分析する段階と、
感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、当該顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階を含む。
キーワードに応じた画像を検索する段階と、
見つけ出された画像に応じて、キーワードに対応する画像を取得する段階とを含む。
温度、湿度、又は風力である環境パラメータを取得する段階と、
環境パラメータに応じた環境状況を取得する段階と、
環境状況に応じた環境背景画像を取得する段階とを含む。
ユーザの現在の地理的位置を取得する段階と、
地理的位置に応じた天候状況を取得する段階と、
天候状況に応じた環境背景画像を取得する段階とを含む。
セッションにおいてテキスト情報と画像とを結合する段階を含む。
キーワードに対応する画像又は顔文字画像をテキスト情報に挿入する段階を含む。
セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用する段階を含む。
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニットと、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニットと、
当該情報がトリガ条件を満たす場合、画像を取得し、ピア端末に当該画像を送信するよう構成された画像取得ユニットとを含み、セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
画像取得ユニットは更に、ユーザの表情を取り込むよう構成されている。
画像取得ユニットは更に、顔文字画像を取得するよう構成されている、又は、キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている。
第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
第1の画像取得サブユニットは更に、表情に応じた顔文字画像を取得するよう構成されている。
第1の画像取得サブユニットは更に、感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像取得するよう構成されている。
第3の画像取得サブユニットは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
第4の画像取得サブユニットは更に、地理的位置に応じた天候状況を取得するよう構成され、
第4の画像取得サブユニットは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
端末とピア端末との間でセッションを開始するよう構成され、
更に、セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、当該情報がトリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
画像をピア端末に送信するよう構成された送信機とを含む。
セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
プロセッサは更に、顔文字画像を取得するよう構成されている。
プロセッサは更に、顔文字画像を取得する、又はキーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている。
プロセッサは更に、キーワードに対応する画像を表情に応じて取得するよう構成されている。
プロセッサは更に、感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
プロセッサは更に、見つけ出された画像に応じてキーワードに対応する画像を取得するよう構成されている。
プロセッサは更に、環境パラメータに応じた環境状況を取得するよう構成され、
プロセッサは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
プロセッサは更に、地理的位置に応じた天候状況を取得するよう構成され、
プロセッサは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を含み、画像を取得する段階は、顔文字画像を取得する段階を含む。
ユーザの現在の表情を取り込む段階と、
表情に応じた顔文字画像を取得する段階とを含む。
表情に対応する感情を分析する段階と、
感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得する段階とを含む。
キーワードに応じた画像を検索する段階と、
見つけ出された画像に応じてキーワードに対応する画像を取得する段階とを含む。
温度、湿度、又は風力である環境パラメータを取得する段階と、
環境パラメータに応じた環境状況を取得する段階と、
環境状況に応じた環境背景画像を取得する段階とを含む。
ユーザの現在の地理的位置を取得する段階と、
地理的位置に応じた天候状況を取得する段階と、
天候状況に応じた環境背景画像を取得する段階とを含む。
キーワードに対応する画像又は顔文字画像をテキスト情報に挿入する段階を含む。
セッションにおいてテキスト情報を表示し、セッションの背景として環境背景画像を使用する段階を含む。
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニット501と、
セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニット502と、
情報がトリガ条件を満たす場合、画像を取得し、当該画像をピア端末に送信するよう構成された画像取得ユニット503とを含む。セッションにおいて送信された当該情報は、テキスト情報又は音声情報を含む。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを含み、
画像取得ユニット503は、ユーザの表情を取り込むよう構成された第1の取得サブユニットを含む。
画像取得ユニット503は更に、顔文字画像を取得するよう構成されている、又は、キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている。
第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
第1の画像取得サブユニットは更に、表情に応じた顔文字画像を取得するよう構成されている。
第1の画像取得サブユニットは更に、その感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、その感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
第3の画像取得サブユニットは更に、環境パラメータに応じた環境状況を取得するよう構成され、
第3の画像取得サブユニットは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
第4の画像取得サブユニットは更に、地理的位置に応じた天候状況を取得するよう構成され、
第4の画像取得サブユニットは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
端末とピア端末との間でセッションを開始するよう構成され、
更に、セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、当該情報がトリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
ピア端末に当該画像を送信するよう構成された送信機とを含み、
セッションにおいて送信された情報は、テキスト情報又は音声情報を含む。
音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、又は、音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出すること、又は、音声情報におけるキーワードを検出することを含み、
プロセッサは更に、顔文字画像を取得するよう構成されている。
プロセッサは更に、顔文字画像を取得する、又は、キーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている。
プロセッサは更に、キーワードに対応する画像を表情に応じて取得するよう構成されている。
プロセッサは更に、感情に対応する漫画形態の顔文字画像を取得する、又は、感情に対応する顔の特徴を感情に応じて生成し、予め設定された顔画像に顔の特徴を追加して顔文字画像を取得するよう構成されている。
プロセッサは更に、見つけ出された画像に応じてキーワードに対応する画像を取得するよう構成されている。
プロセッサは更に、環境パラメータに応じた環境状況を取得するよう構成され、
プロセッサは更に、環境状況に応じた環境背景画像を取得するよう構成されている。
プロセッサは更に、地理的位置に応じた天候状況を取得するよう構成され、
プロセッサは更に、天候状況に応じた環境背景画像を取得するよう構成されている。
[項目1]
端末とピア端末との間でセッションを開始する段階と、
上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
上記送信された情報が上記トリガ条件を満たす場合、画像を取得し、上記画像を上記ピア端末に送信する段階と、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のための方法。
[項目2]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出する上記段階は、
上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を有し、
画像を取得する上記段階は、顔文字画像を取得する段階を有する、項目1に記載の方法。
[項目3]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出する上記段階は、上記テキスト情報においてキーワードを検出する段階、又は、上記音声情報においてキーワードを検出する段階を有し、
画像を取得する上記段階は、顔文字画像を取得する段階、上記キーワードに対応する画像を取得する段階、又は、環境背景画像を取得する段階を有する、項目1に記載の方法。
[項目4]
顔文字画像を取得する上記段階が実行される場合、顔文字画像を取得する上記段階は、
ユーザの現在の表情を取り込む段階と、
上記表情に応じた顔文字画像を取得する段階と
を含む、項目2又は3に記載の方法。
[項目5]
上記表情に応じた顔文字画像を取得する上記段階は、
上記表情に対応する感情を分析する段階と、
上記感情に対応する漫画形態の顔文字画像を取得する、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、上記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階と
を含む、項目4に記載の方法。
[項目6]
上記キーワードに対応する画像を取得する上記段階が実行される場合、上記キーワードに対応する画像を取得する上記段階は、
上記キーワードに応じた画像を検索する段階と、
上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得する段階と
を含む、項目3に記載の方法。
[項目7]
環境背景画像を取得する上記段階が実行される場合、環境背景画像を取得する上記段階は、
温度、湿度、又は風力である環境パラメータを取得する段階と、
上記環境パラメータに応じた環境状況を取得する段階と、
上記環境状況に応じた上記環境背景画像を取得する段階と
を含む、項目3に記載の方法。
[項目8]
環境背景画像を取得する上記段階が実行される場合、環境背景画像を取得する上記段階は、
ユーザの現在の地理的位置を取得する段階と、
上記地理的位置に応じた天候状況を取得する段階と、
上記天候状況に応じた上記環境背景画像を取得する段階と
を含む、項目3に記載の方法。
[項目9]
上記送信された情報がテキスト情報である場合、画像を取得する上記段階の後、
上記セッションにおいて上記テキスト情報と上記画像とを結合する段階を更に備える項目3に記載の方法。
[項目10]
上記セッションにおいて上記テキスト情報と上記画像とを結合する上記段階は、上記キーワードに対応する上記画像又は上記顔文字画像を上記テキスト情報に挿入する段階を有する、項目9に記載の方法。
[項目11]
上記テキスト情報と上記画像とを結合する上記段階は、
上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用する段階を有する、項目9に記載の方法。
[項目12]
端末とピア端末との間でセッションを開始するよう構成されたセッション開始ユニットと、
上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成された検出ユニットと、
上記情報が上記トリガ条件を満たす場合、画像を取得し、上記画像を上記ピア端末に送信するよう構成された画像取得ユニットと、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のための装置。
[項目13]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、
上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを有し、
上記画像取得ユニットは更に、顔文字画像を取得するよう構成されている、項目12に記載の装置。
[項目14]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記テキスト情報においてキーワードを検出すること、又は、上記音声情報においてキーワードを検出することを含み、
上記画像取得ユニットは更に、顔文字画像を取得するよう構成されている、上記キーワードに対応する画像を取得するよう構成されている、又は、環境背景画像を取得するよう構成されている、項目12に記載の装置。
[項目15]
顔文字画像を取得するよう構成された場合、上記画像取得ユニットは、顔文字画像を取得するよう構成された第1の画像取得ユニットを有し、
上記第1の画像取得サブユニットは更に、ユーザの現在の表情を取り込むよう構成され、
上記第1の画像取得サブユニットは更に、上記表情に応じた顔文字画像を取得するよう構成されている、項目13又は14に記載の装置。
[項目16]
上記第1の画像取得サブユニットは更に、上記表情に対応する感情を分析するよう構成され、
上記第1の画像取得サブユニットは更に、上記感情に対応する漫画形態の顔文字画像を取得するよう構成されている、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、予め設定された顔画像に上記顔の特徴を追加して顔文字画像を取得するよう構成されている、項目15に記載の装置。
[項目17]
上記キーワードに対応する画像を取得するよう構成された場合、上記画像取得ユニットは更に、上記キーワードに応じた画像を検索するよう構成された第2の画像取得サブユニットを有し、
上記第2の画像取得サブユニットは更に、上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得するよう構成されている、項目14に記載の装置。
[項目18]
環境背景画像を取得するよう構成された場合、上記画像取得ユニットは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成された第3の画像取得サブユニットを有し、
上記第3の画像取得サブユニットは更に、上記環境パラメータに応じた環境状況を取得するよう構成され、
上記第3の画像取得サブユニットは更に、上記環境状況に応じた上記環境背景画像を取得するよう構成されている、項目14に記載の装置。
[項目19]
環境背景画像を取得するよう構成された場合、上記画像取得ユニットは更に、ユーザの地理的位置を取得するよう構成された第4の画像取得サブユニットを有し、
上記第4の画像取得サブユニットは更に、上記地理的位置に応じた天候状況を取得するよう構成され、
上記第4の画像取得サブユニットは更に、上記天候状況に応じた上記環境背景画像を取得するよう構成されている、項目14に記載の装置。
[項目20]
更に、上記送信された情報が上記テキスト情報である場合、上記画像の取得後に、上記セッションにおいて上記テキスト情報と上記画像とを結合するよう構成された結合ユニットを備える項目14に記載の装置。
[項目21]
上記結合ユニットは、上記キーワードに対応する上記画像を上記テキスト情報に挿入するよう構成された第1の結合サブユニットを有する、項目20に記載の装置。
[項目22]
上記結合ユニットは更に、上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用するよう構成された第2の結合サブユニットを有する、項目14に記載の装置。
[項目23]
端末とピア端末との間でセッションを開始するよう構成され、
更に、上記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出するよう構成され、
更に、上記情報が上記トリガ条件を満たす場合、画像を取得するよう構成されたプロセッサと、
上記画像を上記ピア端末に送信するよう構成された送信機と、
を備え、上記セッションにおいて送信された上記情報は、テキスト情報又は音声情報を含む、情報送信のためのデバイス。
[項目24]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、上記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、上記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出すること、又は、上記音声情報においてキーワードを検出することを備え、
上記プロセッサは更に、顔文字画像を取得するよう構成されている、項目23に記載のデバイス。
[項目25]
上記セッションにおいて送信された上記情報が上記トリガ条件を満たすことを検出することは、上記テキスト情報においてキーワードを検出すること、又は、上記音声情報においてキーワードを検出することを有し、
上記プロセッサは更に、顔文字画像を取得する、上記キーワードに対応する画像を取得する、又は、環境背景画像を取得するよう構成されている、項目23に記載のデバイス。
[項目26]
上記顔文字画像の取得が実行される場合、上記デバイスは更に、上記プロセッサの制御のもと、ユーザの表情を取り込むよう構成されたカメラを備え、
上記プロセッサは更に、上記キーワードに対応する画像を上記表情に応じて取得するよう構成されている、項目24又は25に記載のデバイス。
[項目27]
上記プロセッサは更に、上記表情に対応する感情を分析するよう構成され、
上記プロセッサは更に、上記感情に対応する漫画形態の顔文字画像を取得する、又は、上記感情に対応する顔の特徴を上記感情に応じて生成し、上記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得するよう構成されている、項目26に記載のデバイス。
[項目28]
上記キーワードに対応する画像の取得が実行される場合、上記プロセッサは更に、上記キーワードに応じた画像を検索するよう構成され、
上記プロセッサは更に、上記キーワードに対応する画像を、見つけ出された上記画像に応じて取得するよう構成されている、項目25に記載のデバイス。
[項目29]
上記環境背景画像の取得が実行される場合、上記プロセッサは更に、温度、湿度、又は風力である環境パラメータを取得するよう構成され、
上記プロセッサは更に、上記環境パラメータに応じた環境状況を取得するよう構成され、
上記プロセッサは更に、上記環境状況に応じた上記環境背景画像を取得するよう構成されている、項目25に記載のデバイス。
[項目30]
上記環境背景画像の取得が実行される場合、上記プロセッサは更に、ユーザの地理的位置を取得するよう構成され、
上記プロセッサは更に、上記地理的位置に応じた天候状況を取得するよう構成され、
上記プロセッサは更に、上記天候状況に応じた上記環境背景画像を取得するよう構成されている、項目25に記載のデバイス。
[項目31]
上記送信された情報が上記テキスト情報である場合、上記プロセッサは更に、上記画像の取得後、上記セッションにおいて上記テキスト情報と上記画像とを結合するよう構成されている、項目25に記載のデバイス。
[項目32]
上記プロセッサは更に、上記キーワードに対応する上記画像を上記テキスト情報に挿入するよう構成されている、項目31に記載のデバイス。
[項目33]
上記プロセッサは更に、上記セッションにおいて上記テキスト情報を表示し、上記セッションの背景として上記環境背景画像を使用するよう構成されている、項目31に記載のデバイス。
Claims (17)
- 端末とピア端末との間でセッションを開始する段階と、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
を備え、前記セッションにおいて送信された前記情報は、音声情報を含み、
前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
前記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出する段階、前記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出する段階、前記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出する段階、又は、前記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出する段階を有する、
情報送信のための方法。 - 画像を取得する前記段階は、顔文字画像を取得する段階を有する、請求項1に記載の方法。
- 端末とピア端末との間でセッションを開始する段階と、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
画像を取得する前記段階は、
ユーザの現在の表情を取り込む段階と、
前記表情に応じた前記画像を取得する段階と
を含む、
情報送信のための方法。 - 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
前記テキスト情報においてキーワードを検出する段階、又は、前記音声情報においてキーワードを検出する段階を有し、
画像を取得する前記段階は、顔文字画像を取得する段階を有し、
顔文字画像を取得する前記段階は、
前記表情に応じた顔文字画像を取得する段階を含む、
請求項3に記載の方法。 - 端末とピア端末との間でセッションを開始する段階と、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
画像を取得する前記段階は、
温度、湿度、又は風力である環境パラメータを取得する段階と、
前記環境パラメータに応じた環境状況を取得する段階と、
前記環境状況に応じた前記画像を取得する段階と
を含む、
情報送信のための方法。 - 端末とピア端末との間でセッションを開始する段階と、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する段階と、
前記送信された情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する段階と、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
画像を取得する前記段階は、
ユーザの現在の地理的位置を取得する段階と、
前記地理的位置に応じた天候状況を取得する段階と、
前記天候状況に応じた前記画像を取得する段階と
を含む、
情報送信のための方法。 - 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出する前記段階は、
前記テキスト情報においてキーワードを検出する段階、又は、前記音声情報においてキーワードを検出する段階を有し、
画像を取得する前記段階は、前記画像として環境背景画像を取得する段階を有する、請求項5または6に記載の方法。 - 前記表情に応じた顔文字画像を取得する前記段階は、
前記表情に対応する感情を分析する段階と、
前記感情に対応する漫画形態の顔文字画像を取得する、又は、前記感情に対応する顔の特徴を前記感情に応じて生成し、前記顔の特徴を予め設定された顔画像に追加して顔文字画像を取得する段階と
を含む、請求項4に記載の方法。 - 前記送信された情報がテキスト情報である場合、画像を取得する前記段階の後、
前記セッションにおいて前記テキスト情報と前記画像とを結合する段階を更に備える請求項7に記載の方法。 - 前記テキスト情報と前記画像とを結合する前記段階は、
前記セッションにおいて前記テキスト情報を表示し、前記セッションの背景として前記環境背景画像を使用する段階を有する、請求項9に記載の方法。 - 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
を備え、前記セッションにおいて送信された前記情報は、音声情報を含み、
前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出することは、
前記音声情報における話速が第1閾値より大きい又はそれに等しいことを検出すること、前記音声情報における話速が第2閾値より小さい又はそれに等しいことを検出すること、前記音声情報におけるイントネーションが第3閾値より大きい又はそれに等しいことを検出すること、又は、前記音声情報におけるイントネーションが第4閾値より小さい又はそれに等しいことを検出することを有する、
情報送信のための装置。 - 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
前記画像取得ユニットは、
ユーザの現在の表情を取り込み、
前記表情に応じた前記画像を取得する、
情報送信のための装置。 - 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
前記画像取得ユニットは、
温度、湿度、又は風力である環境パラメータを取得し、
前記環境パラメータに応じた環境状況を取得し、
前記環境状況に応じた前記画像を取得する、
情報送信のための装置。 - 端末とピア端末との間でセッションを開始するセッション開始ユニットと、
前記セッションにおいて送信された情報がトリガ条件を満たすかどうかを検出する検出ユニットと、
前記情報が前記トリガ条件を満たす場合、画像を取得し、前記画像を前記ピア端末に送信する画像取得ユニットと、
を備え、前記セッションにおいて送信された前記情報は、テキスト情報又は音声情報を含み、
前記画像取得ユニットは、
ユーザの現在の地理的位置を取得し、
前記地理的位置に応じた天候状況を取得し、
前記天候状況に応じた前記画像を取得する、
情報送信のための装置。 - 前記画像取得ユニットは、顔文字画像を取得する、請求項12に記載の装置。
- 前記セッションにおいて送信された前記情報が前記トリガ条件を満たすことを検出することは、前記テキスト情報においてキーワードを検出すること、又は、前記音声情報においてキーワードを検出することを含み、
前記画像取得ユニットは、環境背景画像を取得する、請求項13または14に記載の装置。 - 前記画像取得ユニットは、顔文字画像を取得する第1の画像取得サブユニットを有し、
前記第1の画像取得サブユニットは、前記ユーザの前記現在の表情を取り込み、
前記第1の画像取得サブユニットは、前記表情に応じた前記顔文字画像を取得する、請求項15に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/081457 WO2016000219A1 (zh) | 2014-07-02 | 2014-07-02 | 信息传输方法及传输装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017522626A JP2017522626A (ja) | 2017-08-10 |
JP6289662B2 true JP6289662B2 (ja) | 2018-03-07 |
Family
ID=55018298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016558101A Active JP6289662B2 (ja) | 2014-07-02 | 2014-07-02 | 情報送信方法及び送信装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10387717B2 (ja) |
EP (1) | EP3110078A4 (ja) |
JP (1) | JP6289662B2 (ja) |
KR (1) | KR101870849B1 (ja) |
CN (1) | CN105519047B (ja) |
WO (1) | WO2016000219A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3067884B1 (en) * | 2015-03-13 | 2019-05-08 | Samsung Electronics Co., Ltd. | Speech recognition system and speech recognition method thereof |
CN107092664B (zh) * | 2017-03-30 | 2020-04-28 | 华为技术有限公司 | 一种内容解释方法及装置 |
CN107193571A (zh) * | 2017-05-31 | 2017-09-22 | 广东欧珀移动通信有限公司 | 界面推送的方法、移动终端及存储介质 |
KR20190076273A (ko) | 2017-12-22 | 2019-07-02 | 한동대학교 산학협력단 | 컨볼루션 신경망 기반의 검색 이미지 정렬 방법 |
JP6993314B2 (ja) * | 2018-11-09 | 2022-01-13 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
KR20210041757A (ko) | 2019-10-08 | 2021-04-16 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11521340B2 (en) | 2020-02-28 | 2022-12-06 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Emoticon package generation method and apparatus, device and medium |
CN111353064B (zh) * | 2020-02-28 | 2023-06-13 | 北京百度网讯科技有限公司 | 表情包生成方法、装置、设备和介质 |
JP6899940B1 (ja) * | 2020-03-30 | 2021-07-07 | 株式会社エヌ・ティ・ティ・データ | 簡易通信システム、簡易通信方法、及びプログラム |
CN112235180A (zh) * | 2020-08-29 | 2021-01-15 | 上海量明科技发展有限公司 | 语音消息处理方法、设备及即时通信客户端 |
KR102482689B1 (ko) * | 2020-09-17 | 2022-12-29 | 주식회사 비밀리 | 대화형 이모티콘 생성 장치 및 방법 |
CN112511407B (zh) * | 2020-10-30 | 2022-04-29 | 国网山东省电力公司泰安供电公司 | 自适应语音播放方法和*** |
KR20220103382A (ko) * | 2021-01-15 | 2022-07-22 | 삼성전자주식회사 | 감정 상태를 식별하는 전자 장치 및 그 운용 방법 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008053826A (ja) * | 2006-08-22 | 2008-03-06 | Oki Electric Ind Co Ltd | 電話応答システム |
US8370145B2 (en) * | 2007-03-29 | 2013-02-05 | Panasonic Corporation | Device for extracting keywords in a conversation |
US8620658B2 (en) | 2007-04-16 | 2013-12-31 | Sony Corporation | Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition |
JP5042799B2 (ja) * | 2007-04-16 | 2012-10-03 | ソニー株式会社 | 音声チャットシステム、情報処理装置およびプログラム |
US20100177116A1 (en) | 2009-01-09 | 2010-07-15 | Sony Ericsson Mobile Communications Ab | Method and arrangement for handling non-textual information |
KR101274471B1 (ko) | 2009-08-31 | 2013-06-13 | 에스케이플래닛 주식회사 | 영상통화 중 감정 전달 시스템 및 방법 |
JP5267450B2 (ja) * | 2009-12-28 | 2013-08-21 | 株式会社デンソー | 電子機器及びプログラム |
US9848106B2 (en) * | 2010-12-21 | 2017-12-19 | Microsoft Technology Licensing, Llc | Intelligent gameplay photo capture |
KR20120108485A (ko) | 2011-03-24 | 2012-10-05 | 이민지 | 감정표현 문자메시지 디스플레이 방법 |
US20150046371A1 (en) * | 2011-04-29 | 2015-02-12 | Cbs Interactive Inc. | System and method for determining sentiment from text content |
JP5436494B2 (ja) * | 2011-06-09 | 2014-03-05 | 京セラ株式会社 | 通信機器および文字メッセージ分析方法 |
CN102307292A (zh) | 2011-09-01 | 2012-01-04 | 宇龙计算机通信科技(深圳)有限公司 | 一种可视通话方法及可视终端 |
US9870552B2 (en) * | 2011-10-19 | 2018-01-16 | Excalibur Ip, Llc | Dynamically updating emoticon pool based on user targeting |
KR101951761B1 (ko) * | 2012-01-27 | 2019-02-25 | 라인 가부시키가이샤 | 모바일 환경에서 제공되는 서비스에서 아바타를 제공하는 아바타 서비스 시스템 및 방법 |
CN102662961B (zh) * | 2012-03-08 | 2015-04-08 | 北京百舜华年文化传播有限公司 | 一种语义与图像匹配处理方法、装置及终端设备 |
KR101401503B1 (ko) | 2012-03-14 | 2014-06-09 | 심플렉스 인터넷 주식회사 | 사용자 음성 기반의 서비스 제공 시스템, 방법 및 장치 |
CN102664825A (zh) * | 2012-04-18 | 2012-09-12 | 上海量明科技发展有限公司 | 通过即时通信工具实现镜子功能的方法及客户端 |
US9247306B2 (en) * | 2012-05-21 | 2016-01-26 | Intellectual Ventures Fund 83 Llc | Forming a multimedia product using video chat |
CN102842033A (zh) | 2012-08-17 | 2012-12-26 | 苏州两江科技有限公司 | 基于人脸识别进行人物表情情感语义识别方法 |
US20140070965A1 (en) * | 2012-09-12 | 2014-03-13 | Honeywell International Inc. | Systems and methods for shared situational awareness using telestration |
US9105042B2 (en) * | 2013-02-07 | 2015-08-11 | Verizon Patent And Licensing Inc. | Customer sentiment analysis using recorded conversation |
IL226047A (en) * | 2013-04-29 | 2017-12-31 | Hershkovitz Reshef May | A method and system for giving personal expressions |
CN103886632A (zh) | 2014-01-06 | 2014-06-25 | 宇龙计算机通信科技(深圳)有限公司 | 用户表情头像的生成方法及通信终端 |
CN103823561B (zh) * | 2014-02-27 | 2017-01-18 | 广州华多网络科技有限公司 | 表情输入方法和装置 |
US9576175B2 (en) * | 2014-05-16 | 2017-02-21 | Verizon Patent And Licensing Inc. | Generating emoticons based on an image of a face |
US20160191958A1 (en) * | 2014-12-26 | 2016-06-30 | Krush Technologies, Llc | Systems and methods of providing contextual features for digital communication |
-
2014
- 2014-07-02 JP JP2016558101A patent/JP6289662B2/ja active Active
- 2014-07-02 KR KR1020167028327A patent/KR101870849B1/ko active IP Right Grant
- 2014-07-02 EP EP14896798.7A patent/EP3110078A4/en not_active Ceased
- 2014-07-02 WO PCT/CN2014/081457 patent/WO2016000219A1/zh active Application Filing
- 2014-07-02 US US15/129,148 patent/US10387717B2/en active Active
- 2014-07-02 CN CN201480046619.4A patent/CN105519047B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105519047B (zh) | 2020-07-21 |
WO2016000219A1 (zh) | 2016-01-07 |
KR101870849B1 (ko) | 2018-06-25 |
JP2017522626A (ja) | 2017-08-10 |
US20170154210A1 (en) | 2017-06-01 |
EP3110078A4 (en) | 2017-03-08 |
US10387717B2 (en) | 2019-08-20 |
KR20160132955A (ko) | 2016-11-21 |
CN105519047A (zh) | 2016-04-20 |
EP3110078A1 (en) | 2016-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6289662B2 (ja) | 情報送信方法及び送信装置 | |
CN109379641B (zh) | 一种字幕生成方法和装置 | |
US10210002B2 (en) | Method and apparatus of processing expression information in instant communication | |
US20150281142A1 (en) | Hot Topic Pushing Method and Apparatus | |
CN110730952B (zh) | 处理网络上的音频通信的方法和*** | |
CN107977928B (zh) | 表情生成方法、装置、终端及存储介质 | |
CN107085495B (zh) | 一种信息展示方法、电子设备及存储介质 | |
US9087131B1 (en) | Auto-summarization for a multiuser communication session | |
CN110719525A (zh) | 弹幕表情包的生成方法、电子设备和可读存储介质 | |
US11900683B2 (en) | Setting ad breakpoints in a video within a messaging system | |
CN108304368B (zh) | 文本信息的类型识别方法和装置及存储介质和处理器 | |
US11792491B2 (en) | Inserting ads into a video within a messaging system | |
JP2012113589A (ja) | 行動促進装置、行動促進方法およびプログラム | |
US11856255B2 (en) | Selecting ads for a video within a messaging system | |
US10902301B2 (en) | Information processing device and non-transitory computer readable medium storing information processing program | |
US20160154959A1 (en) | A method and system for monitoring website defacements | |
US20180158457A1 (en) | Dialog agent, reply sentence generation method, and non-transitory computer-readable recording medium | |
JP6690442B2 (ja) | プレゼンテーション支援装置、プレゼンテーション支援システム、プレゼンテーション支援方法及びプレゼンテーション支援プログラム | |
CN110221710A (zh) | 一种键盘输入方法、装置、电子设备及存储介质 | |
CN107222398B (zh) | 社交消息控制方法、装置、存储介质和计算机设备 | |
JP2015146550A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN114564952A (zh) | 一种文本标题生成方法、装置、设备及介质 | |
US20230318992A1 (en) | Smart media overlay selection for a messaging system | |
CN117812375A (zh) | 面向直播场景的视频渲染方法、装置和电子设备 | |
JP2017211546A (ja) | 雑談検出装置、画像表示システム、雑談検出方法及び雑談検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6289662 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |