JP6935421B2 - 情報の表示方法、デバイス、及びシステム - Google Patents
情報の表示方法、デバイス、及びシステム Download PDFInfo
- Publication number
- JP6935421B2 JP6935421B2 JP2018551862A JP2018551862A JP6935421B2 JP 6935421 B2 JP6935421 B2 JP 6935421B2 JP 2018551862 A JP2018551862 A JP 2018551862A JP 2018551862 A JP2018551862 A JP 2018551862A JP 6935421 B2 JP6935421 B2 JP 6935421B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- information
- user information
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/434—Query formulation using image data, e.g. images, photos, pictures taken by a user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
- G06F16/436—Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
- G06F16/7335—Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/735—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
Description
前記エンドデバイスは、リアルタイムに画像を取得し、前記画像を情報表示デバイスへ送信し、前記画像に含まれるユーザ画像に対応し前記情報表示デバイスにより返信された受信ARグラフィックデータに基づき、リアルタイムに取得された前記画像における対応するARグラフィックを表示するように構成され;前記ARグラフィックは前記ユーザ画像にリアルタイムで追従し;
前記情報表示デバイスは;前記エンドデバイスによりリアルタイムに取得される前記画像を受信し、前記画像に含まれるユーザ情報に対応する前記ARグラフィックデータを生成するよう構成されたARインテリジェントモジュールと;受信された前記画像に基づき、前記画像に含まれる前記ユーザ画像を特定し、前記ユーザ画像に対応するユーザ識別子を特定するように構成された認識検証モジュールと;特定した前記ユーザ識別子に対応する前記ユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得するように構成されたタグ管理モジュールと;前記ユーザ識別子に対応する履歴データを取得し、前記履歴データに基づき、確立されることになるマッピング関係における前記ユーザ情報と前記履歴データとの間の照合度を特定し、確立されることになる前記マッピング関係における前記ユーザ情報の第1の信頼度として前記照合度を用い、確立されることになる前記マッピング関係における前記ユーザ情報の前記第1の信頼度を記憶し、確立されることになる前記マッピング関係における前記ユーザ情報と、確立されることになる前記マッピング関係における前記ユーザ識別子との間の前記マッピング関係を確立するように構成されたビッグデータリスク制御モジュールと;記憶された各ユーザ情報に対し、当該ユーザ情報に対して特定の操作を行う他の複数のユーザを特定し、前記ユーザのレベルに基づき、前記他の複数のユーザの各々に対し、前記ユーザにより前記ユーザ情報に対して行われる前記特定の操作により生成されたスコアを特定し、前記他の複数のユーザの各々に対し特定された前記スコアに基づき、前記ユーザ情報の第2の信頼度を特定して記憶するよう構成された相互認証モジュールと;を含む。
[第1の局面]
情報表示方法であって:
エンドデバイスによりリアルタイムに取得され送信された画像を受信するステップと;
前記画像に含まれるユーザ画像を特定するステップと;
前記ユーザ画像に対応するユーザ識別子を特定するステップと;
特定した前記ユーザ識別子に対応するユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得するステップと;
取得した前記ユーザ情報に基づき前記ユーザ情報に対応するAR(Augmented reality:拡張現実)グラフィックデータを生成し、前記ARグラフィックデータを前記エンドデバイスへ返信するステップであって、前記ARグラフィックは前記ユーザ画像をリアルタイムに追従し、前記エンドデバイスが、リアルタイムに取得される前記画像における対応するARグラフィックを、前記受信したARグラフィックデータに基づいて表示する、前記返信するステップと;を備える、
情報表示方法。
[第2の局面]
前記エンドデバイスはARデバイスを備え、
前記ARデバイスは、少なくとも、ARメガネと、ARヘルメットと、AR機能を有する携帯電話と、AR機能を有するコンピュータと、AR機能を有するロボットとを備える、
第1の局面に記載の方法。
[第3の局面]
前記画像に含まれるユーザ画像を特定する前記ステップは、前記画像に含まれる前記ユーザ画像を抽出するため、前記画像に対してキャラクタ認識処理を行うステップを具体的に備える、
第1の局面又は第2の局面に記載の方法。
[第4の局面]
前記ユーザ画像に対応するユーザ識別子を特定する前記ステップは:
前記特定されたユーザ画像に基づき画像特徴を抽出するステップと;
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数のユーザ特徴から、抽出された前記画像特徴と照合するユーザ特徴を特定するステップと;
前記特定されたユーザ特徴に対応するユーザ識別子を、前記ユーザ画像に対応する前記ユーザ識別子として用いるステップと;を備える、
第1の局面又は第2の局面に記載の方法。
[第5の局面]
事前に記憶された前記複数のユーザ特徴が生体計測的特徴を備え、
前記生体計測的特徴が、顔面特徴と、指紋特徴と、掌紋特徴と、網膜特徴と、人体の輪郭の特徴と、歩容特徴と、声紋特徴とのうち少なくとも1つを備える、
第4の局面に記載の方法。
[第6の局面]
前記生体計測的特徴が前記顔面特徴を備える場合、エンドデバイスによりリアルタイムに取得され送信された画像を受信する前記ステップは:
前記エンドデバイスによりリアルタイムに取得され送信されたマルチフレーム画像を受信するステップを具体的に備え、
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数のユーザ特徴から、抽出された前記画像特徴と照合するユーザ特徴を特定する前記ステップは:
各フレーム画像におけるユーザ画像から顔面特徴を抽出するステップと;
抽出された前記顔面特徴に基づき3次元の顔面モデルを構築するステップと;
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数の3次元の顔面モデルから、構築された前記3次元の顔面モデルと照合する3次元の顔面モデルを特定するステップと;を具体的に備える、
第5の局面に記載の方法。
[第7の局面]
前記生体計測的特徴が前記歩容特徴を備える場合、エンドデバイスによりリアルタイムに取得され送信された画像を受信する前記ステップは:
前記エンドデバイスによりリアルタイムに取得され送信されたマルチフレーム画像を受信するステップを具体的に備え、
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数のユーザ特徴から、抽出された前記画像特徴と照合するユーザ特徴を特定する前記ステップは:
各フレーム画像におけるユーザ画像から歩容特徴を抽出するステップと;
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数の歩容特徴から、抽出された前記歩容特徴と照合する歩容特徴を特定するステップと;を具体的に備える、
第5の局面に記載の方法。
[第8の局面]
ユーザ識別子とユーザ情報との間のマッピング関係を事前に記憶することは:
ユーザのユーザ識別子に対して前記ユーザにより編集されたユーザ情報を受信し、前記ユーザの前記ユーザ識別子に対して前記ユーザにより編集された前記ユーザ情報に基づき、前記ユーザ識別子と前記ユーザ情報との間のマッピング関係を確立し記憶するステップ;又は、
第2のユーザ対して第1のユーザにより編集されたユーザ情報を受信し、前記第2のユーザ対して前記第1のユーザにより編集された前記ユーザ情報に基づき、前記第2のユーザのユーザ識別子と前記ユーザ情報との間のマッピング関係を確立し記憶するステップ;を具体的に備える、
第1の局面又は第2の局面に記載の方法。
[第9の局面]
ユーザ識別子とユーザ情報との間のマッピング関係を確立し記憶する前記ステップは:
前記ユーザ識別子に対応する履歴データを取得するステップと;
前記履歴データに基づき、確立されることになる前記マッピング関係における前記ユーザ情報と前記履歴データとの間の照合度を特定し、確立されることになる前記マッピング関係における前記ユーザ情報の第1の信頼度として前記照合度を用いるステップと;
確立されることになる前記マッピング関係における前記ユーザ情報の前記第1の信頼度を記憶し、確立されることになる前記マッピング関係における前記ユーザ情報と、確立されることになる前記マッピング関係における前記ユーザ識別子との間の前記マッピング関係を確立するステップと;を具体的に備える、
第8の局面に記載の方法。
[第10の局面]
記憶された各ユーザ情報に対し、当該ユーザ情報に対して特定の操作を行う他の複数のユーザを特定するステップと;
前記ユーザのレベルに基づき、前記他の複数のユーザの各々に対し、前記ユーザにより前記ユーザ情報に対して行われる前記特定の操作により生成されるスコアを特定するステップと;
前記他の複数のユーザの各々に対して特定された前記スコアに基づき、前記ユーザ情報の第2の信頼度を特定して記憶するステップと;を更に備え、
前記特定の操作は、フォローと、コメントの作成と、賞賛評価とのうち少なくとも1つを備え、
前記レベルが、アカウントレベルと、クレジットレベルと、注目度レベルとのうち少なくとも1つを備える、
第9の局面に記載の方法。
[第11の局面]
特定した前記ユーザ識別子に対応するユーザ情報を取得する前記ステップは:
ユーザ情報のトータルの信頼度を、前記ユーザ情報の記憶された第1の信頼度と第2の信頼度とに基づき特定するステップと;
前記トータルの信頼度に基づき、トータルの信頼度が所定の信頼度閾値以上である前記ユーザ情報を取得するステップと;を具体的に備える、
第10の局面に記載の方法。
[第12の局面]
特定した前記ユーザ識別子に対応するユーザ情報を取得する前記ステップは:
環境情報を取得するステップと;
前記環境情報に基づきサービスのシナリオを特定するステップと;
前記サービスのシナリオに基づき、前記サービスのシナリオと照合する前記ユーザ情報を取得するステップと;を更に備え、
前記環境情報は、ネットワーク情報と、位置情報と、地理的識別情報とのうち少なくとも1つを備える、
第11の局面に記載の方法。
[第13の局面]
前記第1のユーザに対応するユーザ識別子を特定するステップと;
前記第1のユーザにより編集された前記ユーザ情報と前記第1のユーザの前記ユーザ識別子との間の編集関係を記録し記憶するステップと;を更に備える、
第8の局面に記載の方法。
[第14の局面]
前記画像は、前記第1のユーザのエンドデバイスによりリアルタイムに取得され送信され;
特定した前記ユーザ識別子に対応するユーザ情報を取得する前記ステップは:
前記第2のユーザの前記ユーザ識別子に対応するユーザ情報を特定するステップと;
前記第2のユーザの前記ユーザ識別子に対応する前記ユーザ情報から前記第1のユーザの前記ユーザ識別子との間で前記編集関係にある前記ユーザ情報を取得するステップと;を備える、
第13の局面に記載の方法。
[第15の局面]
前記ユーザ情報に対応するARグラフィックデータを生成する前記ステップは:
前記ユーザ識別子に対応する前記ユーザ情報の前記トータルの信頼度に基づき前記ユーザ情報の表示状態パラメータを特定するステップと;
前記表示状態パラメータに基づき、前記ユーザ情報と前記ユーザ情報の表示状態パラメータとを備える前記ARグラフィックデータを生成するステップと;を備え、
前記表示状態パラメータが、色パラメータと、輝度パラメータと、サイズパラメータとのうち少なくとも1つを備える、
第11の局面に記載の方法。
[第16の局面]
情報表示方法であって:
画像をリアルタイムに取得し、前記画像をサーバへ送信するステップであって、前記画像はユーザ画像を備え、サーバが前記画像に含まれる前記ユーザ画像を特定し、前記ユーザ画像に対応するユーザ識別子を特定し、特定した前記ユーザ識別子に対応するユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得し、取得した前記ユーザ情報に基づき前記ユーザ情報に対応するARグラフィックデータを生成し、前記ARグラフィックデータをエンドデバイスへ返信する、前記送信するステップと;
前記ユーザ情報に対応し前記サーバにより返信された前記ARグラフィックデータを受信するステップと;
前記ARグラフィックデータに基づき、リアルタイムに取得された前記画像における対応するARグラフィックを表示するステップであって、前記ARグラフィックは前記ユーザ画像にリアルタイムで追従する、前記表示するステップと;を備える、
情報表示方法。
[第17の局面]
情報表示デバイスであって:
エンドデバイスによりリアルタイムに取得され送信された画像を受信するよう構成された受信モジュールと;
前記画像に含まれるユーザ画像を特定するように構成されたユーザ画像モジュールと;
前記ユーザ画像に対応するユーザ識別子を特定するように構成されたユーザ識別子モジュールと;
特定した前記ユーザ識別子に対応するユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得するように構成されたユーザ情報モジュールと;
取得した前記ユーザ情報に基づき前記ユーザ情報に対応するARグラフィックデータを生成し、前記ARグラフィックデータを前記エンドデバイスへ返信するように構成されたARモジュールであって、前記ARグラフィックは前記ユーザ画像にリアルタイムで追従し、前記エンドデバイスが、リアルタイムに取得された前記画像における対応するARグラフィックを、受信した前記ARグラフィックデータに基づき表示する、前記ARモジュールと;を備える、
情報表示デバイス。
[第18の局面]
前記エンドデバイスがARデバイスを備え、
前記ARデバイスが、少なくとも、ARメガネと、ARヘルメットと、AR機能を有する携帯電話と、AR機能を有するコンピュータと、AR機能を有するロボットとを備える、
第17の局面に記載のデバイス。
[第19の局面]
前記ユーザ画像モジュールは、前記画像に含まれる前記ユーザ画像を抽出するため、前記画像に対してキャラクタ認識処理を行うよう具体的に構成された、
第17の局面又は第18の局面に記載のデバイス。
[第20の局面]
前記ユーザ識別子モジュールは:
特定された前記ユーザ画像に基づき画像特徴を抽出し;
複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数のユーザ特徴から、抽出された前記画像特徴と照合するユーザ特徴を特定し;
特定された前記ユーザ特徴に対応するユーザ識別子を、前記ユーザ画像に対応する前記ユーザ識別子として用いるように具体的に構成された、
第17の局面又は第18の局面に記載のデバイス。
[第21の局面]
事前に記憶された前記複数のユーザ特徴が生体計測的特徴を備え、
前記生体計測的特徴は、顔面特徴と、指紋特徴と、掌紋特徴と、網膜特徴と、人体の輪郭の特徴と、歩容特徴と、声紋特徴とのうち少なくとも1つを備える、
第20の局面に記載のデバイス。
[第22の局面]
前記生体計測的特徴が前記顔面特徴を備える場合、前記受信モジュールは、前記エンドデバイスによりリアルタイムに取得され送信されたマルチフレーム画像を受信するように具体的に構成され、
前記ユーザ識別子モジュールは、各フレーム画像におけるユーザ画像から顔面特徴を抽出し、抽出された前記顔面特徴に基づき3次元の顔面モデルを構築し、複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数の3次元の顔面モデルから、構築された前記3次元の顔面モデルと照合する3次元の顔面モデルを特定するように具体的に構成された、
第21の局面に記載のデバイス。
[第23の局面]
前記生体計測的特徴が前記歩容特徴を備える場合、前記受信モジュールが、前記エンドデバイスによりリアルタイムに取得され送信されたマルチフレーム画像を受信するように具体的に構成され、
前記ユーザ識別子モジュールが、各フレーム画像におけるユーザ画像から歩容特徴を抽出し、複数のユーザ識別子にそれぞれ対応する、事前に記憶された複数の歩容特徴から、抽出された前記歩容特徴と照合する歩容特徴を特定するように具体的に構成された、
第21の局面に記載のデバイス。
[第24の局面]
前記ユーザ情報モジュールは:
ユーザのユーザ識別子に対して前記ユーザにより編集されたユーザ情報を受信し、前記ユーザの前記ユーザ識別子に対して前記ユーザにより編集された前記ユーザ情報に基づき、前記ユーザ識別子と前記ユーザ情報との間のマッピング関係を確立し記憶するように;又は、
第2のユーザ対して第1のユーザにより編集されたユーザ情報を受信し、前記第2のユーザ対して前記第1のユーザにより編集された前記ユーザ情報に基づき、前記第2のユーザのユーザ識別子と前記ユーザ情報との間のマッピング関係を確立し記憶するように;具体的に構成された、
第17の局面又は第18の局面に記載のデバイス。
[第25の局面]
前記ユーザ情報モジュールは:
前記ユーザ識別子に対応する履歴データを取得し、前記履歴データに基づき、確立されることになる前記マッピング関係における前記ユーザ情報と前記履歴データとの間の照合度を特定し、確立されることになる前記マッピング関係における前記ユーザ情報の第1の信頼度として前記照合度を用い、確立されることになる前記マッピング関係における前記ユーザ情報の前記第1の信頼度を記憶し、確立されることになる前記マッピング関係における前記ユーザ情報と、確立されることになる前記マッピング関係における前記ユーザ識別子との間の前記マッピング関係を確立するように具体的に構成された、
第24の局面に記載のデバイス。
[第26の局面]
記憶された各ユーザ情報に対し、当該ユーザ情報に対して特定の操作を行う他の複数のユーザを特定し、ユーザのレベルに基づき、前記他の複数のユーザの各々に対し、前記ユーザにより前記ユーザ情報に対して行われる前記特定の操作により生成されたスコアを特定し、前記他の複数のユーザの各々に対し特定された前記スコアに基づき、前記ユーザ情報の第2の信頼度を特定して記憶するように構成された相互認証モジュールを更に備え、
前記特定の操作が、フォローと、コメントの作成と、賞賛評価とのうち少なくとも1つを備え、
前記レベルが、アカウントレベルと、クレジットレベルと、注目度レベルとのうち少なくとも1つを備える、
第25の局面に記載のデバイス。
[第27の局面]
前記ユーザ情報モジュールは、ユーザ情報のトータルの信頼度を、前記ユーザ情報の記憶された第1の信頼度と第2の信頼度とに基づき特定し、前記トータルの信頼度に基づき、トータルの信頼度が所定の信頼度閾値以上である前記ユーザ情報を取得するように具体的に構成された、
第26の局面に記載のデバイス。
[第28の局面]
前記ユーザ情報モジュールは、環境情報を取得し、前記環境情報に基づきサービスのシナリオを特定し、前記サービスのシナリオに基づき、前記サービスのシナリオと照合する前記ユーザ情報を取得するように更に構成され、
前記環境情報は、ネットワーク情報と、位置情報と、地理的識別情報とのうち少なくとも1つを備える、
第27の局面に記載のデバイス。
[第29の局面]
前記第1のユーザに対応するユーザ識別子を特定し、前記第1のユーザにより編集された前記ユーザ情報と、前記第1のユーザの前記ユーザ識別子との間の編集関係を記録し記憶するように構成された編集関係記録モジュールを更に備える、
第24の局面に記載のデバイス。
[第30の局面]
前記画像が、前記第1のユーザのエンドデバイスによりリアルタイムに取得され送信される場合、前記ユーザ情報モジュールは:
前記第2のユーザの前記ユーザ識別子に対応するユーザ情報を特定し;
前記第2のユーザの前記ユーザ識別子に対応する前記ユーザ情報から前記第1のユーザの前記ユーザ識別子との間で前記編集関係にある前記ユーザ情報を取得するように具体的に構成された、
第29の局面に記載のデバイス。
[第31の局面]
前記ARモジュールは、前記ユーザ識別子に対応する前記ユーザ情報の前記トータルの信頼度に基づき前記ユーザ情報の表示状態パラメータを特定し、前記表示状態パラメータに基づき、前記ユーザ情報と前記ユーザ情報の表示状態パラメータとを備える前記ARグラフィックデータを生成するように具体的に構成され、
前記表示状態パラメータは、色パラメータと、輝度パラメータと、サイズパラメータとのうち少なくとも1つを備える、
第27の局面に記載のデバイス。
[第32の局面]
情報表示デバイスであって:
画像をリアルタイムに取得し、前記画像をサーバへ送信するように構成された取得モジュールであって、前記画像はユーザ画像を含み、前記サーバが、前記画像に含まれる前記ユーザ画像を特定し、前記ユーザ画像に対応するユーザ識別子を特定し、特定した前記ユーザ識別子に対応するユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得し、取得した前記ユーザ情報に基づき前記ユーザ情報に対応するARグラフィックデータを生成し、前記ARグラフィックデータをエンドデバイスへ返信する、前記取得モジュールと;
前記ユーザ情報に対応し前記サーバにより返信された前記ARグラフィックデータを受信するように構成された受信モジュールと;
前記ARグラフィックデータに基づき、リアルタイムに取得された前記画像における対応するARグラフィックを表示するように構成された表示モジュールであって、前記ARグラフィックは前記ユーザ画像にリアルタイムで追従する、前記表示モジュールと;を備える、
情報表示デバイス。
[第33の局面]
情報表示システムであって:
エンドデバイスと情報表示デバイスとを備え;
前記エンドデバイスは、リアルタイムに画像を取得し、前記画像を情報表示デバイスへ送信し、前記画像に含まれるユーザ画像に対応し前記情報表示デバイスにより返信された受信ARグラフィックデータに基づき、リアルタイムに取得された前記画像における対応するARグラフィックを表示するように構成され;
前記ARグラフィックは前記ユーザ画像にリアルタイムで追従し;
前記情報表示デバイスは;
前記エンドデバイスによりリアルタイムに取得される前記画像を受信し、前記画像に含まれるユーザ情報に対応する前記ARグラフィックデータを生成するよう構成されたARインテリジェントモジュールと;
受信された前記画像に基づき、前記画像に含まれる前記ユーザ画像を特定し、前記ユーザ画像に対応するユーザ識別子を特定するように構成された認識検証モジュールと;
特定した前記ユーザ識別子に対応する前記ユーザ情報を、事前に記憶されたユーザ識別子とユーザ情報との間のマッピング関係に基づき取得するように構成されたタグ管理モジュールと;
前記ユーザ識別子に対応する履歴データを取得し、前記履歴データに基づき、確立されることになるマッピング関係における前記ユーザ情報と前記履歴データとの間の照合度を特定し、確立されることになる前記マッピング関係における前記ユーザ情報の第1の信頼度として前記照合度を用い、確立されることになる前記マッピング関係における前記ユーザ情報の前記第1の信頼度を記憶し、確立されることになる前記マッピング関係における前記ユーザ情報と、確立されることになる前記マッピング関係における前記ユーザ識別子との間の前記マッピング関係を確立するように構成されたビッグデータリスク制御モジュールと;
記憶された各ユーザ情報に対し、当該ユーザ情報に対して特定の操作を行う他の複数のユーザを特定し、前記ユーザのレベルに基づき、前記他の複数のユーザの各々に対し、前記ユーザにより前記ユーザ情報に対して行われる前記特定の操作により生成されたスコアを特定し、前記他の複数のユーザの各々に対し特定された前記スコアに基づき、前記ユーザ情報の第2の信頼度を特定して記憶するよう構成された相互認証モジュールと;を備える、
情報表示システム。
Claims (9)
- コンピュータ実装方法であって、
クライアントデバイスから視覚メディアデータを受信するステップであって、前記視覚メディアデータが、前記クライアントデバイスによってリアルタイムで取得される、ステップと、
前記視覚メディアデータにおける人物の画像の存在を検出するステップと、
前記視覚メディアデータにおける前記人物の前記画像の前記検出された存在に基づいて、前記人物に関連付けられたユーザのユーザ識別子を決定するステップと、
前記ユーザ識別子に基づいて前記ユーザに対応するデータを取り出すステップと、
前記ユーザに対応する前記取り出されたデータに基づいてユーザグラフィックデータを生成するステップであって、
前記ユーザに対応する前記取り出されたデータのトータルの信頼度を決定し、前記トータルの信頼度が、前記ユーザの前記取り出されたデータの複数の信頼度に対し、重みを用いて特定されるステップと、
前記決定されたトータルの信頼度に基づいて表示状態パラメータを生成するステップであって、前記表示状態パラメータが、色パラメータと、輝度パラメータと、サイズパラメータとのうちの少なくとも1つを含む、ステップと、
前記ユーザに対応する前記取り出されたデータの前記トータルの信頼度と前記生成された表示状態パラメータとに基づいて、拡張現実(AR)グラフィックデータを生成するステップであって、前記ユーザグラフィックデータが前記生成されたARグラフィックデータを含む、ステップと
によってユーザグラフィックデータを生成する、ステップと、
前記ユーザグラフィックデータを前記クライアントデバイスに送信するステップと、
前記クライアントデバイスによって、前記視覚メディアデータと、前記視覚メディアデータにおける前記人物の前記画像の近傍に位置するユーザグラフィックデータとを表示するステップと
を備え、前記クライアントデバイスは、前記視覚メディアデータにおける前記人物の前記画像の位置がリアルタイムに変化するように、前記視覚メディアデータの前記人物の前記画像に最も近い前記ユーザグラフィックデータをリアルタイムに表示し続けるように構成される、方法。 - 前記視覚メディアデータが、単一な画像フレーム、または複数の連続的な映像のフレームのうちの少なくとも1つを備える、請求項1に記載の方法。
- 前記視覚メディアデータにおける前記人物の前記画像の前記存在を検出するステップが、
人物特徴認識アルゴリズムを使用して前記視覚メディアデータにおける人物の前記画像を検出するステップと、
前記視覚メディアデータから前記人物の前記検出された画像を抽出するステップと
をさらに備える、請求項1に記載の方法。 - 前記視覚メディアデータから前記人物の前記画像の前記検出された存在に基づいて、前記ユーザ識別子を決定するステップが、
前記人物の抽出された画像から画像特徴を抽出するステップと、
複数の事前に記憶された生体計測的特徴からのそれぞれの生体計測的特徴と前記抽出された画像特徴とを比較するステップであって、前記複数の事前に記憶された生体計測的特徴が、顔面特徴、指紋特徴、掌紋特徴、網膜特徴、人体の輪郭の特徴、歩容特徴、声紋特徴のうちの少なくとも1つを備える、ステップと、
前記抽出された画像特徴が前記生体計測的特徴と一致すると判定したことに応答して、前記一致する生体計測的特徴に対応する前記ユーザ識別子を取り出すステップと
をさらに備える、請求項2に記載の方法。 - 前記ユーザ識別子に基づいて前記ユーザに対応する前記データを取り出すステップが、
前記視覚メディアデータから環境情報を取得するステップと、
前記取得された環境情報に基づいてサービスシナリオを決定するステップと、
前記取得された環境情報に基づいて前記サービスシナリオと一致する前記ユーザに対応
する前記データを取り出すステップと
をさらに備える、請求項1に記載の方法。 - 前記環境情報が、ネットワーク情報、位置情報、および地理的識別情報を備える、請求項5に記載の方法。
- 前記生成されたARグラフィックデータが、前記視覚メディアデータが前記クライアントデバイスによって表示されるとき、前記視覚メディアデータの現在のフレーム内の前記ユーザの画像の位置において表示されるように構成される、請求項1に記載の方法。
- 請求項1〜7のいずれか一項に記載の方法を実施するようにコンピュータシステムによって実行可能1つまたは複数の命令を記憶する、非一時的コンピュータ可読記憶媒体。
- コンピュータ実装システムであって、
1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータと相互動作可能に結合され、かつ前記1つまたは複数のコンピュータによって実行されたとき、請求項1〜7のいずれか一項に記載の方法を実施する1つまたは複数の命令を記憶する有形の機械可読記憶媒体を有する、1つまたは複数のコンピュータメモリデバイスと
を備える、コンピュータ実装システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610186690.3A CN107239725B (zh) | 2016-03-29 | 2016-03-29 | 一种信息展示方法、装置及*** |
CN201610186690.3 | 2016-03-29 | ||
PCT/CN2017/077400 WO2017167060A1 (zh) | 2016-03-29 | 2017-03-20 | 一种信息展示方法、装置及*** |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019516175A JP2019516175A (ja) | 2019-06-13 |
JP2019516175A5 JP2019516175A5 (ja) | 2021-04-30 |
JP6935421B2 true JP6935421B2 (ja) | 2021-09-15 |
Family
ID=59962604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018551862A Active JP6935421B2 (ja) | 2016-03-29 | 2017-03-20 | 情報の表示方法、デバイス、及びシステム |
Country Status (15)
Country | Link |
---|---|
US (2) | US10691946B2 (ja) |
EP (1) | EP3438849A4 (ja) |
JP (1) | JP6935421B2 (ja) |
KR (1) | KR102293008B1 (ja) |
CN (1) | CN107239725B (ja) |
AU (1) | AU2017243515C1 (ja) |
BR (1) | BR112018069970A2 (ja) |
CA (1) | CA3019224C (ja) |
MX (1) | MX2018011850A (ja) |
MY (1) | MY189680A (ja) |
PH (1) | PH12018502093A1 (ja) |
RU (1) | RU2735617C2 (ja) |
SG (1) | SG11201808351QA (ja) |
TW (1) | TWI700612B (ja) |
WO (1) | WO2017167060A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239725B (zh) | 2016-03-29 | 2020-10-16 | 阿里巴巴集团控股有限公司 | 一种信息展示方法、装置及*** |
US10242477B1 (en) * | 2017-01-16 | 2019-03-26 | Snap Inc. | Coded vision system |
CN107895325A (zh) * | 2017-11-27 | 2018-04-10 | 启云科技股份有限公司 | 社群信息链接*** |
CN109842790B (zh) | 2017-11-29 | 2021-02-26 | 财团法人工业技术研究院 | 影像信息显示方法与显示器 |
TWI702531B (zh) * | 2017-11-29 | 2020-08-21 | 財團法人工業技術研究院 | 影像資訊顯示方法、影像資訊顯示系統與顯示器 |
CN107958492A (zh) * | 2017-11-30 | 2018-04-24 | 中国铁道科学研究院电子计算技术研究所 | 一种基于人脸识别的身份验证方法及装置 |
CN107894842A (zh) * | 2017-12-19 | 2018-04-10 | 北京盈拓文化传媒有限公司 | 增强现实场景复原方法、终端及计算机可读存储介质 |
CN110555171B (zh) * | 2018-03-29 | 2024-04-30 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、存储介质及*** |
CN108510437B (zh) * | 2018-04-04 | 2022-05-17 | 科大讯飞股份有限公司 | 一种虚拟形象生成方法、装置、设备以及可读存储介质 |
JP6542445B1 (ja) * | 2018-07-31 | 2019-07-10 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
CN109102874A (zh) * | 2018-08-06 | 2018-12-28 | 百度在线网络技术(北京)有限公司 | 基于ar技术的医疗处理方法、装置、设备和存储介质 |
CN109191180A (zh) * | 2018-08-06 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | 评价的获取方法及装置 |
TWI691891B (zh) * | 2018-09-07 | 2020-04-21 | 財團法人工業技術研究院 | 多重目標物資訊顯示方法及裝置 |
CN111046704B (zh) * | 2018-10-12 | 2023-05-09 | 杭州海康威视数字技术股份有限公司 | 存储身份识别信息的方法和装置 |
TR201909402A2 (tr) * | 2019-06-25 | 2021-01-21 | Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi | Servi̇s yöneli̇mli̇ bi̇r artirilmiş gerçekli̇k altyapisi si̇stemi̇ |
US20200410764A1 (en) * | 2019-06-28 | 2020-12-31 | Snap Inc. | Real-time augmented-reality costuming |
CN110673767A (zh) * | 2019-08-19 | 2020-01-10 | 杨少波 | 一种信息显示方法及装置 |
KR20210057525A (ko) * | 2019-11-12 | 2021-05-21 | 삼성전자주식회사 | 디스플레이의 속성을 변경하기 위한 전자 장치 및 전자 장치에서의 동작 방법 |
CN111178305A (zh) * | 2019-12-31 | 2020-05-19 | 维沃移动通信有限公司 | 信息显示方法及头戴式电子设备 |
CN111104927B (zh) * | 2019-12-31 | 2024-03-22 | 维沃移动通信有限公司 | 一种目标人物的信息获取方法及电子设备 |
US11410359B2 (en) * | 2020-03-05 | 2022-08-09 | Wormhole Labs, Inc. | Content and context morphing avatars |
CN112069480A (zh) * | 2020-08-06 | 2020-12-11 | Oppo广东移动通信有限公司 | 显示方法、装置、存储介质及可穿戴设备 |
CN112114667A (zh) * | 2020-08-26 | 2020-12-22 | 济南浪潮高新科技投资发展有限公司 | 一种基于双目摄像头和vr设备的ar显示方法及*** |
JP7313747B2 (ja) * | 2020-12-03 | 2023-07-25 | 合同会社画像技術研究所 | 小動物の生体情報取得方法、生体情報取得プログラム、及び生体情報取得装置 |
US11720896B1 (en) | 2020-12-10 | 2023-08-08 | Wells Fargo Bank, N.A. | Apparatuses, computer-implemented methods, and computer program products for proximate financial transactions |
KR20240021555A (ko) * | 2022-08-10 | 2024-02-19 | 삼성전자주식회사 | Ar 단말의 장치 타입에 따른 컨텐츠 제공 방법 및 장치 |
US20240078759A1 (en) * | 2022-09-01 | 2024-03-07 | Daekun Kim | Character and costume assignment for co-located users |
CN117291852A (zh) * | 2023-09-07 | 2023-12-26 | 上海铱奇科技有限公司 | 一种基于ar的信息合成方法及*** |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2801362B2 (ja) * | 1990-05-24 | 1998-09-21 | 日本電信電話株式会社 | 個人識別装置 |
JP2004286447A (ja) * | 2003-03-19 | 2004-10-14 | Nippon Telegr & Teleph Corp <Ntt> | 道路情報表示システムおよびその方法 |
US8365147B2 (en) * | 2008-02-27 | 2013-01-29 | Accenture Global Services Limited | Test script transformation architecture |
US9143573B2 (en) * | 2008-03-20 | 2015-09-22 | Facebook, Inc. | Tag suggestions for images on online social networks |
US20100077431A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | User Interface having Zoom Functionality |
US8988432B2 (en) * | 2009-11-05 | 2015-03-24 | Microsoft Technology Licensing, Llc | Systems and methods for processing an image for target tracking |
US20120249797A1 (en) * | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
KR20120040573A (ko) * | 2010-10-19 | 2012-04-27 | 주식회사 팬택 | 이동식 태그를 이용한 증강 현실 제공 장치 및 방법 |
US9894116B2 (en) * | 2012-04-12 | 2018-02-13 | Intel Corporation | Techniques for augmented social networking |
KR101554776B1 (ko) * | 2012-05-11 | 2015-09-22 | 안강석 | 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 |
JP2013238991A (ja) * | 2012-05-14 | 2013-11-28 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2014035642A (ja) * | 2012-08-08 | 2014-02-24 | Canon Inc | 表示装置及びその制御方法、表示システム、プログラム |
US10209946B2 (en) * | 2012-08-23 | 2019-02-19 | Red Hat, Inc. | Augmented reality personal identification |
US9338622B2 (en) * | 2012-10-04 | 2016-05-10 | Bernt Erik Bjontegard | Contextually intelligent communication systems and processes |
CN102981761A (zh) * | 2012-11-13 | 2013-03-20 | 广义天下文化传播(北京)有限公司 | 用于移动终端应用程序的触发式交互方法 |
CN103970804B (zh) * | 2013-02-06 | 2018-10-30 | 腾讯科技(深圳)有限公司 | 一种信息查询方法及装置 |
CN103294779A (zh) * | 2013-05-13 | 2013-09-11 | 北京百度网讯科技有限公司 | 对象信息获取方法及设备 |
KR102098058B1 (ko) * | 2013-06-07 | 2020-04-07 | 삼성전자 주식회사 | 뷰 모드에서 정보 제공 방법 및 장치 |
CN103577516A (zh) * | 2013-07-01 | 2014-02-12 | 北京百纳威尔科技有限公司 | 内容显示方法和装置 |
CN103412953A (zh) * | 2013-08-30 | 2013-11-27 | 苏州跨界软件科技有限公司 | 基于增强现实的社交方法 |
JP2015146550A (ja) * | 2014-02-04 | 2015-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2015162012A (ja) * | 2014-02-26 | 2015-09-07 | 沖電気工業株式会社 | 顔照合装置及び顔照合方法並びにプログラム |
US20150278214A1 (en) * | 2014-04-01 | 2015-10-01 | Tableau Software, Inc. | Systems and Methods for Ranking Data Visualizations Using Different Data Fields |
JP6203116B2 (ja) * | 2014-05-20 | 2017-09-27 | ヤフー株式会社 | 公証提供装置、公証提供方法及びプログラム |
KR101629553B1 (ko) * | 2014-05-29 | 2016-06-14 | 주식회사 듀얼어퍼처인터네셔널 | 이동 단말기에서 디스플레이 화면 제어 장치 및 그 방법 |
US9576058B2 (en) * | 2014-09-16 | 2017-02-21 | Facebook, Inc. | Determining accuracies with which types of user identifying information identify online system users |
US20160196584A1 (en) * | 2015-01-06 | 2016-07-07 | Facebook, Inc. | Techniques for context sensitive overlays |
US20160260064A1 (en) * | 2015-03-03 | 2016-09-08 | Gradberry Inc. | Systems and methods for a career and courses portal |
US9760790B2 (en) * | 2015-05-12 | 2017-09-12 | Microsoft Technology Licensing, Llc | Context-aware display of objects in mixed environments |
CN105354334B (zh) * | 2015-11-27 | 2019-04-26 | 广州视源电子科技股份有限公司 | 一种基于智能镜子的信息发布方法和智能镜子 |
CN105338117B (zh) * | 2015-11-27 | 2018-05-29 | 亮风台(上海)信息科技有限公司 | 用于生成ar应用和呈现ar实例的方法、设备与*** |
CN107239725B (zh) * | 2016-03-29 | 2020-10-16 | 阿里巴巴集团控股有限公司 | 一种信息展示方法、装置及*** |
US10212157B2 (en) * | 2016-11-16 | 2019-02-19 | Bank Of America Corporation | Facilitating digital data transfers using augmented reality display devices |
EP4270972A3 (en) * | 2016-12-06 | 2024-01-03 | Gurule, Donn M. | Systems and methods for a chronological-based search engine |
US10109096B2 (en) * | 2016-12-08 | 2018-10-23 | Bank Of America Corporation | Facilitating dynamic across-network location determination using augmented reality display devices |
US10650597B2 (en) * | 2018-02-06 | 2020-05-12 | Servicenow, Inc. | Augmented reality assistant |
US10521685B2 (en) * | 2018-05-29 | 2019-12-31 | International Business Machines Corporation | Augmented reality marker de-duplication and instantiation using marker creation information |
US11170035B2 (en) * | 2019-03-29 | 2021-11-09 | Snap Inc. | Context based media curation |
-
2016
- 2016-03-29 CN CN201610186690.3A patent/CN107239725B/zh active Active
-
2017
- 2017-01-20 TW TW106102212A patent/TWI700612B/zh active
- 2017-03-20 BR BR112018069970A patent/BR112018069970A2/pt not_active Application Discontinuation
- 2017-03-20 KR KR1020187031087A patent/KR102293008B1/ko active IP Right Grant
- 2017-03-20 MY MYPI2018703488A patent/MY189680A/en unknown
- 2017-03-20 MX MX2018011850A patent/MX2018011850A/es unknown
- 2017-03-20 RU RU2018137829A patent/RU2735617C2/ru active
- 2017-03-20 WO PCT/CN2017/077400 patent/WO2017167060A1/zh active Application Filing
- 2017-03-20 EP EP17773090.0A patent/EP3438849A4/en not_active Withdrawn
- 2017-03-20 SG SG11201808351QA patent/SG11201808351QA/en unknown
- 2017-03-20 JP JP2018551862A patent/JP6935421B2/ja active Active
- 2017-03-20 AU AU2017243515A patent/AU2017243515C1/en active Active
- 2017-03-20 CA CA3019224A patent/CA3019224C/en active Active
-
2018
- 2018-09-26 US US16/142,851 patent/US10691946B2/en active Active
- 2018-09-28 PH PH12018502093A patent/PH12018502093A1/en unknown
-
2020
- 2020-05-26 US US16/882,847 patent/US11036991B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CA3019224A1 (en) | 2017-10-05 |
PH12018502093A1 (en) | 2019-07-24 |
AU2017243515A1 (en) | 2018-10-18 |
AU2017243515C1 (en) | 2021-07-22 |
RU2018137829A3 (ja) | 2020-06-17 |
RU2735617C2 (ru) | 2020-11-05 |
KR20180124126A (ko) | 2018-11-20 |
CA3019224C (en) | 2021-06-01 |
SG11201808351QA (en) | 2018-10-30 |
US10691946B2 (en) | 2020-06-23 |
JP2019516175A (ja) | 2019-06-13 |
BR112018069970A2 (pt) | 2019-01-29 |
AU2017243515B2 (en) | 2021-01-28 |
KR102293008B1 (ko) | 2021-08-27 |
MX2018011850A (es) | 2019-08-05 |
TW201734712A (zh) | 2017-10-01 |
EP3438849A4 (en) | 2019-10-09 |
US11036991B2 (en) | 2021-06-15 |
MY189680A (en) | 2022-02-25 |
CN107239725A (zh) | 2017-10-10 |
US20200285853A1 (en) | 2020-09-10 |
WO2017167060A1 (zh) | 2017-10-05 |
RU2018137829A (ru) | 2020-04-29 |
TWI700612B (zh) | 2020-08-01 |
EP3438849A1 (en) | 2019-02-06 |
CN107239725B (zh) | 2020-10-16 |
US20190026559A1 (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6935421B2 (ja) | 情報の表示方法、デバイス、及びシステム | |
US11182615B2 (en) | Method and apparatus, and storage medium for image data processing on real object and virtual object | |
CN105934760B (zh) | 利用计算机视觉辅助的适应性图像搜索 | |
US20180268458A1 (en) | Automated recommendation and virtualization systems and methods for e-commerce | |
CA3029973A1 (en) | Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams | |
US9122912B1 (en) | Sharing photos in a social network system | |
CN103970804B (zh) | 一种信息查询方法及装置 | |
Chaaraoui et al. | A Low‐Dimensional Radial Silhouette‐Based Feature for Fast Human Action Recognition Fusing Multiple Views | |
CN109784185A (zh) | 基于微表情识别的客户餐饮评价自动获取方法及装置 | |
US20230117829A1 (en) | Methods and systems for provisioning a collaborative virtual experience based on follower state data | |
US20220319126A1 (en) | System and method for providing an augmented reality environment for a digital platform | |
US9621505B1 (en) | Providing images with notifications | |
US11361333B2 (en) | System and method for content recognition and data categorization | |
CN114677620A (zh) | 对焦方法、电子设备和计算机可读介质 | |
US11610365B2 (en) | Methods and systems for provisioning a virtual experience of a building based on user profile data | |
US20240241578A1 (en) | Methods and systems for provisioning a virtual experience based on user preference | |
CN115240238A (zh) | 资源处理方法、装置、计算机设备和存储介质 | |
KR20230054237A (ko) | 사물의 이미지 정보에 대응하는 사용자 아바타를 제공하기 위한 장치 및 방법 | |
KR101168116B1 (ko) | 주변 환경의 변화에 순응하는 3차원 가상 컨텐츠를 제공하는 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200323 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200605 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20201228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210226 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210317 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6935421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |