JP7445653B2 - 選択的データ提供を備えた修理グラス - Google Patents

選択的データ提供を備えた修理グラス Download PDF

Info

Publication number
JP7445653B2
JP7445653B2 JP2021524368A JP2021524368A JP7445653B2 JP 7445653 B2 JP7445653 B2 JP 7445653B2 JP 2021524368 A JP2021524368 A JP 2021524368A JP 2021524368 A JP2021524368 A JP 2021524368A JP 7445653 B2 JP7445653 B2 JP 7445653B2
Authority
JP
Japan
Prior art keywords
head
mounted camera
image
processor
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021524368A
Other languages
English (en)
Other versions
JP2022506778A (ja
Inventor
ダルシャン ハリシュ バルデブ,
レベッカ ジーン バサッカー,
ジョン パラージュ ジュニア リンドキスト,
貴行 水谷
ベンジャミン ロバート ネルソン,
コーディー ジョゼフ プレコード,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beckman Coulter Inc
Original Assignee
Beckman Coulter Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beckman Coulter Inc filed Critical Beckman Coulter Inc
Publication of JP2022506778A publication Critical patent/JP2022506778A/ja
Application granted granted Critical
Publication of JP7445653B2 publication Critical patent/JP7445653B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/04Eye-masks ; Devices to be worn on the face, not intended for looking through; Eye-pads for sunbathing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/629Protecting access to data via a platform, e.g. using keys or access control rules to features or functions of an application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C5/00Ciphering apparatus or methods not provided for in the preceding groups, e.g. involving the concealment or deformation of graphic data such as designs, written or printed messages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/4446Hiding of documents or document information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/02Recognising information on displays, dials, clocks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Bioethics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

(関連出願)
本出願、2018年11月9日に米国特許庁に出願された、「Service Glasses with Selective Data Provision」と題された仮特許出願第62/758147号に関連し、その利益を主張するものである。本出願の全体は、参照により本明細書に組み込まれる。
(発明の分野)
本明細書に開示される技術は、研究室機器に適用可能であり得る。
時々、患者からの血液サンプルを分析するために使用される機器などの研究室機器は、機器の場所で対処するには個人の能力を超える問題に直面し得る。これに対処するために、高度な専門知識を有する外部の修理要員が、オンサイト支援又はリモート支援のいずれかを提供することに関与し得る。しかしながら、研究室機器が、高度に選別された母集団(これにはこれらの外部修理要員を含まない可能性がある)以外に曝されるべきではない極秘データを生成又は表示することができるという事実から、外部修理要員が関与することを困難にし得る。したがって、外部修理要員を極秘データに曝すことを防止しながら、外部修理要員が研究室機器に関連する問題を解決する支援を提供することを可能にし得る技術が必要とされている。
本明細書に開示される実施形態を使用して、秘密情報を不適切に曝すことなく、研究室機器に修理を提供するための方法及びマシンを実装し得る。例えば、本明細書に開示される実施形態を使用して、ヘッドマウントカメラの着用者の視野の画像をキャプチャすることと、一組のステップを実行することによって修正された画像を生成することと、を含む方法を実行し得る。このようなステップは、着用者の視野内の1つ以上のディスプレイ画面を識別することを含み得る。このようなステップはまた、1つ以上のディスプレイ画面のそれぞれに関して、事前定義されたインターフェースライブラリからのアイテムと一致するインターフェースがそのディスプレイ画面上に表示されているか否かを判定することを含み得る。このようなステップはまた、事前定義されたインターフェースライブラリからの一致するアイテムを有する表示インターフェースごとに、事前定義されたインターフェースライブラリからの、インターフェースに対応する画像を重ね合わせることか、又は、そのインターフェース内の1つ以上の秘密情報の位置を示す事前定義されたインターフェースライブラリからの情報に基づいて、そのインターフェース内の秘密情報をマスキングすること、のいずれかを含み得る。このような方法はまた、修正された画像を提示することを含み得、この提示することは、修正された画像をリモート修理技術者に送信すること、又はヘッドマウントカメラが組み込まれた拡張現実ヘッドピースのディスプレイ上に修正された画像を表示することを含み得る。
他の実施形態もまた可能である。例えば、開示される技術を使用して、ヘッドマウントカメラ及びプロセッサを備えるシステムを実装し得る。このようなシステムでは、プロセッサは、一組のコンピュータ命令で構成されてもよく、一組のコンピュータ命令は、実行されると、ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能である。いくつかの実施形態では、このような判定は、ヘッドマウントカメラがアクティブ化された後に行われ得る。追加的に、この種のシステムのいくつかの実施形態では、プロセッサを構成するコンピュータ命令は、ヘッドマウントカメラによってキャプチャされた画像が、その画像がキャプチャされる前に、非即時的閲覧用に利用可能とされるべきであるとの判定が行われ、かつ、ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきであるとの直近の判定よりも最近において、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの判定が行われなかった場合、及びその場合のみ、ヘッドマウントカメラによってキャプチャされた画像を、非即時閲覧用に利用可能にすることを動作可能にし得る。
開示される技術がどのように潜在的に実装され得るかについてのさらなる情報が本明細書に記載されており、実施例の変形形態は、本明細書に記載されているデータに基づいて当業者には直ちに明らかになり、過度の実験を行うことなく実施され得る。したがって、本概要に記載された例示的な方法及びマシンは、単なる例示であると理解されるべきであり、この本明細書又は任意の関連文書によって提供される保護の範囲を限定するものとして扱われるべきではない。
本発明は、例えば、以下の項目を提供する。
(項目1)
方法であって、
a)ヘッドマウントカメラの視野の画像をキャプチャすることと、
b)ほぼリアルタイムで、修正された画像を自動的に生成することであって、前記生成することが、
i)マスキングされる、前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することと、
ii)前記1つ以上の識別された部分のそれぞれをマスキングすることと、を含むステップを実行することによって行われる、生成することと、
c)前記修正された画像を提示することであって、前記修正された画像を提示することが、
i)前記修正された画像をリモート修理技術者に表示することと、
ii)前記修正された画像を拡張現実ヘッドピースのディスプレイ上に表示することとを含み、前記ヘッドマウントカメラが、前記拡張現実ヘッドピースと統合されている、提示することと、を含む、方法。
(項目2)
マスキングされる、前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することが、
a)前記視野内の1つ以上のディスプレイ画面を識別することと、
b)前記1つ以上のディスプレイ画面のそれぞれについて、事前定義されたインターフェースライブラリからのアイテムと一致するインターフェースがそのディスプレイ画面上に表示されているか否かを判定することと、
c)前記事前定義されたインターフェースライブラリからの少なくとも1つの一致するアイテムを有する各表示されたインターフェースについて、前記事前定義されたインターフェースライブラリからの前記一致したアイテムからの情報に基づいて、マスキングされる前記画像の部分として、そのインターフェースの1つ以上の部分を識別することと、を含む、項目1に記載の方法。
(項目3)
前記1つ以上の識別された部分のそれぞれをマスキングすることが、前記事前定義されたインターフェースライブラリからの少なくとも1つの一致するアイテムを有する前記1つ以上のディスプレイ画面のそれぞれについて、前記事前定義されたインターフェースライブラリからの、そのインターフェースに対応する画像を重ね合わせることを含む、項目2に記載の方法。
(項目4)
マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することが、
a)前記ヘッドマウントカメラの焦点距離を決定することと、
b)前記決定された焦点距離よりも前記ヘッドマウントカメラから遠い前記ヘッドマウントカメラの前記視野の前記画像の各部分を、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の前記1つ以上の部分のうちの1つとして識別することと、を含む、項目1~3のいずれか一項に記載の方法。
(項目5)
a)前記方法が、前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、1つ以上の表記媒体標本画像を提供することを含み、
b)マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することが、
i)前記表記媒体標本画像からの情報に基づいて、前記視野内の1つ以上の表記媒体を識別することと、
ii)前記視野内の前記1つ以上の表記媒体のそれぞれを、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の前記1つ以上の部分のうちの1つとして識別することと、を含む、項目1~4のいずれか一項に記載の方法。
(項目6)
前記表記媒体標本画像からの前記情報が、1つ以上の表記媒体標本色を含む、項目5に記載の方法。
(項目7)
a)前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に送信することを含み、
b)前記方法が、
i)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、研究室の撮像可能領域を指定することと、
ii)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャした後に、前記撮像可能領域の境界に位置する1つ以上のワイヤレス送受信機に基づいて、前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置するか否かを判定することと、
iii)前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置していないとの判定に基づいて、前記ヘッドマウントカメラの送信機能を自動的に非アクティブ化することと、を含む、項目1~6のいずれか一項に記載の方法。
(項目8)
前記ヘッドマウントカメラの前記送信機能が、前記ヘッドマウントカメラを自動的に非アクティブ化することによって自動的に非アクティブ化される、項目1~7のいずれか一項に記載の方法。
(項目9)
a)前記修正された画像を提示することが、前記修正された画像を前記リモート技術者に表示することを含み、
b)前記方法が、
i)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、研究室の撮像可能領域を指定することと、
ii)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャした後に、前記撮像可能領域の内側に位置するワイヤレス送受信機からの距離に基づいて、前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置するか否かを判定することと、
iii)前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置していないとの判定に基づいて、前記ヘッドマウントカメラの送信機能を自動的に非アクティブ化することと、を含む、項目1~8のいずれか一項に記載の方法。
(項目10)
a)前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
b)前記方法が、インターネット接続を使用して、前記修正された画像を前記リモート修理技術者に送信することを含む、項目1~9のいずれか一項に記載の方法。
(項目11)
a)前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
b)前記方法が、前記修正された画像を前記リモート修理技術者に表示すると同時に、前記ヘッドマウントカメラの前記視野の前記画像を前記拡張現実ヘッドピースの前記ディスプレイ上に表示することを含み、前記ヘッドマウントカメラが前記拡張現実ヘッドピースと一体化されている、項目1~10のいずれか一項に記載の方法。
(項目12)
a)前記画像がビデオストリームの一部分としてキャプチャされ、
b)前記方法が、前記修正された画像を前記リモート修理技術者に送信することを含み、
c)前記修正された画像を前記リモート修理技術者に送信することが、前記キャプチャされた画像ではなく、前記修正された画像を含むビデオストリームのバージョンを送信することによって実行される、項目1~11のいずれか一項に記載の方法。
(項目13)
前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後10秒以内に完了する、項目1~12のいずれか一項に記載の方法。
(項目14)
前記修正された画像をほぼリアルタイムで自動的に生成することが、リアルタイムで前記修正された画像を自動的に生成することを含む、項目1~13のいずれか一項に記載の方法。
(項目15)
前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後5秒以内に完了する、項目1~14のいずれか一項に記載の方法。
(項目16)
前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後1秒以内に完了する、項目1~15のいずれか一項に記載の方法。
(項目17)
前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後0.5秒以内に完了する、項目1~16のいずれか一項に記載の方法。
(項目18)
前記ヘッドマウントカメラの前記視野の前記画像が、マスキングされる部分として識別される前記1つ以上の部分の外側に秘密情報を含む、項目1~17のいずれか一項に記載の方法。
(項目19)
前記ヘッドマウントカメラが、一対の計装安全眼鏡によって構成される、項目1~18のいずれか一項に記載の方法。
(項目20)
a)前記修正された画像を提示することが、前記修正された画像を前記リモート技術者に表示することを含み、
b)前記方法は、
i)前記リモート技術者が、前記修正された画像に基づいて、前記ヘッドマウントカメラの前記視野内の研究室機器における問題に対処するための情報を含む修復オーバーレイを生成することと、
ii)前記研究室機器のディスプレイ上に前記修復オーバーレイを含む画像を表示することと、を含む、項目1~19のいずれか一項に記載の方法。
(項目21)
システムであって、
a)ヘッドマウントカメラと、
b)プロセッサと、を備え、
前記プロセッサは、一組のコンピュータ命令で構成されており、前記一組のコンピュータ命令が、実行されると、
A)前記ヘッドマウントカメラがアクティブ化された後、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきか否かを判定し、
B)前記ヘッドマウントカメラによってキャプチャされた画像を、
I)前記画像が、非即時閲覧用に利用可能にされるべきであるとの判定が行われ、かつ/又は、
II)
1)前記ヘッドマウントカメラによってキャプチャされた画像が、その画像がキャプチャされる前に、非即時閲覧用に利用可能にされるべきであるとの判定が行われたことと、
2)前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの直近の判定よりも最近において、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきでないとの判定が行われなかったことと、の両方の命令文が真である場合かつその場合のみ、非即時閲覧用に利用可能にするように、動作可能である、システム。
(項目22)
前記コンピュータ命令が、実行されると、
a)前記ヘッドマウントカメラが事前定義された領域内に位置するか否かを判定することと、
b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像は、非即時閲覧用に利用可能にされるべきではないと判定することと、を含む一組のステップを実行することによって、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能である、項目21に記載のシステム。
(項目23)
a)前記システムが、前記事前定義された領域の内側に位置するワイヤレス送受信機を備え、
b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの前記判定が、前記ヘッドマウントカメラと前記ワイヤレス送受信機との間の距離に基づく、項目22に記載のシステム。
(項目24)
a)前記システムが、前記事前定義された領域の境界に位置する1つ以上のワイヤレス送受信機を備え、
b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの前記判定は、前記ヘッドマウントカメラが前記事前定義された領域の前記境界を横切ることを検出することに基づく、請求22又は23に記載のシステム。
(項目25)
a)前記システムが研究室機器を備え、
b)前記コンピュータ命令が、実行されると、
i)前記研究室機器に対する前記ヘッドマウントカメラの向きを判定することと、
ii)前記ヘッドマウントカメラの前記向きが、前記研究室機器から90度以上オフセットされているとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないと判定することと、を含む一組のステップを実行することによって、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能である、項目21~24のいずれか一項に記載のシステム。
(項目26)
前記コンピュータ命令が、実行されると、認可アクションの直近の発生からの経過時間がしきい値持続時間よりも長いとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないと判定すること、を含む一組のステップを実行することによって、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にするべきか否かを判定するように動作可能である、項目21~25のいずれか一項に記載のシステム。
(項目27)
前記システムが、前記ヘッドマウントカメラとワイヤレス通信するように構成された研究室機器を備える、項目21~26のいずれか一項に記載のシステム。
(項目28)
前記システムが、前記ヘッドマウントカメラによってキャプチャされた画像を暗号化するように構成された研究室機器を備える、項目21~27のいずれか一項に記載のシステム。
(項目29)
a)前記ヘッドマウントカメラが外部光源を含み、
b)前記ヘッドマウントカメラは、前記ヘッドマウントカメラがアクティブ化されたとき、かつ前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの判定が行われたときに、前記外部光源をアクティブ化するように構成されており、
c)前記ヘッドマウントカメラは、前記ヘッドマウントカメラが非アクティブ化されたとき、及び前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないとの判定が行われたときに、前記外部光源を非アクティブ化するように構成されている、項目21~28のいずれか一項に記載のシステム。
(項目30)
マシンであって、
a)ヘッドマウントカメラと、
b)前記ヘッドマウントカメラによってキャプチャされた画像に含まれる秘密情報を含まない修正された画像を生成する手段と、を備える、マシン。
いくつかの実施形態で使用され得る一対の計装安全眼鏡を示す。
本開示技術の態様が展開され得る例示的な環境を示す。
研究室機器のオペレータが、リモート技術者を研究室機器によって表示され得る秘密情報に曝すことなく、リモート技術者に有用な修理情報を提供することを可能にするための、いくつかの実施形態で使用され得るプロセスを示す。
いくつかの実施形態においてジェスチャセンサによって認識され得、コマンドに関連付けられ得る例示的なジェスチャを示す。
例示的な非修正インターフェース画面画像を示す。
いくつかの実施形態において作成され得るような、例示的な修正インターフェース画面画像を示す。
いくつかの実施形態において作成され得るような、例示的な修正インターフェース画面画像を示す。
本明細書に開示される技術は、秘密情報の露出を防止しながら、研究室機器を修理することに関する問題に対処するために使用され得る。
第1の態様によれば、いくつかの実施形態は、ヘッドマウントカメラの着用者の視野の画像をキャプチャすることと、リアルタイムで修正された画像を自動的に生成することと、修正された画像を提示することと、を含む方法を含み得る。このような方法では、修正された画像を自動的に生成することは、マスキングされるヘッドマウントカメラの着用者の視野の画像の1つ以上の部分を識別すること、及び1つ以上の識別された部分のそれぞれをマスキングすることなどのステップを含み得る。追加的に、上述に言及されたような方法では、修正された画像を提示することは、修正された画像をリモート修理技術者に送信することと、拡張現実ヘッドピースのディスプレイ上に修正された画像を表示することであって、ヘッドマウントカメラが拡張現実ヘッドピースと統合されている、表示することと、又は修正された画像を研究室機器のディスプレイ上に表示すること、を含み得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、マスキングされるヘッドマウントカメラの着用者の視野の画像の1つ以上の部分を識別するステップは、一組のステップを含み得る。このようなステップは、着用者の視野内の1つ以上のディスプレイ画面を識別することを含み得る。このようなステップはまた、1つ以上のディスプレイ画面のそれぞれについて、事前定義されたインターフェースライブラリからのアイテムと一致するインターフェースが、そのディスプレイ画面上に表示されているか否かを判定することを含み得る。このようなステップはまた、事前定義されたインターフェースライブラリからのアイテムと一致する各表示されたインターフェースについて、そのインターフェースの1つ以上の部分を、事前定義されたインターフェースライブラリからの一致するアイテムからの情報に基づいて、マスキングされるべき画像の部分として識別することを含み得る。いくつかのこのような実施形態では、1つ以上の識別された部分のそれぞれをマスキングすることは、事前定義されたインターフェースライブラリからの一致するアイテムを有する1つ以上のディスプレイ画面のそれぞれに対して、事前定義されたインターフェースライブラリからの、そのインターフェースに対応する画像を重ね合わせることを含み得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、マスキングされるヘッドマウントカメラの着用者の視野の画像の1つ以上の部分を識別することは、ヘッドマウントカメラの焦点距離を決定することと、マスキングされるヘッドマウントカメラの着用者の視野の画像の一部分として、識別された焦点距離よりもヘッドマウントカメラから遠いヘッドマウントカメラの着用者の視野の画像の各部分を識別することと、を含み得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、本方法は、ヘッドマウントカメラの着用者の視野の画像をキャプチャする前に、1つ以上の表記媒体標本画像を提供することを含み得る。更に、このような実施形態では、マスキングされるヘッドマウントカメラの着用者の視野の画像の1つ以上の部分を識別することは、表記媒体標本画像からの情報に基づいて、着用者の視野内の1つ以上の表記媒体を識別することと、着用者の視野内の各表記媒体を、マスキングされる着用者の視野の画像の一部分として識別することと、を含み得る。同様に、いくつかのこのような実施形態では、表記媒体標本画像からの情報は、1つ以上の表記媒体標本色を含み得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、本方法は、ヘッドマウントカメラの着用者の視野の画像をキャプチャする前に、研究室の撮像可能領域を指定することを含み得る。このような実施形態では、本方法はまた、ヘッドマウントカメラの着用者の視野の画像をキャプチャした後、ヘッドマウントカメラが研究室の撮像可能領域内に位置するか否かを判定すること(この判定は、撮像可能領域の境界に位置する1つ以上のワイヤレス送受信機に基づき得、又は、撮像可能領域内に位置するワイヤレス送受信器からの距離に基づき得る)を含み得る。追加的に、修正された画像を提示することが、修正された画像をリモート修理技術者に送信することを含むいくつかの実施形態では、ヘッドマウントカメラが研究室の撮像可能領域内に位置していないとの判定に基づいて、本方法は、ヘッドマウントカメラの送信機能を自動的に非アクティブ化することを含み得る。いくつかのこのような実施形態では、ヘッドマウントカメラの伝送機能を非アクティブ化することは、ヘッドマウントカメラを非アクティブ化することによって行われ得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、修正された画像を提示することは、インターネット接続を使用して、修正された画像をリモート修理技術者に送信することを含み得る。追加的に、いくつかのこのような実施形態では、本方法は、修正された画像をリモート修理技術者に送信すると同時に、拡張現実ヘッドピースのディスプレイ上にヘッドマウントカメラの着用者の視野の画像を表示することを含み得る。いくつかのこのような実施形態では、ヘッドマウントカメラは、拡張現実ヘッドピースと一体化され得る。追加的に、いくつかの実施形態では、ヘッドマウントカメラは、一対の計装安全眼鏡によって構成され得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、ヘッドマウントカメラの着用者の視野の画像は、ビデオストリームの一部分としてキャプチャされ得る。いくつかのこのような実施形態では、本方法は、修正された画像をリモート修理技術者に送信することを含み得、この送信は、キャプチャされた画像ではなく、修正された画像を含むビデオストリームのバージョンを送信することによって実行され得る。
第1の態様の文脈で説明されるようないくつかの実施形態では、修正された画像の自動生成は、ヘッドマウントカメラの着用者の視野の画像のキャプチャ後10秒以内に完了され得る。いくつかのこのような実施形態では、ヘッドマウントカメラの着用者の視野をキャプチャしてから、修正された画像の生成を完了するまでの遅延は、5秒以下、1秒以下、0.5秒以下、又は0.1秒以下であり得る。追加的に、第1の態様の文脈で説明されるようないくつかの実施形態では、ヘッドマウントカメラの着用者の視野の画像は、マスキングされる部分として識別された1つ以上の部分の外側の秘密情報を含み得る。
第2の態様によれば、いくつかの実施形態は、ヘッドマウントカメラ及びプロセッサを備えるシステムを含み得る。このような実施形態では、プロセッサは、一組のコンピュータ命令で構成されてもよく、一組のコンピュータ命令は、実行されると、様々なステップを実行するように動作可能である。このようなステップは、ヘッドマウントカメラがアクティブ化された後、ヘッドマウントカメラによってキャプチャされた画像が非即時的な観察のために利用可能にされるべきか否かを判定することと、様々な条件が充足された場合、及びその場合にのみ、ヘッドマウントカメラによってキャプチャされた画像を非即時閲覧用に利用可能にすることを含み得る。このような条件は、いくつかの実施形態では、その画像が非即時閲覧用に利用可能にするべきであるとの判定が行われ、かつ/又は以下の命令文の両方が真である。(1)ヘッドマウントカメラによってキャプチャされた画像が、その画像がキャプチャされる前に、非即時閲覧用に利用可能にされるべきであるとの判定が行われたこと、及び(2)ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの直近の判定よりも最近において、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきでないとの判定が行われなかったこと。
第2の態様の文脈で説明されるようないくつかの実施形態では、コンピュータ命令は、実行されると、ヘッドマウントカメラが事前定義された領域内に位置しているか否かを判定することを含む一組のステップを実行することによって、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能であり得る。このような一組のステップはまた、ヘッドマウントカメラが事前定義された領域内に位置していないとの判定に基づいて、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきではないと判定することを含み得る。いくつかのそのような実施形態では、システムは、事前定義された領域内に位置するワイヤレス送受信機を備え得、ヘッドマウントカメラが事前定義された領域内に位置していないとの判定は、ヘッドマウントカメラとワイヤレス送受信機との距離に基づく。いくつかの他のそのような実施形態では、システムは、事前定義された領域の境界に位置する1つ以上のワイヤレス送受信機を備え得、ヘッドマウントカメラが事前定義された領域内に位置していないとの判定は、事前定義された領域の境界を横切るヘッドマウントカメラの検出に基づく。
第2の態様の文脈で説明されるようないくつかの実施形態では、システムは、研究室機器を含み得、コンピュータ命令は、実行されると、ヘッドマウントカメラによってキャプチャされた画像が、一組のステップを実行することによって、非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能であり得る。このようなステップは、研究室機器に対するヘッドマウントカメラの向きを判定することと、ヘッドマウントカメラの向きが、研究室機器から90度以上オフセットされているとの判定に基づいて、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきではないと判定することと、を含み得る。
第2の態様の文脈で説明されるようないくつかの実施形態では、コンピュータ命令は、実行されると、認可アクションの直近の発生からの経過時間がしきい値持続時間よりも長いとの判定に基づいて、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきではないと判定することを含む、一組のステップを実行することによって、ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるか否かを判定するように動作可能であり得る。
第2の態様の文脈で説明されるようないくつかの実施形態では、システムは、ヘッドマウントカメラとワイヤレス通信するように、及び/又はヘッドマウントカメラによってキャプチャされた画像を暗号化するように構成された研究室機器を備え得る。
第2の態様の文脈で説明されるようないくつかの実施形態では、ヘッドマウントカメラは、外部光源を備え得る。このような実施形態では、ヘッドマウントカメラは、ヘッドマウントカメラがアクティブ化された場合、及びヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの判定が行われた場合に、外部光源をアクティブ化するように構成され得る。同様に、いくつかのこのような実施形態では、ヘッドマウントカメラは、ヘッドマウントカメラが非アクティブ化された場合、及びヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきではないとの判定が行われた場合に、外部光源を非アクティブ化するように構成され得る。
第3の態様では、いくつかの実施形態は、ヘッドマウントカメラ、及びヘッドマウントカメラによってキャプチャされた画像に含まれる秘密情報を含まない修正画像を生成するための手段を備えるマシンを含み得る。
様々な他の態様及び実施形態も可能であり、本明細書に記載される開示に基づいて過度の実験を行うことなく、当業者によって実施され得る。したがって、上述の考察及び本明細書に記載された実施例からの特徴は、本明細書よって、又は本開示の利益を主張する任意の他の文書によって提供される保護に対する制限を示唆するものとして扱われるべきではない。
ここで図1を参照すると、この図は、いくつかの実施形態で使用され得る一対の計装安全眼鏡101を示す。当業者には理解されるように、研究室機器のオペレータは、機器を操作するときに常に安全眼鏡を着用することが期待され(かつ、一般的に必要とされ)得、したがって、そのような安全眼鏡は、オペレータが、そのような技術者に秘密情報を曝すことなく、リモート修理技術者から支援を得ることを可能にする技術のための便利なプラットフォームを提供し得る。図1に示されるように、一対の計装安全眼鏡101は、カメラ103、LEDインジケータ102、ジェスチャセンサ104、スピーカー105、電源106、及びマイクロフォン107を含み得る。いくつかの実施形態では、一対の計装眼鏡101上のカメラ103は、眼鏡101を着用している個人の視野内の画像をキャプチャするように構成され得る。LEDインジケータ102は、カメラ103が記録中又は送信中のいずれかであったときに自動的に点灯するように構成され得、その結果、近傍の他者は、それらの知識なしに記録されないであろう。ジェスチャセンサ104は、計装眼鏡101のハンズフリー操作を可能にするために、一組の事前定義されたジェスチャを認識するようにプログラムされたプロセッサ及びソフトウェアを使用して実装され得る。このようなジェスチャの実施例が図4に示されているが、いくつかの実施形態では、他のジェスチャ及び関連するアクションが含まれ(例えば、ユーザーによる時計回り/反時計回りの円をビデオフィードをオン/オフにするコマンドとして扱う)得、したがって、図4に示される実施例は、開示される技術の実施形態によってサポートされ得るジェスチャ又は関連するコマンドの種類に対する制限を示唆するように処理されるべきではないことを理解されたい。好ましくは骨伝導スピーカーとして実装されるスピーカー105は、計装眼鏡101を装着した個人が、自身の近傍の他の個人を乱すことなく聴覚情報(例えば、リモート修理技術者からの説明又は質問)を受信することを可能にし得る。電源106は、計装眼鏡101(例えば、カメラ103 LEDインジケータ102など)の他の構成要素に電力を提供し得るUSB充電可能及び/又は交換可能な電池を使用して実装され得る。マイクロフォン107は、エレクトレット又は他の種類のマイクロフォンであり得、一対の計装眼鏡101のステム上などの様々な場所に配置する、又はユーザーの口に近接して配置するアーム上のヘッドセットマイクロフォン(図1には図示せず)として配置し得、計装眼鏡101の着用者とリモート修理技術者との会話中に音声入力をキャプチャするなど、様々な目的のために使用され得る。
図1は、一対の計装安全眼鏡101に含まれ得る様々な構成要素を示しているが、いくつかの実施形態では、他の構成要素又は異なる構成要素が含まれ得、図1の計装安全眼鏡は、限定的なものとして扱われるのではなく、単に例示的なものとして見られるべきであることを理解されたい。例えば、一対の計装眼鏡101は、外部デバイス及びリモート修理技術者などのエンティティとのデータ通信を可能にするように構成された送受信機、又は送信機と受信機の対を含むことが好ましい。このような送受信機は、リモート技術者との直接通信を可能にし得(例えば、セルラー送受信機の場合)、又は、代わりに間接通信を容易にし得る(例えば、別個のセルラー電話又はコンピュータを介した接続を確立し得るような、Bluetooth(登録商標)送受信機又はWiFi送受信機の場合)。更に、いくつかの実施形態では、一対の計装眼鏡101は、そのユーザーの視野内に配置された別個の半透明スクリーンを介して、又は光学ディスプレイ素子を計装眼鏡101自体のレンズに組み込むことを介してなど、拡張現実情報を提示する能力を提供し得る。構成要素の代替的配置(例えば、ステム上ではなく、眼鏡のブリッジ上へのカメラ103の配置)又は構成要素の省略(例えば、ジェスチャセンサ104の省略)などのさらなる変形も可能であり、本明細書に記載される明示的な開示に照らして、当業者には直ちに明らかとなるであろう。
当然ながら、上述の構成要素の構成のように、図1に示されるような計装安全眼鏡101は、例示的なものに過ぎず、開示される技術の様々な実施形態で使用され得る物理デバイスの種類に限定するものとして理解されるべきではないことを理解されたい。例えば、いくつかの実施形態は、ARCore拡張現実フレームワークを使用して作成されたソフトウェアなどのソフトウェアを利用して、スマートフォンが、潜在的にはスマートフォンディスプレイがそのユーザーの視野を占有することを可能にするヘッドギアと組み合わされて、図1に示されるような計装眼鏡101の代わりに使用されることを可能にし得る。代替的に、いくつかの実施形態では、Oculus VR,LLC社のRiftなどの市販の拡張現実デバイスが使用され得る。更に別の代替として、開示される技術の好ましい実施形態は、ユーザーによるハンズフリーのインタラクションを可能にする方法で実装されるが、いくつかの実施形態は、開示される技術の様々な態様からの機能を提供するために、ハンドヘルドデバイス(例えば、タブレット、ヘッドセットなしのスマートフォン)を利用し得る。したがって、図1の計装安全眼鏡101は、単なる例示であると理解されるべきであり、限定するものとして扱われるべきではない。
ここで図2を参照すると、この図は、開示される技術の態様が展開され得る例示的な環境を示す。この環境では、ネットワーク201を使用して、研究室202とリモートサポートプロバイダ203との接続を確立する。この種類の環境では、研究室機器204は、研究室202とサポートプロバイダ203とのVPN接続をバッファリング、暗号化、及び/又は確立するなどの機能を提供し得る専用ハードウェアインターフェース205を介してリモートサポートプロバイダ203と間接的に接続する通信経路を有し得る。追加的に、図2に示されるような環境で展開されるいくつかの実施形態では、ハードウェアネットワークインターフェース205はまた、図1に示されるような計装眼鏡101と通信するために使用され得るワイヤレスアクセスポイント206、及び/又はそのような計装眼鏡の機能をサポートするためにいくつかの実装形態で使用され得るローカルコンピュータ207に接続され得る。
いくつかの実施形態が、図1に示される計装眼鏡101から変化するデバイスを使用し得ることが可能であるように、様々な実施形態が、図2に示されるものとは異なるデバイス及び/又はデバイスの組み合わせを使用し得ることが可能であることを理解されたい。例えば、いくつかの実施形態では、別個のハードウェアインターフェース205を含むのではなく、研究室機器204及び/又はローカルコンピュータ207は、図2の別個のハードウェアインターフェース205と同様の機能を提供する仮想マシンを用いて構成されることによってなど、リモートサポートプロバイダ203に直接接続され得る。同様に、いくつかの実施形態では、研究室機器204とは別個のローカルコンピュータ207が省略され得、その代わりに、開示される技術の機能性は、一組の計装眼鏡の処理能力によって(例えば、ジェスチャセンサ104について先に説明した同一のプロセッサ及びソフトウェアを使用して)、及び/又は研究室機器204自体によってサポートされ得る。追加的に、いくつかの実施形態では、ローカルコンピュータ207及び/又は一組の計装眼鏡によって提供され得る機能は、代わりに、リモートサポートプロバイダ203又は他のリモートシステム(例えば、研究室機器204及びリモートサポートプロバイダ203の両方から遠隔にある別個のサーバ)によってサポートされ得る。例えば、いくつかの実施形態では、研究室機器の一対の計装眼鏡上のカメラによってキャプチャされた画像は、暗号化された形態でリモートサポートプロバイダ(又は別個のリモートサーバ)に送信され、研究室機器自体、又はその近傍のコンピュータによってではなく、その場所で(例えば、本明細書でより詳細に記載されるように、秘密情報を除去することによって)処理され得る。したがって、図2の環境は、例示的なものに過ぎないと理解されるべきであり、限定的なものとして扱われるべきではない。
ここで図3を参照すると、この図は、いくつかの実施形態において使用され得、研究室機器の操作者がリモート技術者に有用な修理情報を、そのリモート技術者を不注意に秘密情報に曝すことなく提供することを可能にするプロセスを示している。最初に、図3のプロセスでは、ユーザーの視野の画像(例えば、ユーザーが一対の計装安全眼鏡101を装着している実施形態では、この視野は、必ずしもユーザーの実際の視野と同一ではなく、カメラ103の視野であり得ることを理解されたい)がキャプチャされる301。次いで、画像がリモート技術者に提供されるべきではない秘密情報を含むか否かの判定302が行われ得る。これは、例えば、画像を解析して、その画像に秘密情報が書き込まれ得るような付箋であると思われる部分を識別することによって、画像を解析して、バーコードであるように見える部分を識別することによって、画像を解析して、秘密情報を表示し得る画面又は他のインターフェースを識別することによって、及び/又は画像を分析して、ユーザーの視野内であり得るが、リモート技術者のサポート要件に重要ではない人間の顔を識別することによって、行われ得る。このような情報が存在すると識別される場合は、キャプチャされた画像内で不明瞭化され得る303(例えば、人間の顔、コンピュータディスプレイ、バーコード、及び/又は紙のメモはぼかしがかけられ得る)。また、図3に示すように、いくつかの実施形態はまた、ユーザーの視野の画像から異質データを自動的に除去する304追加のステップを含み得る。これは、例えば、深度に関してオブジェクト間を区別し、ユーザーからしきい値距離未満であったものを除く全てのオブジェクトをぼかすことによって、又はカメラの焦点距離を識別し、その距離よりもユーザーから遠い全てのオブジェクトをぼかすことによって行われ得る。最後に、識別された秘密情報が不明瞭化され303、異質データが除去される304と、修正された画像はリモート技術者に提供され得305、その結果、リモート技術者はユーザーが見ているものについての情報を使用してサポートを提供することができるようになる。
図1及び図2の眼鏡101及び環境と同様に、図3のプロセスは、例示的なものに過ぎないことを理解すべきであり、そのプロセスの変形又は逸脱がいくつかの実施形態に含まれ得る。図示するために、個々の画像とは対照的に、図3の文脈において上述したような技術をビデオストリームの処理に適用することについて検討する。画像がビデオストリームの形態でキャプチャされるいくつかの実施形態では、秘密情報が除去された修正されたビデオストリームを生成するために、図3に示されるようなプロセスがフレーム単位で各フレームに適用され得る。しかしながら、他の実施形態では(例えば、修正された画像を生成する処理負担を最小化するために)、図3に示すような処理は、ビデオストリーム内の全ての画像よりも少ない画像に対して実行され得る。例えば、いくつかの実施形態では、5つごとの画像を処理して不明瞭であるべき画像の部分を識別し得、次いで、不明瞭化は、ストリーム内の各画像についてマスキングされる画像の部分を独立して判定するのではなく、その次の4つの画像に繰り返され、適用され得る。同様に、ビデオストリームが、キーフレーム及びデルタを使用する形態で符号化される場合には、図3に示すような処理は、フレーム間のデルタとして表されるストリーム内の画像ではなく、キーフレームにのみ適用され得る。
ビデオ処理の最適化に加えて(又は代替的)、他の種類の変形も可能である。例えば、いくつかの実施形態では、画像が非即時閲覧(すなわち、画像をリモート修理技術者に送信することによって、又は後のレビューのために保存することによって、画像をローカル以外でリアルタイムに閲覧可能にする)用に提供されるべきか否かを判定し、その判定の結果に対して、図3に示されるようなステップの実行を調整する追加のステップが含まれ得る。例えば、いくつかの実施形態では、ユーザーは、機器204を収容するハウジング208などの許容可能な撮像領域を定義することを許可(又は、要求)され得、画像の提供305(及び、場合によっては、描写された画像の解析及び修正などの他のステップ)が、画像が許容可能な撮像領域内でキャプチャされたか否かを条件とし得る。このようにして、画像撮像装置が許容可能な撮像領域から不注意に移動された場合(例えば、計装眼鏡を着用している誰かがそれらをオフにすることなくトイレ209に行った場合)、通信されるべきではない情報を不注意に提供することを回避するように、自動的に(完全に、又は画像送信の自動停止によってなど、非即時的な閲覧を可能にする機能性のみを非アクティブ化することを通じてのいずれかにより)非アクティブ化され得る。この種類の機能をサポートするために、いくつかの実施形態では、許容可能な視野の入口及び出口には、画像撮像装置の通過を検出し、それ(又は、その機能の態様)を適宜、非アクティブ化(及び、いくつかの実施形態では、再アクティブ化)し得る、ビーコンを装備し得る。
代替的に、いくつかの実施形態では、画像撮像装置(及び/又は画像送信機能又は記憶機能などのその機器の様々な機能)は、所定の半径内(これは、好ましくは、ユーザーによって構成可能であり得る)にあるか、又は、アクセスポイント206又は機器204.の関連部品に組み込まれた送受信器などの撮像領域内の設定点の設定公差(例えば、90度以内)内に配向されている限りにおいてのみ、アクティブのままであるように構成され得る。別の代替として、いくつかの実施形態では、画像撮像装置は、1つ以上の加速度計及び/又はGPS受信機などのナビゲーション測定機器を装備し得、その機器を使用して、建物内のその現在位置が許容可能な撮像領域内にあるか否かを判定し得る。いくつかの実施形態では、画像のキャプチャ、処理、及び/又は提供機能を自動的にアクティブ化/非アクティブ化するための非位置ベースのアプローチも(又は、代替的に)含まれ得る。例えば、いくつかの実施形態では、一対の計装安全眼鏡の動作を制御するソフトウェアは、予め定められた記号についてキャプチャされた画像を自動的にチェックし、その記号が認識されない限り、それらの眼鏡の機能の一部又は全てを(例えば、リモート技術者への画像の送信を中止することによって)非アクティブ化するように構成され得る。このような実施形態では、関連する記号は、好ましくは、修理を必要とし得る研究室機器に貼付されるか、又は表示され、その結果、計装眼鏡の着用者が、修理が終了した後に、眼鏡をオフにすることなく、マシンに関連しない何かを行った場合には、眼鏡は、そのユーザーがもはやマシンを見ていないという事実に基づいて、画像をキャプチャする(又は、他のタスクを実行する)ことを自動的に停止し得る。
いくつかの実施形態において存在し得る種類の変形の別の実施例として、いくつかの場合には、図3に示されるような方法は、機微情報のより効果的な識別及びふるい分けを可能にする、様々な事前の構成/設定ステップによって補完され得る。許容可能な撮像領域のユーザー構成(その機能がサポートされている実施形態において)などのこれのいくつかの実施例が、既に言及されている。しかしながら、これは、様々な実施形態において許可/必要とされ得る全ての種類の事前構成の網羅的な説明として理解されるべきではない。例えば、一組の計装眼鏡の動作を維持するために特定の記号の周期的認識が必要であるいくつかの実施形態では、記号及び/又は記号がチェックされた周期(例えば、X分)が、ユーザーによって構成可能であり得る。別の実施例として、いくつかの実施形態では、秘密情報を含み得る付箋又は他の表記媒体の識別及びぼかしを可能にする機能をサポートするために、付箋の一組の画像及び/又は付箋を含む一組の画像がキャプチャされ、訓練コーパスとして使用されることにより、画像がキャプチャされると、その画像内の任意の付箋が(例えば、形状及び色に基づいて)効果的に識別され、ぼかしをかけられるか、さもなければふるい分けされ得る。同様に、いくつかの実施形態では、ユーザーは、キャプチャされる可能性が高く、リモート修理要員に関連するオブジェクト(例えば、研究室機器それ自体)をキャプチャすることによって事前構成を実行し得、更に、一対の計装眼鏡の動作を制御するソフトウェアはその情報を使用して、キャプチャされた画像内の関連するオブジェクトを認識し、他の全てを無関係として自動的に処理し得る(例えば、リモート技術者に提供される画像から、それをぼかしをかけるか又はふるい分けすることによって)。
当然ながら、上述の事前構成のステップも例示的であることが意図されており、限定として扱われるべきではないことを理解されたい。事前構成に関する代替的なアプローチの実施例として、計装安全眼鏡が研究室機器の製造業者によって提供され、これらの機器の動作寿命の間に製造業者が顧客に修理を提供するのを支援する、というシナリオを検討する。このようなシナリオでは、製造業者は、そのマシンによって提示されるインターフェースのライブラリを維持し得、一対の計装眼鏡がマシンの画像をキャプチャしたとき、マシンによって提示されるインターフェースはライブラリに対して照合され得る。次いで、一致することが判明した場合、キャプチャされた画像内のインターフェースの写真は、ライブラリからの一般的なインターフェース画像と重ね合わされ得るか、又はキャプチャされた画像内のインターフェースの特定の態様は、秘密情報が表示される関連インターフェース内の位置を示すライブラリ内の情報に基づいてマスキングされ得る。この種類の選択的マスキングの実施例が図5及び図6に示されており、図5は例示的な非マスキングスクリーンを示し、図6は秘密情報を含むと予想されるスクリーンの部分を識別するインターフェースライブラリに含まれ得るような情報を示す。当然ながら、図5及び図6の実施例は、例示的のみを意図しており、限定として扱われるべきではないこと、及び図7に示されるような他のレベルの選択性を有する他の種類のマスキングもいくつかの実施形態で使用され得ることを理解されたい。同様に、いくつかの実施形態では、一対の計装安全眼鏡の動作を制御するソフトウェアは、キャプチャされた画像をリモート修理プロバイダーに送信する前に、キャプチャされた画像内でその製造業者の機械を認識して他の全てをふるい落とすように、製造業者によって構成され得る。
更に別の変形例として、いくつかの実施形態では、この種類の事前定義されたインターフェースライブラリは、機器製造業者ではなく、ユーザーによって構成可能及び/又は作成され得る。例えば、ユーザーは、自分の研究室内の機器によって表示されるインターフェースのサンプルをアップロードし得るインターフェースを提供され得、次いで、それらのインターフェースがどのようにマスキングされるべきかを指定し得る(例えば、個々の、又は他の秘密情報を識別、接触、又は位置特定するために使用され得る情報を表示するインターフェースの1つ以上の部分を選択することによって、及び、インターフェース全体がマスキングされるべきであると指定することによってなど)。当然ながら、いくつかの実施形態では、製造業者がこの種類の構成インターフェースを使用して、例えば、他の製造業者のマシンによって提示されるインターフェースを事前定義されたインターフェースライブラリに追加することも可能である。したがって、事前構成の上述の議論は、一対の計装眼鏡の動作及び構成要素の考察のように、本開示の利益を主張する本明細書又は任意の他の文書によって提供される保護の範囲に対する制限を意味するものとして扱われるべきではない。
いくつかの実施形態によってサポートされ得る種類の変形の別の実施例は、開示される技術の態様が、関連する研究室機器に対してリモートではなくローカルに所在する技術者によって利用されることを可能にするように適合され得る機能である。例えば、秘密情報がオンサイト修理技術者に不注意に曝されることを防止するために、このような技術者は、自分の視覚を遮断し、上述したような方法で生成された修正画像と置き換える仮想現実ヘッドギアを装着することを要求され得、その結果、その技術者は、依然として、秘密保持性を破壊するリスクなしに関連するマシンを修理し得る。同様に、いくつかの実施形態では、開示される技術の態様を使用して、リモート技術者が研究室機器のオペレータにガイダンスを提供することを可能にして、さもなければそのオペレータが専門技術者の修理を必要とするであろう修理を実行できるようにし得る。例えば、研究室機器のオペレータが拡張又は仮想現実ヘッドギアを装備している場合、いくつかの実施形態では、リモート修理技術者は、自分がヘッドギアによってキャプチャされた視野画像の部分を強調することを可能にし得るインターフェースを提供され得、次いで、その強調は、機器を修理するためのガイダンスとして、リモート修理技術者に提示され得る(潜在的に、リモート修理技術者に提示されたものと一致するように秘密情報が取り除かれた画像上のオーバーレイとして、又は、リモート技術者に利用可能にされたものとは異なるであろうという事実にもかかわらず、元の画像上のオーバーレイとして)。この種類のアプローチはまた、仮想現実のヘッドギアが利用可能であるコンテクストにおいて、例えば、さもなければ研究室機器のユーザーに提示されるであろう情報を、拡張現実ヘッドギアを使用して表示することによって、代わりに(又は、追加して)研究室機器自体のディスプレイ上に、及び/又は研究室機器に近接するデバイス(例えば、オペレータによって保持されたタブレット、ローカルコンピュータなど)のディスプレイ上に提示されるように適用され得る。
開示される技術の代替的な用途の種類の別の実施例として、一対の計装眼鏡又は他の種類の記録ヘッドギアによってキャプチャされた画像が、保存され、後続の訓練及び/又は評価のためのデータとして使用され得、そのような訓練及び評価が、その情報にアクセスすべきでない者に秘密情報を曝さないように、上述のようなアプローチを使用して不要なデータが除去され得る。したがって、開示される技術を使用して秘密を維持しながらリモート修理を容易にすることの説明は、例示的なものとしてのみ理解されるべきであり、限定するものとして扱われるべきではない。
本発明者らの技術のさらなる変形、特徴、及び潜在的な実装及び用途は、本開示を照らして当業者には明らかであり、過度の実験を伴わずに実施され得る。したがって、本明細書、又は本明細書の開示の利益を主張するいずれの文献も、本明細書に記載される発明者の技術の特定の実施形態に限定されるものとして扱われるべきではない。
本明細書で使用される場合、単数形「a」、「an」、及び「the」は、文脈がそうでない旨を明確に指示しない限り、複数の指示対象を含む。本発明は、明確さ及び理解の目的のために詳細に説明されている。しかしながら、添付の特許請求の範囲内で特定の変更及び修正が実施され得ることが理解されるであろう。
本明細書で使用される場合、用語「基づく」は、あるものが、「基づく」として示されるものによって少なくとも部分的に決定されることを意味する。何かが何か他のものに基づいて完全に決定されなければならないことを示すために、それは、それが完全に決定されているものに「排他的に」に基づくものとして説明される。
本明細書で使用される場合、「カメラ」という用語は、視覚画像をキャプチャ及び/又は記録するためのデバイスを意味する。「カメラ」の実施例としては、電荷結合デバイス及び/又は相補的な金属酸化物半導体センサを使用して画像をキャプチャするデジタルカメラが挙げられる。
本明細書で使用される場合、「コンピュータ」は、結果を生成するためにデータに対して1つ以上の論理演算及び/又は物理演算を実行するための命令を記憶及び実行することが可能なデバイス群(例えば、プロセッサ及びメモリを備えるデバイス)を指すものと理解されるべきである。「コンピュータ」は、例えば、シングルコア又はマルチコアマイクロコントローラ又はマイクロコンピュータ、デスクトップ、ラップトップ若しくはタブレットコンピュータ、スマートフォン、サーバ、又は上述のデバイス群(例えば、冗長性及び可用性などの目的のためにデータに対して演算を行うために組み合わせて使用されるサーバのクラスタ)を含み得る。特許請求の範囲において、「サーバ」という単語は、「コンピュータ」と同義語であるものとして理解されるべきであり、異なる語の使用は、特許請求の範囲の可読性を向上させることを意図したものであり、「サーバ」がコンピュータではないことを意味するものではないと理解されるべきである。同様に、特許請求の範囲において「サーバ」及び「コンピュータ」という単語に先行する様々な形容詞は、可読性を向上させることを意図しており、限定として扱われるべきではない。
本明細書で使用される場合、「マシン」という用語は、デバイス又はデバイスの組み合わせを指す。
本明細書で使用される場合、「ヘッドマウントカメラによってキャプチャされた画像に含まれる秘密情報を含まない修正された画像を生成する手段」は、35U.S.C.§112(f)で提供されるような指定された機能を実行するための手段として記載される限定として理解されるべきであり、機能は「ヘッドマウントカメラによってキャプチャされた画像に含まれる秘密情報の欠落している修正された画像を生成すること」であり、対応する構造は、段落34及び37~39に記載され、図3に示されるように構成されたコンピュータである。
本明細書で使用される場合、「ネットワーク」という用語は、標準プロトコルを使用したネットワークの任意の集合を指す。例えば、この用語は、グローバル分散ネットワークを形成するために、一組の標準プロトコル(TCP/IP、HTTPなど)によって互いにリンクされる相互接続された(パブリック及び/又はプライベート)ネットワークの集合を含む。この用語はまた、既存の標準プロトコルに対数する変更及び追加、又は他の媒体(例えば、テレビ、ラジオなど)との統合を含む、将来に行われ得る変形を包含することが意図される。
本明細書で使用される場合、「サンプル」という用語は、任意の生体サンプルを指し、語句「生体サンプル」は、動物又はヒトの身体などの自然環境から単離された生体物質の任意の標本を含むことを意味する。これは、組織、骨、靱帯などの固体形態であり得る。また、血液、脊髄液などの液体形態であり得る。
本明細書で使用される場合、「組」という用語は、同様の性質、設計、又は機能のゼロ以上の数、群、又は組み合わせを指す。
本明細書で使用される場合、「第1」、「第2」などの修飾語句は、可読性を向上させるために使用される単なるラベルであり、それらが修飾する項目間の任意の時間的又は実質的な差異を意味することを意図するものではない。例えば、特許請求の範囲において「第1のプログラム」及び「第2のプログラム」として項目を参照することは、「第1のプログラム」が最初に作成されるか、又は2つのプログラムが、コンピュータによって実行されるときに、必然的に異なることを生じさせることになることを示すと理解されるべきではない。同様に、特許請求の範囲で使用される場合、「コンピュータ」及び「サーバ」という単語は、同義語であると理解されるべきであり、異なる用語は、特許請求の範囲の可読性を向上させるために使用され、それらの異なる用語を使用して言及される項目間の任意の物理的又は機能的差を意味するものではない。
本明細書で使用される場合、「研究室」は、医療診断又は治療の目的のために、ヒト又は動物から収集された生体物質の試料などの物質に対して実験又は試験が行われる施設として理解されるべきである。

Claims (28)

  1. ヘッドマウントカメラおよびプロセッサを備えるシステムにおいて実行される方法であって、前記方法は、
    a)前記ヘッドマウントカメラが、前記ヘッドマウントカメラの視野の画像をキャプチャすることと、
    b)前記プロセッサが、ほぼリアルタイムで、修正された画像を自動的に生成することであって、前記生成することが、
    i)前記プロセッサが、マスキングされる記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することであって、前記マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することは、
    a)前記プロセッサが、前記視野内の1つ以上のディスプレイ画面を識別することと、
    b)前記1つ以上のディスプレイ画面のそれぞれについて、前記プロセッサが、事前定義されたインターフェースライブラリからのアイテムと一致するインターフェースがそのディスプレイ画面上に表示されているか否かを判定することと、
    c)前記事前定義されたインターフェースライブラリからの少なくとも1つの一致するアイテムを有する各表示されたインターフェースについて、前記プロセッサが、前記事前定義されたインターフェースライブラリからの前記一致したアイテムからの情報に基づいて、マスキングされる前記画像の部分として、そのインターフェースの1つ以上の部分を識別することと
    を含む、ことと、
    ii)前記プロセッサが、前記1つ以上の識別された部分のそれぞれをマスキングすることと
    含むステップを実行することによって行われる、とと、
    c)前記プロセッサが、前記修正された画像を提示することであって、前記プロセッサが、前記修正された画像を提示することが、
    i)前記修正された画像をリモート修理技術者に表示することと、
    ii)前記修正された画像を拡張現実ヘッドピースのディスプレイ上に表示することと
    を含み、前記ヘッドマウントカメラが、前記拡張現実ヘッドピースと統合されている、とと
    含む、方法。
  2. 前記プロセッサが、前記1つ以上の識別された部分のそれぞれをマスキングすることが、前記事前定義されたインターフェースライブラリからの少なくとも1つの一致するアイテムを有する前記1つ以上のディスプレイ画面のそれぞれについて、前記事前定義されたインターフェースライブラリからの、そのインターフェースに対応する画像を重ね合わせることを含む、請求項に記載の方法。
  3. 前記プロセッサが、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することが、
    a)前記ヘッドマウントカメラの焦点距離を決定することと、
    b)前記決定された焦点距離よりも前記ヘッドマウントカメラから遠い前記ヘッドマウントカメラの前記視野の前記画像の各部分を、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の前記1つ以上の部分のうちの1つとして識別することと
    含む、請求項1~のいずれか一項に記載の方法。
  4. a)前記方法が、前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、前記プロセッサが、1つ以上の表記媒体標本画像を提供することを含み、
    b)前記プロセッサが、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の1つ以上の部分を識別することが、
    i)前記表記媒体標本画像からの情報に基づいて、前記視野内の1つ以上の表記媒体を識別することと、
    ii)前記視野内の前記1つ以上の表記媒体のそれぞれを、マスキングされる前記ヘッドマウントカメラの前記視野の前記画像の前記1つ以上の部分のうちの1つとして識別することと
    含む、請求項1~のいずれか一項に記載の方法。
  5. 前記表記媒体標本画像からの前記情報が、1つ以上の表記媒体標本色を含む、請求項に記載の方法。
  6. a)前記プロセッサが、前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に送信することを含み、
    b)前記方法が、
    i)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、前記プロセッサが、研究室の撮像可能領域を指定することと、
    ii)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャした後に、前記プロセッサが、前記撮像可能領域の境界に位置する1つ以上のワイヤレス送受信機に基づいて、前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置するか否かを判定することと、
    iii)前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置していないとの判定に基づいて、前記プロセッサが、前記ヘッドマウントカメラの送信機能を自動的に非アクティブ化することと
    含む、請求項1~のいずれか一項に記載の方法。
  7. 前記ヘッドマウントカメラの前記送信機能が、前記プロセッサが前記ヘッドマウントカメラを自動的に非アクティブ化することによって自動的に非アクティブ化される、請求項に記載の方法。
  8. a)前記プロセッサが、前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
    b)前記方法が、
    i)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャする前に、前記プロセッサが、研究室の撮像可能領域を指定することと、
    ii)前記ヘッドマウントカメラの前記視野の前記画像をキャプチャした後に、前記プロセッサが、前記撮像可能領域の内側に位置するワイヤレス送受信機からの距離に基づいて、前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置するか否かを判定することと、
    iii)前記ヘッドマウントカメラが前記研究室の前記撮像可能領域内に位置していないとの判定に基づいて、前記プロセッサが、前記ヘッドマウントカメラの送信機能を自動的に非アクティブ化することと
    含む、請求項1~のいずれか一項に記載の方法。
  9. a)前記プロセッサが、前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
    b)前記方法が、前記プロセッサが、インターネット接続を使用して、前記修正された画像を前記リモート修理技術者に送信することを含む、請求項1~のいずれか一項に記載の方法。
  10. a)前記プロセッサが、前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
    b)前記方法が、前記修正された画像を前記リモート修理技術者に表示すると同時に、前記プロセッサが、前記ヘッドマウントカメラの前記視野の前記画像を前記拡張現実ヘッドピースの前記ディスプレイ上に表示することを含み、前記ヘッドマウントカメラが前記拡張現実ヘッドピースと一体化されている、請求項1~のいずれか一項に記載の方法。
  11. a)前記画像がビデオストリームの一部分としてキャプチャされ、
    b)前記方法が、前記プロセッサが、前記修正された画像を前記リモート修理技術者に送信することを含み、
    c)前記プロセッサが、前記修正された画像を前記リモート修理技術者に送信することが、前記キャプチャされた画像ではなく、前記修正された画像を含むビデオストリームのバージョンを送信することによって実行される、請求項1~10のいずれか一項に記載の方法。
  12. 前記プロセッサが、前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後10秒以内に完了する、請求項1~11のいずれか一項に記載の方法。
  13. 前記プロセッサが、前記修正された画像をほぼリアルタイムで自動的に生成することが、リアルタイムで前記修正された画像を自動的に生成することを含む、請求項1~12のいずれか一項に記載の方法。
  14. 前記プロセッサが、前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後5秒以内に完了する、請求項1~13のいずれか一項に記載の方法。
  15. 前記プロセッサが、前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後1秒以内に完了する、請求項1~14のいずれか一項に記載の方法。
  16. 前記プロセッサが、前記修正された画像を自動的に生成することが、前記ヘッドマウントカメラの前記視野の前記画像のキャプチャ後0.5秒以内に完了する、請求項1~15のいずれか一項に記載の方法。
  17. 前記ヘッドマウントカメラの前記視野の前記画像が、マスキングされる部分として識別される前記1つ以上の部分の外側に秘密情報を含む、請求項1~16のいずれか一項に記載の方法。
  18. 前記ヘッドマウントカメラが、一対の計装安全眼鏡によって構成される、請求項1~17のいずれか一項に記載の方法。
  19. a)前記プロセッサが、前記修正された画像を提示することが、前記修正された画像を前記リモート修理技術者に表示することを含み、
    b)前記方法は、
    i)前記リモート修理技術者による入力および前記修正された画像に基づいて、前記プロセッサが、前記ヘッドマウントカメラの前記視野内の研究室機器における問題に対処するための情報を含む修復オーバーレイを生成することと、
    ii)前記研究室機器のディスプレイ上に前記修復オーバーレイを含む画像を表示することと
    含む、請求項1~18のいずれか一項に記載の方法。
  20. システムであって、
    a)ヘッドマウントカメラと、
    b)プロセッサと
    備え、
    前記プロセッサは、一組のコンピュータ命令で構成されており、前記一組のコンピュータ命令が、実行されると、
    A)前記ヘッドマウントカメラがアクティブ化された後、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきか否かを判定することであって、前記判定することが、
    a)前記ヘッドマウントカメラが事前定義された領域内に位置するか否かを判定することと、
    b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像は、非即時閲覧用に利用可能にされるべきではないと判定することと
    を含む一組のステップを実行することによって行われる、ことと
    B)前記ヘッドマウントカメラによってキャプチャされた画像を、
    I)前記画像が、非即時閲覧用に利用可能にされるべきであるとの判定が行われ、かつ/又は、
    II)
    1)前記ヘッドマウントカメラによってキャプチャされた画像が、その画像がキャプチャされる前に、非即時閲覧用に利用可能にされるべきであるとの判定が行われたことと、
    2)前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの直近の判定よりも最近において、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきでないとの判定が行われなかったことと
    両方の命令文が真である
    場合かつその場合のみ、非即時閲覧用に利用可能にすることと
    を行うように、動作可能である、システム。
  21. a)前記システムが、前記事前定義された領域の内側に位置するワイヤレス送受信機を備え、
    b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの前記判定が、前記ヘッドマウントカメラと前記ワイヤレス送受信機との間の距離に基づく、請求項20に記載のシステム。
  22. a)前記システムが、前記事前定義された領域の境界に位置する1つ以上のワイヤレス送受信機を備え、
    b)前記ヘッドマウントカメラが前記事前定義された領域内に位置していないとの前記判定は、前記ヘッドマウントカメラが前記事前定義された領域の前記境界を横切ることを検出することに基づく、請求項20~21のいずれか一項に記載のシステム。
  23. a)前記システムが研究室機器を備え、
    b)前記コンピュータ命令が、実行されると、
    i)前記研究室機器に対する前記ヘッドマウントカメラの向きを判定することと、
    ii)前記ヘッドマウントカメラの前記向きが、前記研究室機器から90度以上オフセットされているとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないと判定することと
    含む一組のステップを実行することによって、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能である、請求項2022のいずれか一項に記載のシステム。
  24. 前記コンピュータ命令が、実行されると、認可アクションの直近の発生からの経過時間がしきい値持続時間よりも長いとの判定に基づいて、前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないと判定すること、を含む一組のステップを実行することによって、前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきか否かを判定するように動作可能である、請求項2023のいずれか一項に記載のシステム。
  25. 前記システムが、前記ヘッドマウントカメラとワイヤレス通信するように構成された研究室機器を備える、請求項2024のいずれか一項に記載のシステム。
  26. 前記システムが、前記ヘッドマウントカメラによってキャプチャされた画像を暗号化するように構成された研究室機器を備える、請求項2025のいずれか一項に記載のシステム。
  27. a)前記ヘッドマウントカメラが外部光源を含み、
    b)前記ヘッドマウントカメラは、前記ヘッドマウントカメラがアクティブ化されたとき、かつ前記ヘッドマウントカメラによってキャプチャされた画像が非即時閲覧用に利用可能にされるべきであるとの判定が行われたときに、前記外部光源をアクティブ化するように構成されており、
    c)前記ヘッドマウントカメラは、前記ヘッドマウントカメラが非アクティブ化されたとき、かつ前記ヘッドマウントカメラによってキャプチャされた画像が、非即時閲覧用に利用可能にされるべきではないとの判定が行われたときに、前記外部光源を非アクティブ化するように構成されている、請求項2026のいずれか一項に記載のシステム。
  28. マシンであって、
    a)画像をキャプチャするためのヘッドマウントカメラと、
    b)前記ヘッドマウントカメラによってキャプチャされた画像に含まれる秘密情報を含まない修正された画像を生成する手段と
    備え、前記修正された画像を生成する手段は、プロセッサを含み、前記修正された画像は、
    i)前記プロセッサが、マスキングされる前記ヘッドマウントカメラによってキャプチャされた前記画像の1つ以上の部分を識別することであって、前記マスキングされる前記ヘッドマウントカメラによってキャプチャされた前記画像の1つ以上の部分を識別することは、
    a)前記プロセッサが、前記ヘッドマウントカメラによってキャプチャされた前記画像内の1つ以上のディスプレイ画面を識別することと、
    b)前記1つ以上のディスプレイ画面のそれぞれについて、前記プロセッサが、事前定義されたインターフェースライブラリからのアイテムと一致するインターフェースがそのディスプレイ画面上に表示されているか否かを判定することと、
    c)前記事前定義されたインターフェースライブラリからの少なくとも1つの一致するアイテムを有する各表示されたインターフェースについて、前記プロセッサが、前記事前定義されたインターフェースライブラリからの前記一致したアイテムからの情報に基づいて、マスキングされる前記画像の部分として、そのインターフェースの1つ以上の部分を識別することと
    を含む、ことと、
    ii)前記プロセッサが、前記1つ以上の識別された部分のそれぞれをマスキングすることと
    によって生成される、マシン。

JP2021524368A 2018-11-09 2019-10-16 選択的データ提供を備えた修理グラス Active JP7445653B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862758147P 2018-11-09 2018-11-09
US62/758,147 2018-11-09
PCT/US2019/056473 WO2020096743A1 (en) 2018-11-09 2019-10-16 Service glasses with selective data provision

Publications (2)

Publication Number Publication Date
JP2022506778A JP2022506778A (ja) 2022-01-17
JP7445653B2 true JP7445653B2 (ja) 2024-03-07

Family

ID=70611124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021524368A Active JP7445653B2 (ja) 2018-11-09 2019-10-16 選択的データ提供を備えた修理グラス

Country Status (6)

Country Link
US (1) US12001600B2 (ja)
EP (1) EP3877831A4 (ja)
JP (1) JP7445653B2 (ja)
KR (1) KR20210073603A (ja)
CN (1) CN113227940A (ja)
WO (1) WO2020096743A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114218622A (zh) * 2021-12-21 2022-03-22 爱尔卓资讯有限公司 一种基于远程控制的设备屏幕信息保护方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349999A (ja) 1999-06-08 2000-12-15 Ricoh Co Ltd 画像処理方法
JP2007173992A (ja) 2005-12-19 2007-07-05 Sharp Corp リモートカメラ装置およびリモートカメラ操作装置
JP2009147647A (ja) 2007-12-13 2009-07-02 Sony Corp 自動撮像装置
JP2012168642A (ja) 2011-02-10 2012-09-06 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP2015115723A (ja) 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム
JP2017211766A (ja) 2016-05-24 2017-11-30 株式会社Screenホールディングス 画像処理システム、画像処理プログラム、および画像処理方法
JP2018011242A (ja) 2016-07-15 2018-01-18 コニカミノルタ株式会社 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム
JP2018037951A (ja) 2016-09-01 2018-03-08 セコム株式会社 行動記録システム、端末装置及び行動記録方法
JP2018116572A (ja) 2017-01-19 2018-07-26 株式会社大林組 画像管理システム、画像管理方法、及び画像管理プログラム
WO2018179222A1 (ja) 2017-03-30 2018-10-04 株式会社オプティム コンピュータシステム、画面共有方法及びプログラム
JP2018156293A (ja) 2017-03-16 2018-10-04 富士通株式会社 プログラム、情報処理方法および情報処理装置

Family Cites Families (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815126A (en) 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
EP1027627B1 (en) 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
US7230582B1 (en) 1999-02-12 2007-06-12 Fisher-Rosemount Systems, Inc. Wearable computer in a process control environment
DE50003531D1 (de) 1999-03-02 2003-10-09 Siemens Ag System und verfahren zur situationsgerechten unterstützung der interaktion mit hilfe von augmented-reality-technologien
WO2001095061A2 (en) 1999-12-07 2001-12-13 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
JP2002369054A (ja) 2001-06-06 2002-12-20 Nikon Corp 電子画像装置および電子画像システム
GB2378075A (en) 2001-07-27 2003-01-29 Hewlett Packard Co Method and apparatus for transmitting images from head mounted imaging device.
US7126558B1 (en) 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
US9153074B2 (en) 2011-07-18 2015-10-06 Dylan T X Zhou Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP4051702B2 (ja) 2003-01-31 2008-02-27 株式会社ニコン ヘッドマウントディスプレイ
US7806525B2 (en) 2003-10-09 2010-10-05 Ipventure, Inc. Eyeglasses having a camera
US7922321B2 (en) 2003-10-09 2011-04-12 Ipventure, Inc. Eyewear supporting after-market electrical components
JP2004363987A (ja) 2003-06-05 2004-12-24 Advanced Telecommunication Research Institute International 画像提示システム
CN100350792C (zh) 2004-04-14 2007-11-21 奥林巴斯株式会社 摄像装置
US7715037B2 (en) 2005-03-01 2010-05-11 Xerox Corporation Bi-directional remote visualization for supporting collaborative machine troubleshooting
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
KR100653303B1 (ko) * 2005-12-22 2006-12-05 주식회사 팬택 카메라 촬영을 제한하는 방법 및 상기 방법을 수행하는이동 통신 단말기
CN201054051Y (zh) 2006-04-05 2008-04-30 致胜科技股份有限公司 眼镜架电子及电力装置
JP5119636B2 (ja) 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
JP5023663B2 (ja) 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP2008146109A (ja) 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
WO2009036782A1 (en) 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
CN102906623A (zh) 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 交互式头戴目镜上的本地广告内容
CN101819334B (zh) 2010-04-01 2013-04-17 夏翔 多功能电子眼镜
US8531394B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglasses transceiver
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8621362B2 (en) 2011-01-21 2013-12-31 Xerox Corporation Mobile screen methods and systems for collaborative troubleshooting of a device
US20130286163A1 (en) 2010-11-08 2013-10-31 X6D Limited 3d glasses
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US8184069B1 (en) 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
CN102843349B (zh) 2011-06-24 2018-03-27 中兴通讯股份有限公司 实现移动增强现实业务的方法及***、终端及服务器
US20160171780A1 (en) 2011-07-03 2016-06-16 Neorai Vardi Computer device in form of wearable glasses and user interface thereof
US8934015B1 (en) 2011-07-20 2015-01-13 Google Inc. Experience sharing
CN102348068B (zh) 2011-08-03 2014-11-26 东北大学 一种基于头部姿态控制的随动远程视觉***
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US8681073B1 (en) 2011-09-29 2014-03-25 Rockwell Collins, Inc. System for and method of controlling contrast or color contrast in see-through displays
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9128520B2 (en) 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
KR102095220B1 (ko) 2011-11-23 2020-03-31 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
US9122321B2 (en) 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
JP2013236213A (ja) 2012-05-08 2013-11-21 Nikon Corp 電子機器、情報通信システム、およびプログラム
TWI498771B (zh) 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
KR20140025930A (ko) 2012-08-23 2014-03-05 삼성전자주식회사 헤드마운트형 디스플레이장치 및 그 제어방법
CN102866506A (zh) 2012-09-21 2013-01-09 苏州云都网络技术有限公司 增强现实眼镜及其实现方法
US9132342B2 (en) 2012-10-31 2015-09-15 Sulon Technologies Inc. Dynamic environment and location based augmented reality (AR) systems
WO2014076045A2 (en) 2012-11-19 2014-05-22 Orangedental Gmbh & Co. Kg Magnification loupe with display system
KR20140072651A (ko) 2012-12-05 2014-06-13 엘지전자 주식회사 글래스타입 휴대용 단말기
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
EP4193906A1 (en) * 2013-03-11 2023-06-14 Magic Leap, Inc. Method for augmented and virtual reality
WO2014144918A2 (en) 2013-03-15 2014-09-18 Percept Technologies, Inc. Enhanced optical and perceptual digital eyewear
US9729767B2 (en) 2013-03-22 2017-08-08 Seiko Epson Corporation Infrared video display eyewear
JP2014212473A (ja) 2013-04-19 2014-11-13 株式会社ニコン 通信装置、及び頭部装着表示装置
JP2014219448A (ja) 2013-05-01 2014-11-20 コニカミノルタ株式会社 表示システム、表示方法、表示端末および表示プログラム
CN104182671A (zh) 2013-05-23 2014-12-03 腾讯科技(深圳)有限公司 一种浏览器的隐私信息保护方法及装置
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
KR102099834B1 (ko) 2013-06-18 2020-04-10 엘지전자 주식회사 전자장치 및 전자장치의 동작방법
US9686466B1 (en) 2013-06-27 2017-06-20 Google Inc. Systems and methods for environment content sharing
KR101522088B1 (ko) * 2013-06-28 2015-05-20 주식회사 포스코 카메라 내장 단말기 촬영 보안용 원격 관리 서버
US9160993B1 (en) 2013-07-18 2015-10-13 Amazon Technologies, Inc. Using projection for visual recognition
CN203399222U (zh) 2013-08-16 2014-01-15 上海三吉电子工程有限公司 Td-lte眼镜式监控终端
CN104423038B (zh) 2013-08-19 2017-07-21 联想(北京)有限公司 电子设备及其焦点信息获取方法
KR102165444B1 (ko) 2013-08-28 2020-10-14 엘지전자 주식회사 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법
WO2015032014A1 (zh) 2013-09-03 2015-03-12 常州菲胜图自动化仪器有限公司 一种智能眼镜及利用智能眼镜监测运动、预防近视、矫正坐姿的方法
US20150095041A1 (en) 2013-09-27 2015-04-02 Hongjin Kim System for controlling medical device by using short-range wireless communication technology and method of the same
US10466858B2 (en) * 2013-12-01 2019-11-05 Upskill, Inc. Systems and methods for interacting with a virtual menu
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
KR102056193B1 (ko) 2014-01-22 2019-12-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102374584B1 (ko) 2014-03-21 2022-03-16 삼성전자주식회사 영상을 디스플레이 하는 방법 및 디바이스
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
KR102209511B1 (ko) 2014-05-12 2021-01-29 엘지전자 주식회사 안경형 단말기와 그 안경형 단말기의 제어 방법
KR102207856B1 (ko) 2014-05-14 2021-01-26 한국전자통신연구원 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
EP3143598A1 (en) 2014-05-15 2017-03-22 ShowMe Telepresence ApS Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor
KR102158214B1 (ko) 2014-05-19 2020-09-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9323983B2 (en) 2014-05-29 2016-04-26 Comcast Cable Communications, Llc Real-time image and audio replacement for visual acquisition devices
JP2015228009A (ja) 2014-06-03 2015-12-17 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報送受信システム、および、コンピュータープログラム
KR102240639B1 (ko) 2014-06-12 2021-04-15 엘지전자 주식회사 글래스 타입 단말기 및 그것의 제어 방법
KR102217561B1 (ko) 2014-06-23 2021-02-19 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그것의 제어방법
WO2016010328A1 (ko) 2014-07-14 2016-01-21 넥시스 주식회사 웨어러블 디바이스를 이용한 정보처리 시스템 및 방법
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
CN104090385B (zh) 2014-07-25 2015-11-18 金陵科技学院 一种防作弊用智能眼镜
CN204009265U (zh) 2014-07-25 2014-12-10 金陵科技学院 一种防作弊用智能眼镜
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
KR20160019187A (ko) 2014-08-11 2016-02-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP2016045724A (ja) 2014-08-22 2016-04-04 株式会社ニコン 電子機器
KR102155094B1 (ko) 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN204390168U (zh) 2014-08-29 2015-06-10 百度在线网络技术(北京)有限公司 头戴式智能设备
CN104182050B (zh) 2014-08-29 2017-10-31 百度在线网络技术(北京)有限公司 头戴式智能设备和具有该头戴式智能设备的投影***
KR20160029536A (ko) 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20160078449A1 (en) 2014-09-11 2016-03-17 Bank Of America Corporation Two-Way Interactive Support
KR101646356B1 (ko) 2014-10-17 2016-08-05 현대자동차주식회사 웨어러블 기기를 이용한 차량 제어장치 및 방법
US9898610B1 (en) 2014-10-22 2018-02-20 State Farm Mutual Automobile Insurance Company System and method for concealing sensitive data on a computing device
US9866757B2 (en) 2014-10-27 2018-01-09 Wichita State University Computer program, system, and method for observation and communication for mobile settings, mobile applications, and wearable mobile devices
JP2016224086A (ja) 2015-05-27 2016-12-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US9804813B2 (en) * 2014-11-26 2017-10-31 The United States Of America As Represented By Secretary Of The Navy Augmented reality cross-domain solution for physically disconnected security domains
KR101641646B1 (ko) * 2014-11-28 2016-07-21 전자부품연구원 동영상 마스킹 처리방법 및 장치
GB2533553B (en) 2014-12-15 2020-09-09 Sony Interactive Entertainment Inc Image processing method and apparatus
CN104570399A (zh) 2014-12-30 2015-04-29 郑州大学 医用影像共享视频眼镜
JP2016146044A (ja) 2015-02-06 2016-08-12 キヤノン株式会社 映像処理システム、映像処理装置及びその制御方法、並びにプログラム及び記憶媒体
KR20160125674A (ko) 2015-04-22 2016-11-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN204636276U (zh) 2015-05-04 2015-09-16 合肥德铭电子有限公司 一种穿戴型腔镜虚拟显示***
KR20160133230A (ko) 2015-05-12 2016-11-22 엘지전자 주식회사 이동 단말기
JP6587421B2 (ja) 2015-05-25 2019-10-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6539122B2 (ja) 2015-06-17 2019-07-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN104950448A (zh) 2015-07-21 2015-09-30 郭晟 警务智能眼镜及其应用方法
US20170064209A1 (en) 2015-08-26 2017-03-02 David Cohen Wearable point of regard zoom camera
KR20170025413A (ko) 2015-08-28 2017-03-08 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP2017049762A (ja) 2015-09-01 2017-03-09 株式会社東芝 システム及び方法
JP2017048024A (ja) 2015-09-03 2017-03-09 株式会社東芝 メガネ型ウエアラブル端末およびこの端末を用いるピッキング方法
KR102398835B1 (ko) 2015-09-10 2022-05-17 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN105204643A (zh) 2015-09-28 2015-12-30 大连楼兰科技股份有限公司 用于车辆维保过程中的智能眼镜的手势识别方法
CN105224923B (zh) 2015-09-28 2018-10-19 大连楼兰科技股份有限公司 智能眼镜应用于维保过程中的划分零件定损等级的方法
CN105182536B (zh) 2015-09-28 2018-03-30 大连楼兰科技股份有限公司 汽车维保过程中智能眼镜通过车牌识别并获得车辆信息的方法
CN105353508A (zh) 2015-09-28 2016-02-24 大连楼兰科技股份有限公司 智能眼镜检测汽车液体余量的方法
CN105242401B (zh) 2015-09-28 2018-08-10 大连楼兰科技股份有限公司 智能眼镜共享用于汽车维保的其他设备数据的方法
CN105223706B (zh) 2015-09-28 2018-03-30 大连楼兰科技股份有限公司 用于车辆维保过程中的智能眼镜判定车辆损伤程度的方法
CN105158927B (zh) 2015-09-28 2018-06-26 大连楼兰科技股份有限公司 智能眼镜在汽车维保过程中的零件拆卸的方法
CN105205471B (zh) 2015-09-28 2019-02-12 大连楼兰科技股份有限公司 智能眼镜维保过程中的盲区查看的方法
CN105158931A (zh) 2015-09-28 2015-12-16 大连楼兰科技股份有限公司 用于车辆维保过程中的智能眼镜触控板与按键的并行使用防油污的方法
CN105184276B (zh) 2015-09-28 2018-10-19 大连楼兰科技股份有限公司 智能眼镜维保过程中的零件识别方法
CN105355196A (zh) 2015-09-28 2016-02-24 大连楼兰科技股份有限公司 智能眼镜应用于汽车维保领域的语音指令识别方法
CN105353509A (zh) 2015-09-28 2016-02-24 大连楼兰科技股份有限公司 汽车维保过程中智能眼镜用于判定汽车异响的方法
CN105158900B (zh) 2015-09-28 2018-10-19 大连楼兰科技股份有限公司 汽车维保智能眼镜上的头部姿态识别的方法
CN105353510A (zh) 2015-09-28 2016-02-24 大连楼兰科技股份有限公司 智能眼镜应用于汽车远程维保支援的方法
CN105259657B (zh) 2015-09-28 2018-06-26 大连楼兰科技股份有限公司 汽车维保过程中智能眼镜的照明方法
CN108139803B (zh) * 2015-10-08 2021-04-20 Pcms控股公司 用于动态显示器配置的自动校准的方法及***
CN105357421A (zh) 2015-10-27 2016-02-24 南京泓众电子科技有限公司 一种智能眼镜***
KR101832966B1 (ko) 2015-11-10 2018-02-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10015400B2 (en) 2015-12-17 2018-07-03 Lg Electronics Inc. Mobile terminal for capturing an image and associated image capturing method
US20170206509A1 (en) 2016-01-15 2017-07-20 Alex Beyk Methods and systems to assist technicians execute and record repairs and centralized storage of repair history using head mounted displays and networks
KR20170087247A (ko) 2016-01-20 2017-07-28 엘지전자 주식회사 이동 단말기
US10257505B2 (en) 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion
CN205427327U (zh) 2016-03-09 2016-08-03 韩云峰 虚拟现实眼镜
JP6620063B2 (ja) 2016-04-21 2019-12-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
KR20170123125A (ko) 2016-04-28 2017-11-07 엘지전자 주식회사 이동단말기 및 그 제어방법
US20170337352A1 (en) 2016-05-23 2017-11-23 Daqri, Llc Confidential information occlusion using augmented reality
CN205847478U (zh) 2016-05-27 2016-12-28 大连楼兰科技股份有限公司 一种智能眼镜***
FR3053509B1 (fr) 2016-06-30 2019-08-16 Fittingbox Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe
CN205864618U (zh) 2016-07-18 2017-01-04 珠海格力电器股份有限公司 智能眼镜和摄像显示装置
CN106028000A (zh) 2016-07-18 2016-10-12 珠海格力电器股份有限公司 智能眼镜和摄像显示装置
US20180082020A1 (en) * 2016-09-22 2018-03-22 Laxmikantha Elachithaya Rajagopal Method and device for securing medical record
US10430559B2 (en) * 2016-10-18 2019-10-01 Adobe Inc. Digital rights management in virtual and augmented reality
CN106291985A (zh) 2016-10-20 2017-01-04 广州初曲科技有限公司 一种基于增强现实技术的高续航企业级智能协作眼镜
US10546557B2 (en) * 2016-11-14 2020-01-28 Adobe Inc. Removing overlays from a screen to separately record screens and overlays in a digital medium environment
CN107340853B (zh) 2016-11-18 2020-04-14 北京理工大学 一种基于虚拟现实与手势识别的远程呈现交互方法和***
US10817066B2 (en) * 2016-12-05 2020-10-27 Google Llc Information privacy in virtual reality
CN206584114U (zh) 2016-12-26 2017-10-24 北京悉见科技有限公司 一种低功耗智能ar装置及智能ar眼镜
US10192061B2 (en) 2017-01-24 2019-01-29 Wipro Limited Method and a computing device for providing privacy control in a surveillance video
JP2018179222A (ja) 2017-04-18 2018-11-15 トヨタ自動車株式会社 車両用無段変速機
JP6719418B2 (ja) 2017-05-08 2020-07-08 株式会社ニコン 電子機器
US20190370544A1 (en) * 2017-05-30 2019-12-05 Ptc Inc. Object Initiated Communication
CN107272224B (zh) 2017-08-03 2019-05-03 苏州医视医疗科技有限公司 具有双向调节功能的智能眼镜
CN107680069B (zh) 2017-08-30 2020-09-11 歌尔股份有限公司 一种图像处理方法、装置和终端设备
JP7013757B2 (ja) * 2017-09-20 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US10593066B1 (en) * 2017-09-29 2020-03-17 A9.Com, Inc. Compression of multi-dimensional object representations
US10403046B2 (en) * 2017-10-20 2019-09-03 Raytheon Company Field of view (FOV) and key code limited augmented reality to enforce data capture and transmission compliance
US10922431B2 (en) * 2017-12-27 2021-02-16 Honeywell International Inc. Systems and methods for dynamically masking video and images captured by a drone device camera
US10726633B2 (en) * 2017-12-29 2020-07-28 Facebook, Inc. Systems and methods for generating and displaying artificial environments based on real-world environments
KR20190118825A (ko) * 2018-04-11 2019-10-21 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 개인정보를 보호하는 화상독취장치 및 화상독취방법
US10504289B2 (en) * 2018-05-01 2019-12-10 Dell Products, Lp Method and apparatus for securely displaying private information using an augmented reality headset
US10650118B2 (en) * 2018-05-04 2020-05-12 Microsoft Technology Licensing, Llc Authentication-based presentation of virtual content
WO2020046274A1 (en) * 2018-08-28 2020-03-05 Visa International Service Association Methodology to prevent screen capture of sensitive data in mobile apps
US10902678B2 (en) * 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
US10936051B2 (en) * 2018-09-20 2021-03-02 Dell Products, L.P. Power management for gesture recognition in virtual, augmented, and mixed reality (xR) applications

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349999A (ja) 1999-06-08 2000-12-15 Ricoh Co Ltd 画像処理方法
JP2007173992A (ja) 2005-12-19 2007-07-05 Sharp Corp リモートカメラ装置およびリモートカメラ操作装置
JP2009147647A (ja) 2007-12-13 2009-07-02 Sony Corp 自動撮像装置
JP2012168642A (ja) 2011-02-10 2012-09-06 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP2015115723A (ja) 2013-12-10 2015-06-22 Kddi株式会社 撮影動画像に指示画像を重畳することができる映像指示方法、システム、端末及びプログラム
JP2017211766A (ja) 2016-05-24 2017-11-30 株式会社Screenホールディングス 画像処理システム、画像処理プログラム、および画像処理方法
US20200322506A1 (en) 2016-05-24 2020-10-08 SCREEN Holdings Co., Ltd. Image processing system, non-transitory recording medium, and image processing method
JP2018011242A (ja) 2016-07-15 2018-01-18 コニカミノルタ株式会社 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム
JP2018037951A (ja) 2016-09-01 2018-03-08 セコム株式会社 行動記録システム、端末装置及び行動記録方法
JP2018116572A (ja) 2017-01-19 2018-07-26 株式会社大林組 画像管理システム、画像管理方法、及び画像管理プログラム
JP2018156293A (ja) 2017-03-16 2018-10-04 富士通株式会社 プログラム、情報処理方法および情報処理装置
WO2018179222A1 (ja) 2017-03-30 2018-10-04 株式会社オプティム コンピュータシステム、画面共有方法及びプログラム

Also Published As

Publication number Publication date
CN113227940A (zh) 2021-08-06
JP2022506778A (ja) 2022-01-17
WO2020096743A1 (en) 2020-05-14
US12001600B2 (en) 2024-06-04
US20210349677A1 (en) 2021-11-11
EP3877831A4 (en) 2022-08-03
EP3877831A1 (en) 2021-09-15
KR20210073603A (ko) 2021-06-18

Similar Documents

Publication Publication Date Title
JP7445653B2 (ja) 選択的データ提供を備えた修理グラス
US10786149B2 (en) Head-mounted display for performing ophthalmic examinations
JP2022500700A (ja) 交換可能なレンズを備えたディスプレイシステム
US11355024B2 (en) Methods for administering and taking a test employing secure testing biometric techniques
US20160035233A1 (en) Secure Testing System and Method
US20150244903A1 (en) Head-mounted systems and methods for providing inspection, evaluation or assessment of an event or location
WO2005094667A3 (en) Biosensors, communicators, and controllers monitoring eye movement and methods for using them
KR102475254B1 (ko) 획득, 등록 및 멀티미디어 관리를 위한 시스템 및 방법
JP2014092941A (ja) 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
AU2011237473B2 (en) Remote gaze control system and method
US11277358B2 (en) Chatbot enhanced augmented reality device guidance
CN111225157A (zh) 追焦方法及相关设备
CN115512534A (zh) 远程设备的发现和连接
US20220236801A1 (en) Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device
US20230238114A1 (en) Applied behavioral therapy apparatus and method
US20220358726A1 (en) System and method for augmented reality visualization of benign paroxysmal position vertigo (bppv) disorder
JP2022517622A (ja) 技術的機器に関する監査記録を提供するためのコンピュータ実装方法、システム、およびコンピュータプログラム
EP3248304B1 (en) Device, system, and method for displaying an image together with a superimposed light component representing a code
CN111382612A (zh) 动物面部检测方法及装置
WO2019018577A1 (en) SYSTEMS AND METHODS FOR ANALYZING A BEHAVIOR OF A HUMAN SUBJECT
US20220247571A1 (en) Labeling method, apparatus, and device, and readable storage medium
JP2006074194A (ja) 監視システム
TW201640277A (zh) 穿戴設備控制系統及方法
CN107615341B (zh) 信息处理装置、信息处理方法和程序
CN115171741A (zh) 一种数据记录方法以及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R150 Certificate of patent or registration of utility model

Ref document number: 7445653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150