JP2017018519A - 表示装置およびコンピュータープログラム - Google Patents

表示装置およびコンピュータープログラム Download PDF

Info

Publication number
JP2017018519A
JP2017018519A JP2015141083A JP2015141083A JP2017018519A JP 2017018519 A JP2017018519 A JP 2017018519A JP 2015141083 A JP2015141083 A JP 2015141083A JP 2015141083 A JP2015141083 A JP 2015141083A JP 2017018519 A JP2017018519 A JP 2017018519A
Authority
JP
Japan
Prior art keywords
hand
display
image
display device
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015141083A
Other languages
English (en)
Inventor
裕也 丸山
Hironari Maruyama
裕也 丸山
田中 英樹
Hideki Tanaka
英樹 田中
北澤 幸行
Sachiyuki Kitazawa
幸行 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015141083A priority Critical patent/JP2017018519A/ja
Priority to US15/196,452 priority patent/US20170014683A1/en
Priority to CN201610550815.6A priority patent/CN106344333A/zh
Publication of JP2017018519A publication Critical patent/JP2017018519A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • A61B5/1125Grasping motions of hands
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2214/00Training methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Primary Health Care (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Rehabilitation Tools (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)

Abstract

【課題】マーカーの取り付けに困ることを解消できると共に、マーカーによってリハビリ運動がスムーズに行われなくなることを防止する。【解決手段】協調運動を行う一対の身体部分を視認可能な表示部30L,30Rと、一対の身体部分のうちの健常である身体部分に取り付けられたマーカーを撮影し得る撮影部51と、一対の身体部分のうちの障害のある身体部分の正常動作を表す画像を、表示部に表示させる表示制御部70と、を備える表示装置20である。表示制御部は、撮影されたマーカーの位置に基づいて、障害のある身体部分についての、協調運動の際に表示部において視認される位置を推定し、推定された位置に、画像を表示させる。【選択図】図1

Description

本発明は、表示装置と、コンピュータープログラムとに関する。
従来、リハビリ装置として、患者に麻痺した身体部分が動いているように見せる装置が知られている。例えば、特許文献1に記載されたリハビリ装置では、麻痺した手にマーカーを貼り付け、頭部装着型表示装置を用いることによって、マーカーによって認識された手の表示位置に、動作の手本となる動画を表示する。
特開2015−39522号公報 特開2015−103010号公報
特許文献1に記載されたリハビリ装置では、麻痺した手にマーカーを貼り付ける必要があるが、麻痺した手は不自由な部分であり、マーカーの取り付けが容易でないという問題が発生した。また、マーカーが手の動きの妨げになって、リハビリ運動をスムーズに行うことができない虞があった。この他、装置の小型化や、低コスト化、省資源化、製造の容易化、使い勝手の向上等が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態は、表示装置である。この表示装置は、協調運動を行う一対の身体部分を視認可能な表示部と、前記一対の身体部分のうちの健常である身体部分に取り付けられたマーカーを撮影し得る撮影部と、前記一対の身体部分のうちの障害のある身体部分の正常動作を表す画像を、前記表示部に表示させる表示制御部と、を備える。前記表示制御部は、前記撮影されたマーカーの位置に基づいて、前記障害のある身体部分についての、前記協調運動の際に前記表示部において視認される位置を推定し、前記推定された位置に、前記画像を表示させる。この形態の表示装置によれば、障害のある身体部分の正常動作を表す画像の表示位置が、健常である身体部分に取り付けられたマーカーの位置から決定されることから、障害のある身体部分にマーカーを取り付ける必要がない。このために、マーカーの取り付けに困ることを解消できると共に、マーカーによってリハビリ運動がスムーズに行われなくなることを防止できる。
(2)前記形態の表示装置において、前記表示制御部は、前記協調運動の際の前記健常である身体部分に対する前記障害のある身体部分の相対位置を特定しうる参照情報を予め記憶し、前記視認される位置の推定を、前記撮影されたマーカーの位置と前記参照情報とに基づいて行ってもよい。この構成によれば、障害のある身体部分についての、協調運動の際に表示部において視認される位置を高精度に推定することができる。このために、画像が自分の手であると錯覚する錯覚効果を、より高めることができる。
(3)前記形態の表示装置において、前記一対の身体部分は、両手であり、前記協調運動は、把持物体を前記両手で把持する運動であり、前記参照情報は、前記把持物体の大きさとしてもよい。この形態の表示装置によれば、画像を障害のある身体部分により高精度に重畳させることができる。
(4)前記形態の表示装置において、前記表示部は、頭部装着型の表示部であってもよい。この形態の表示装置によれば、頭部に装着することで、拡張現実感をより向上させることができる。
(5)本発明の他の形態は、コンピュータープログラムである。このコンピュータープログラムは、協調運動を行う一対の身体部分を視認可能な表示部と、前記一対の身体部分のうちの健常である身体部分に取り付けられたマーカーを撮影し得る撮影部と、を備える表示装置を制御するためのコンピュータープログラムである。このコンピュータープログラムは、前記一対の身体部分のうちの障害のある身体部分の正常動作を表す画像を、前記表示部に表示させる機能を、コンピューターに実現させる。前記機能は、前記撮影部によって撮影されたマーカーの位置に基づいて、前記障害のある身体部分についての、前記協調運動の際に前記表示部において視認される位置を推定し、前記推定された位置に、前記画像を表示させる。この形態のコンピュータープログラムは、前記形態の表示装置と同様に、マーカーの取り付けに困ることを解消できると共に、マーカーによってリハビリ運動がスムーズに行われなくなることを防止できる。
本発明の一実施形態としての頭部装着型表示装置(HMD)の構成を示す説明図である。 左眼用表示部の構成を詳細に示す説明図である。 HMDの構成を機能的に示すブロック図である。 マーカーの貼り付け位置を示す説明図である。 準備作業の様子を示す説明図である。 制御装置によって実行されるリハビリ処理の前半部分を示すフローチャートである。 制御装置によって実行されるリハビリ処理の後半部分を示すフローチャートである。 ステップS170で表示されるメッセージの一例を示す説明図である。 健常手で名刺をつかんだ状態で使用者によって視認される表示画面を示す説明図である。 運動モデルの一例を示す説明図である。 再生時において使用者によって視認される画像の一例を示す説明図である。
次に、本発明の実施形態を説明する。
A.HMDの基本構成:
図1は、本発明の一実施形態としての頭部装着型表示装置10の構成を示す説明図である。頭部装着型表示装置10は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。このHMD10は、片側の手の機能回復訓練(リハビリ)を行うためのものである。HMD10は、本実施形態では、使用者が、虚像を視認すると同時に現実空間も視認可能な光学透過型(シースルー型)である。
HMD10は、眼鏡のような形状を有する表示装置20と、制御装置(コントローラー)70とを備える。表示装置20と制御装置70との間は、有線または無線で、通信可能に接続される。本実施形態では、表示装置20と制御装置70とが、有線のケーブル90で接続されている。制御装置70は、表示装置20との間で、ケーブル90を介して、画像の信号(画像信号)や制御の信号(制御信号)を通信する。
表示装置20は、左眼用の表示部(左眼用表示部)30Lと、右眼用の表示部(右眼用表示部)30Rとを備える。
左眼用表示部30Lは、左眼用の画像形成部(左眼用画像形成部)32Lと、左眼用の導光部(図2に示される左眼用導光部34L)と、左眼用の反射部(左眼用反射部)36Lと、左眼用シェード38Lとを備える。右眼用表示部30Rは、右眼用の画像形成部(右眼用画像形成部)32Rと、右眼用の導光部(図2に示される左眼用導光部34Lと同様なもの)と、右眼用の反射部(右眼用反射部)36Rと、右眼用シェード38Rとを備える。
図2は、左眼用表示部30Lの構成を詳細に示す説明図である。図2は、左眼用表示部30Lを真上から見た図である。左眼用表示部30Lに備えられる左眼用画像形成部32Lは、メガネのテンプル(つる)の根元部分に配置され、左眼用の画像生成部(左眼用画像生成部)321Lと、左眼用の投射光学系(左眼用投射光学系)322Lとを備える。
左眼用画像生成部321Lは、左眼用のバックライトの光源(左眼用バックライト光源)BLと、左眼用の光変調素子(左眼用光変調素子)LMとを備える。バックライト光源BLは、本実施形態では、赤色、緑色および青色といった発光色ごとの光源の集合から構成されている。各光源としては、例えば、発光ダイオード(LED)などを用いることができる。光変調素子LMは、本実施形態では、表示素子である液晶表示デバイスによって構成されている。
左眼用表示部30Lは、次のように作用する。左眼用画像生成部321Lに、制御装置70(図1)から左眼用の画像信号が入力されると、左眼用バックライト光源BLの各光源が、赤色光、緑色光および青色光を射出する。各光源から射出された赤色光、緑色光および青色光は拡散して、左眼用光変調素子LMに投射される。左眼用光変調素子LMは、制御装置70から左眼用画像生成部321Lに入力された画像信号に応じて、投射された赤色光、緑色光および青色光を空間変調することにより、画像信号に応じた画像光を射出する。
左眼用投射光学系322Lは、例えば、投射レンズ群から構成され、左眼用画像生成部321Lの左眼用光変調素子LMから射出された画像光を投射して、平行な状態の光束にする。左眼用投射光学系322Lにより平行な状態の光束にされた画像光は、左眼用導光部34Lに投射される。
左眼用導光部34Lは、左眼用投射光学系322Lからの画像光を、左眼用反射部36Lが有する三角プリズムの予め定められた面(半透過反射面)に導く。左眼用反射部36Lに形成されている半透過反射面の表裏のうち、装着時に使用者の左眼EYに向く側には、ミラー層などの反射コーティングが施されている。左眼用反射部36Lに形成されている半透過反射面に導かれた画像光は、この反射コーティングされた面により、使用者の左眼EYに向けて全反射される。これにより、左眼用反射部36Lの予め定められた位置のエリア(画像取り出しエリア)から、前記導かれた画像光に応じた画像光が出力される。出力された画像光は使用者の左眼EYに入って、その左眼EYの網膜上に画像(虚像)を形成する。
左眼用反射部36Lに現実空間から入射する光の少なくとも一部は、左眼用反射部36Lに形成されている前述した半透過反射面を透過し、使用者の左眼EYに導かれる。これにより、使用者には、左眼用画像形成部32Lにより形成された画像と、現実空間からの光学像とが重畳されて見える。
左眼用シェード38Lは、左眼用導光部34Lの使用者の左眼EYとは反対の側に配置され、本実施形態では、取り外し可能である。左眼用シェード38Lは、明るい場所や画面に集中したい時に取り付けられることで、左眼用画像形成部32Lにより形成された画像を、使用者は明瞭に見ることができる。
図1に示すように、右眼用表示部30Rは、上記構成の左眼用表示部30Lと左右対称の同様な構成を有しており、左眼用表示部30Lと同様に作用する。この結果、使用者は、表示装置20を頭部に装着することにより、表示装置20の画像取り出しエリア(左眼用反射部36Lの画像取り出しエリア、右眼用反射部36Rの画像取り出しエリア)から出力される画像光に応じた画像が表示されているように見えることで、その画像を認識することができる。また、使用者は、表示装置20の画像取り出しエリア(左眼用反射部36Lの画像取り出しエリア、右眼用反射部36Rの画像取り出しエリア)に現実空間からの光の少なくとも一部が透過させられることにより、表示装置20を頭部に装着したまま、現実空間を見ることができる。
このように、使用者は、表示装置20の画像取り出しエリアに表示された画像(以下、単に「表示画像」と呼ぶ)と、透過してきた現実空間とを同時に見る(視認する)ことができる。表示画像が、使用者に拡張現実感(AR:Augmented Reality)を与えるAR画像となる。
表示装置20において、使用者が表示装置20を装着した際の使用者の眉間に対応する位置には、カメラ51が設けられている。そのため、使用者が表示装置20を頭部に装着した状態において、カメラ51は、使用者が向いている方向の現実空間を撮像する。カメラ51は、単眼カメラであるが、ステレオカメラであってもよい。
制御装置70は、表示装置20を制御するための装置である。制御装置70は、タッチパッド72と、操作ボタン部74とを備える。タッチパッド72は、タッチパッド72の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド72としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。操作ボタン部74は、種々の操作ボタンを有し、各操作ボタンの操作を検出して、検出内容に応じた信号を出力する。タッチパッド72および操作ボタン部74は、使用者によって操作される。
図3は、HMD10の構成を機能的に示すブロック図である。制御装置70は、CPU80と、記憶部82と、運動モデルデータベース84と、入力情報取得部86と、電源部88とを備え、各部はバス等により相互に接続されている。
記憶部82は、ROM、RAM、DRAM、ハードディスク等によって構成される。記憶部82には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。本実施形態では、格納されているコンピュータープログラムの一つとしてリハビリ用プログラムがある。
運動モデルデータベース84は、運動モデルを蓄積したデータベースである。運動モデルは、リハビリの際に目標とされる運動をモデル化した動画データであり、本実施形態では、左手の運動モデルと、右手の運動モデルが予め蓄積されている。なお、運動モデルは、動画データに換えて、いくつかの静止画データの集まりとしてもよい。さらには、運動モデルは、手の特徴点位置の集合から構成されるデータであってもよく、動画を構築し得るデータであればいずれのデータに換えることもできる。さらに、運動モデルは、運動の回数や速度などのパラメータを含むようにしてもよい。
入力情報取得部86は、前述したタッチパッド72および操作ボタン部74を含む。入力情報取得部86は、タッチパッド72や操作ボタン部74からの検出内容に応じた信号を入力する。
電源部88は、制御装置70および表示装置20に備えられた電源を必要とする各構成部に、電源を供給する。
CPU80は、記憶部82に格納されているコンピュータープログラムを読み出して実行することにより、各種の機能を奏する。具体的には、CPU80は、入力情報取得部86から操作の検出内容の入力があった場合に当該検出結果に応じた処理を実行する機能、記憶部82に対してデータの読み書きを行う機能、および電源部88から各構成部への電源の供給を制御する機能を奏する。
また、CPU80は、記憶部82に格納されているリハビリ用プログラムを読み出して実行することにより、リハビリ処理を実行するリハビリ処理部82aとしても機能する。リハビリ処理は、障害のある身体部分(ここでは、片側の手)の正常動作を表すAR画像を表示することによって、HMD10の使用者に協調運動訓練を行わせためものである。CPU80と、CPU80によって実行される機能としてのリハビリ処理部82aとが、「表示制御部」の下位概念に相当する。
B.準備作業について:
本実施形態では、リハビリの対象者、すなわち、HMD10の使用者として、片手に障害が残り、片手は健常である患者を想定している。障害としては、例えば、脳卒中による麻痺がある。以下、障害のある手を「障害手」、障害のない手を「健常手」と呼ぶ。なお、「健常である」とは、一切、障害がない状態に限る必要はなく、機能的に多少の障害がある場合であってもよい。
使用者は、HMD10を使用して協調運動訓練を行うに際し、2つの準備作業を行う必要がある。第1番目の準備作業は、マーカーを貼り付ける作業である。マーカーは、HMD10においてAR画像を表示する位置を指定するための標識である。
図4は、マーカーの貼り付け位置を示す説明図である。図4(a)は健常手の手のひらの側を示し、図4(b)は健常手の甲の側を示す。ここでは、右手が健常手であるものとする。マーカーは4つ用意されている。図4(a)に示すように、健常手NHの手のひらの側に、3つのマーカーM1,M2,M3が貼り付けられる。詳しくは、第1のマーカーM1は手のひらの親指の付け根(いわゆる金星丘)に、第2のマーカーM2は手のひらの中指の先端に、第3のマーカーM3は手のひらの小指の下の手首よりのふくらみ(いわゆる火星丘)に、それぞれ貼り付けられる。
なお、これらマーカーMK1〜MK3の貼付位置は、健常手NHの外縁を規定するに適した位置であり、上記の例に限る必要はない。例えば、第1のマーカーM1は手のひらの親指の先端位置に、第3のマーカーM3は手のひらの小指の先端位置に換えることもできる。また、マーカーの数も、3つに限る必要はなく、例えば、第1〜第3のマーカーM1〜M3に親指の先端位置、人差し指の先端位置、薬指の先端位置を加えた合計7つとした構成、親指の先端位置と手のひらの小指の先端位置とに貼り付ける合計2つとした構成等、種々の数とすることができる。
図4(b)に示すように、健常手NHの手の甲の側の親指と人差し指の間に、第4のマーカーM4が貼り付けられる。第4のマーカーMK4の貼付位置は、これに限る必要はなく、後述する協調運動訓練の初期構えにおいて健常手を認識可能な位置であれば、いずれの位置とすることもできる。また、健常手NHの手の甲の側のマーカーは、1つに限る必要もなく、複数とすることもできる。
各マーカーM1〜M4の貼り付けは、リハビリの補助者によって行われる。なお、使用者が、障害のある側である左手でマーカーM1〜M4の貼り付けを行うことができれば、使用者自身で貼り付けるようにしてもよい。
図5は、第2番目の準備作業の様子を示す説明図である。第1番目の準備作業が済むと、使用者は、第2番目の準備作業として、HMD10の表示装置20を頭部に装着した状態で、机やテーブル等のリハビリ台TBの前に位置する。そして、使用者HUは、障害手FHである左手と、健常手NHである右手とをリハビリ台TBの上に差し出す。健常手NHは、手のひらを上側に向け、手を広げた状態とする。「手を広げた状態」とは、各指の関節は伸ばされ、各指の間は広げられた状態であり、いわゆるパーの状態である。健常手NHには、第1番目の準備作業によって、マーカーM1〜M4が貼り付けられている。障害手FHは、手のひらを上側に向け、自然な状態、すなわち、各指の関節が若干、曲げられた状態とする。本実施形態では、リハビリ台TBの上には、リハビリ用の小道具として、把持物体、例えば名刺BCが置かれている。
図5の状態で、HMD10の制御装置70のタッチパッド72や操作ボタン部74(図1)が操作されることで、HMD10に対してリハビリ処理の実行が指示される。この操作は、例えば、リハビリの補助者によってなされる。なお、使用者が健常手を用いて上記の操作を行い、その後、直ちに健常手を図5の状態としてもよい。
C.リハビリ処理:
図6および図7は、制御装置70によって実行されるリハビリ処理を示すフローチャートである。このリハビリ処理は、リハビリ処理部82a(図3)の処理であり、入力情報取得部86(図3)によってリハビリ処理の実行の指示を受け付けたときに、CPU80によって、実行開始される。
図6に示すように、処理が開始されると、CPU80は、まず、カメラ51によって撮影を行い(ステップS110)、その撮影によって得られた撮影画像の中に、手のひらの側に貼り付けたマーカーM1〜M3が含まれるか否かを判定する(ステップS120)。ここでは、マーカーM1〜M3が含まれるとは、3つのマーカーM1〜M3の全てが含まれることをいい、マーカーM1〜M3のうちの一つでも含まれない場合には、マーカーM1〜M3が含まれないと判定される。
使用者は、図5の状態において、リハビリを行うに際し、手のあるリハビリ台TBに視線を移す。カメラ51は、使用者の向いている方向の現実空間を撮像することになることから、リハビリ台TBに視線を移したときに、カメラ51による撮影画像の中にマーカーM1〜M3が含まれることになり、ステップS120において肯定判定される。肯定判定された場合には、CPU80は、ステップS130に処理を進める。一方、ステップS120でマーカーM1〜M3が含まれないと判定された場合には、CPU80は、ステップS110に処理を戻して、ステップS110からステップS120までの処理を繰り返し実行する。
ステップS130では、CPU80は、ステップS110によって得られた撮影画像の中から各マーカーM1〜M3を検出し、各マーカーM1〜M3の二次元位置座標を求める。二次元位置座標を示す座標系は、表示装置20による表示画面に対応したものである。3つのマーカーM1〜M3は、健常手NHの外縁を規定していることから、これらのマーカーM1〜M3の二次元位置座標の広がりは、使用者の手の(実際の)大きさと、マーカーからカメラ51までの距離とによって定まる。マーカーからカメラ51までの距離は、三つのマーカーM1〜M3のうちのいずれか一つのマーカーの撮影画像における大きさに基づいて求めることができる。このため、続くステップS140では、CPU80は、ステップS130で求めた各マーカーM1〜M3の二次元位置座標と、一つのマーカーの撮影画像における大きさとに基づいて、使用者の手の(実際の)大きさを認定する。
次いで、CPU80は、ステップS130で求めた各マーカーM1〜M3の二次元位置座標から、マーカーM1〜M3が貼り付けられた健常手NHが右手か左手かを判定する(ステップS150)。各マーカーM1〜M4は個別に識別可能であることから、手のひらの親指の付け根に設けられた第1のマーカーM1が、手のひらの小指の下の手首よりに設けられた第3のマーカーM3に対して右側に位置するか左側に位置するかによって、健常手NHが右手か左手かを判定することができる。なお、この判定の方法は、一例であり、各マーカーM1〜M3の配置されている位置関係から判定する方法であれば、いずれの方法によってもよい。
続いて、CPU80は、ステップS150で判定された手の側と反対の側を障害手と認識し、その障害手の側に対応した運動モデルを、運動モデルデータベース84から読み出す(ステップS160)。すなわち、ステップS150で健常手が右手と判定されたときには、障害手は左手であるから左手の運動モデルを読み出し、一方、ステップS150で健常手が左手と判定されたときには、障害手は右手であるから右手の運動モデルを読み出す。運動モデルの詳細については、後述する。
図6のステップS160の実行後、CPU80は、図7のステップS170に処理を進める。ステップS170では、CPU80は、使用者にリハビリの初期構えを取ることを促すためのメッセージを、HMD10の表示装置10に表示させる。ここでは、「初期構え」は、健常手NHで名刺BCを把持する格好である。
図8は、ステップS170で表示されるメッセージの一例を示す説明図である。図中のSCは、表示装置10による表示画面である。ステップS110では、具体的には、例えば「健常な側の手で名刺をつかんで下さい」とのメッセージMSが表示画面SCに表示される。このメッセージMSを表示画面SCから視認した使用者は、健常手NHで名刺BC(図5)をつかむ(把持する)動作を行う。
図9は、健常手NHで名刺BCをつかんだ状態で使用者によって視認される表示画面SCを示す説明図である。図示するように、使用者は、表示画面SC内に、透過してきた現実空間の実像として、名刺BCを掴んだ状態の健常手NHと、障害手FHとを視認する。
ステップS170(図7)の実行後、CPU80は、カメラ51によって撮影を行い(ステップS180)、その撮影によって得られた撮影画像の中に、手の甲の側に貼り付けた第4のマーカーM4が含まれるか否かを判定する(ステップS190)。第4のマーカーM4は、健常手NHにおける手の甲の側の親指と人差し指の間に貼り付けられていることから、健常手NHで名刺BCをつかんだときに、カメラ51による撮影画像の中に第4のマーカーM4が含まれることになり、ステップS190において肯定判定される。肯定判定された場合には、CPU80は、ステップS200に処理を進める。一方、ステップS190で第4のマーカーM4が含まれないと判定された場合には、CPU80は、ステップS180に処理を戻して、ステップS180からステップS190までの処理を繰り返し実行する。
ステップS200では、CPU80は、ステップS180によって得られた撮影画像の中から第4のマーカーM4を検出し、第4のマーカーM4の二次元位置座標を求める。二次元位置座標を示す座標系は、表示装置20による表示画面に対応したものである。
続いて、CPU80は、ステップS200で求めた第4のマーカーM4の二次元位置座標と、第4のマーカーM4の撮影画像における大きさと、把持物体である名刺の(実際の)大きさとに基づいて、障害手の位置を推定する(ステップS210)。「障害手の位置」とは、本実施形態では、右手と左手を使って名刺BCを把持するという協調運動を行う際に障害手(例えば左手)がとり得る位置である。第4のマーカーM4の二次元位置座標は健常手NH(例えば右手)の位置を定めることから、この第4のマーカーM4の二次元位置座標から名刺の撮影画像における大きさ分だけ離れた位置に、障害手があることが判る。名刺の撮影画像における大きさは、名刺の(実際の)大きさと、マーカーからカメラ51までの距離とに基づいて求めることができる。このため、第4のマーカーM4の二次元位置座標と、第4のマーカーM4の撮影画像における大きさと、名刺の(実際の)大きさとに対して、協調運動の際に視認される障害手の位置が一義的に定まる。
本実施形態では、第4のマーカーM4の二次元位置座標を変数Xとし、第4のマーカーM4の撮影画像における大きさを変数Yとし、名刺の(実際の)大きさを定数Cとし、協調運動の際に視認される障害手の位置を変数Zとし、変数X、Yおよび定数Cに対する変数Zを表す数式を、実験的にあるいはシミュレーションによって求め、記憶部に82に予め記憶しておく。ステップS210では、この数式を用いることで、協調運動の際に表示装置20において視認される障害手の位置を求める。名刺の(実際の)大きさが、「参照情報」の下位概念に相当する。
ステップS210(図7)の実行後、CPU80は、ステップS140によって認識された使用者の手の大きさに基づいて、ステップS160によって読み出された運動モデルの大きさを調整する(ステップS220)。
図10は、ステップS160によって読み出された運動モデルの一例を示す説明図である。図示した運動モデルMDは、左手の運動モデルである。運動モデルMDは、複数のフレーム(静止画)FR1,…,FR2,…,FR3によって構成される動画データである。FR1〜FR3のそれぞれの間にも、1または複数のフレームが含まれる。
最初のフレームFR1は、手のひらを上側に向け、自然な状態を表す。この状態は、図5の障害手FHの状態とほぼ一致している。最後のフレームFR3は、把持物体である名刺BC(図5)をつかんだときの手の状態を表す。最初のフレームFR1と最後のフレームFR3との中間のフレームFR2は、上記の手のひらを上側に向けた自然な状態から名刺をつかんだときの状態までの中間の状態を表す。
上述したように構成された運動モデルMDによれば、手のひらを上側に向けた自然な状態から名刺をつかんだときの状態までの連続した運動、すなわち、名刺を把持する際の運動が示されることになる。ステップS220では、この運動モデルMDの大きさを、ステップS140によって認識された使用者の手の大きさに基づいて調整する。すなわち、運動モデルデータベース84(図3)に記憶されている運動モデルは、成人の一般的な大きさであることから、ステップS220では、その運動モデルを、使用者の手の大きさに合致するように、拡大または縮小するサイズ調整を行う。
その後、CPU80は、ステップS210によって推定された障害手の位置で、ステップS220によってサイズ調整された運動モデルを再生(表示)する(ステップS230)。この表示は、先に説明した左眼用表示部30Lおよび右眼用表示部30Rを動作させることによって行われる。
図11は、再生時において使用者によって視認される画像の一例を示す説明図である。図中の実線で示した左手の画像が、再生した運動モデルの画像(AR画像)Gaである。図中の破線で示した右手、左手の画像が、透過して見える現実空間に実在する使用者の健常手NHと障害手FHである。図示するように、使用者にとって、障害手FHに対して運動モデルの画像Gaが重畳されて視認される。図示の例では、運動モデルの画像Gaは、名刺BCをつかんだ状態であり、図10の最後のフレームFR3の画像である。使用者は、手を広げた状態から、運動モデルの画像Gaの動きに追従して手を開閉することで、協調運動訓練を行う。
図7のステップS230の実行後、CPU80は、リハビリを継続するか否かを判定する(ステップS240)。制御装置70のタッチパッド72や操作ボタン部74(図1)が操作されることで、HMD10に対してリハビリを継続する旨が指示される。CPU80は、入力情報取得部86(図2)によって、リハビリを継続する旨の指示を受け付けたときに、リハビリを継続すると判定する。上記のタッチパッド72や操作ボタン部74の操作は、例えば、リハビリの補助者によってなされる。なお、使用者が健常手を用いて上記の操作を行い、その後、直ちに健常手を図5の状態に戻すようにしてもよい。
ステップS240で、リハビリを継続すると判定された場合には、CPU80は、ステップS170に処理を戻して、ステップS170からステップS240までの処理を繰り返し実行する。一方、ステップS240で、リハビリを継続しないと判定された場合に、このリハビリ処理のルーチンを終了する。
D.実施形態の効果:
以上のように構成された実施形態のHMD10によれば、障害手FHの正常動作を表すAR画像の表示位置が、健常手NHに取り付けられたマーカーM1〜M4の位置から決定される。このために、本実施形態では、障害のある身体部分にマーカーを取り付ける必要がない。したがって、マーカーM1〜M4の取り付けに困ることを解消できると共に、マーカーM1〜M4によってリハビリ運動がスムーズに行われなくなることを防止できる。
また、使用者は、先に説明したように(図11参照)、障害手FHに運動モデルの画像Gaを重ね合わせて視認することができることから、運動モデルの画像Gaが自分の手であると錯覚して協調運動訓練を行うことができる。したがって、本実施形態のリハビリ装置100によれば、錯覚効果によって、手の麻痺を改善させる効果を高めることができる。
E.変形例:
この発明は前記実施形態やその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
・変形例1:
前記実施形態では、協調運動は、右手と左手を使って把持物体を把持する動作であった。これに対して、変形例として、協調運動は、右手と左手を使って太鼓を叩く動作、右手と左手を組む動作、右手と左手を使ってキーボードを打つ動作等としてもよい。また、協調運動は、右手と左手を使う動作に限る必要はなく、右腕と左腕、右足と左足(足首からつま先まで)、右脚と左脚(足首から骨盤まで)等としてもよい。また、一対の身体部分は、左右対称となっている同じ機能を有する身体部分としたが、これに限る必要もなく、右手と左腕、右手と左足、右手の左脚等としてもよい。これら協調運動では、一対の身体部分のうちの一方の身体部分の位置が決まれば、他方の身体部分の位置が推定できることから、前記実施形態と同様な作用効果を奏することができる。
・変形例2:
前記実施形態では、協調運動に用いる把持物体は、名刺としたが、これに換えて、物差し、トレイ等の他の形状の物体としてもよい。また、用いる道具は、把持物体に限る必要もなく、つかんだ状態で保持するもの等、種々の状態で保持するものに換えることもできる。また、協調運動は、道具を用いないものとしてもよい。なお、協調運動が道具を用いたものである場合には、この道具の大きさが参照情報として記憶される。
・変形例3:
前記実施形態では、手のひらの側に3つのマーカーを貼り付けて、これらマーカーから使用者の手の大きさを認識し、この手の大きさに基づいて運動モデルの大きさを調整するようにしていた。これに対して、変形例として、手のひらの側にマーカーを貼り付けることをやめて、運動モデルの大きさの調整を行わない構成としてもよい。すなわち、手の甲の側につけた第4のマーカーM4だけを用いて、AR画像の表示位置を決めるようにしてもよい。
・変形例4:
前記実施形態では、HMDは、装着した状態で使用者の視界が遮断されない透過型の表示装置とした。これに対して、変形例として、HMDは、使用者の視界が遮断される非透過型の表示装置としてもよい。非透過型のHMDは、現実空間の画像をカメラによって撮影し、この撮影された画像にAR画像を重畳させるものである。また、HMDは、左眼用表示部と右眼用表示部とを備える構成としたが、これに換えて、片眼用の表示部だけを備える構成としてもよい。
・変形例5:
前記各実施形態および変形例では、AR画像を表示し得る表示装置として、使用者の頭部に装着される頭部装着型表示装置を用いたが、表示装置はこれに限られず、種々変形可能である。例えば、使用者の肩や首に装着したアームによって支持される表示装置のように、頭部や肩、首等の使用者の身体に装着される身体装着型表示装置を用いてもよい。また、使用者に装着されるのではなく、テーブル等に載置される載置型の表示装置であってもよい。
・変形例6:
前記各実施形態および変形例では、リハビリ処理部82a(図3)は、CPU80が記憶部82に格納されているコンピュータープログラムを実行することにより実現されるものとして記載した。しかし、これらリハビリ処理部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。
・変形例7:
前記各実施形態および変形例では、表示装置20にカメラ51が一体的に取り付けられている構成として記載したが、表示装置20とカメラ51とが別体として設けられる構成としてもよい。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…頭部装着型表示装置(HMD)
20…表示装置
30L…左眼用表示部
30R…右眼用表示部
32L…左眼用画像形成部
32R…右眼用画像形成部)
34L…左眼用導光部
36L…左眼用反射部
36R…右眼用反射部
38L…左眼用シェード
38R…右眼用シェード
51…カメラ
70…制御装置
72…タッチパッド
74…操作ボタン部
80…CPU
82…記憶部
82a…リハビリ処理部
84…運動モデルデータベース
86…入力情報取得部
88…電源部
90…ケーブル
321L…左眼用画像生成部
322L…左眼用投射光学系
BL…左眼用バックライト光源
LM…左眼用光変調素子
BC…名刺
HU…使用者
NH…健常手
FH…障害手
SC…表示画面
TB…リハビリ台
M1〜M4…マーカー
MD…運動モデル
Ga…AR画像

Claims (5)

  1. 協調運動を行う一対の身体部分を視認可能な表示部と、
    前記一対の身体部分のうちの健常である身体部分に取り付けられたマーカーを撮影し得る撮影部と、
    前記一対の身体部分のうちの障害のある身体部分の正常動作を表す画像を、前記表示部に表示させる表示制御部と、
    を備え、
    前記表示制御部は、
    前記撮影されたマーカーの位置に基づいて、前記障害のある身体部分についての、前記協調運動の際に前記表示部において視認される位置を推定し、
    前記推定された位置に、前記画像を表示させる、
    表示装置。
  2. 請求項1に記載の表示装置であって、
    前記表示制御部は、
    前記協調運動の際の前記健常である身体部分に対する前記障害のある身体部分の相対位置を特定しうる参照情報を予め記憶し、
    前記視認される位置の推定を、前記撮影されたマーカーの位置と前記参照情報とに基づいて行う、表示装置。
  3. 請求項2に記載の表示装置であって、
    前記一対の身体部分は、両手であり、
    前記協調運動は、把持物体を前記両手で把持する運動であり、
    前記参照情報は、前記把持物体の大きさである、表示装置。
  4. 請求項1から請求項3までのいずれか一項に記載の表示装置であって、
    前記表示部は、頭部装着型の表示部である、表示装置。
  5. 協調運動を行う一対の身体部分を視認可能な表示部と、前記一対の身体部分のうちの健常である身体部分に取り付けられたマーカーを撮影し得る撮影部と、を備える表示装置を制御するためのコンピュータープログラムであって、
    前記一対の身体部分のうちの障害のある身体部分の正常動作を表す画像を、前記表示部に表示させる機能を、コンピューターに実現させ、
    前記機能は、
    前記撮影部によって撮影されたマーカーの位置に基づいて、前記障害のある身体部分についての、前記協調運動の際に前記表示部において視認される位置を推定し、
    前記推定された位置に、前記画像を表示させる、
    コンピュータープログラム。
JP2015141083A 2015-07-15 2015-07-15 表示装置およびコンピュータープログラム Pending JP2017018519A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015141083A JP2017018519A (ja) 2015-07-15 2015-07-15 表示装置およびコンピュータープログラム
US15/196,452 US20170014683A1 (en) 2015-07-15 2016-06-29 Display device and computer program
CN201610550815.6A CN106344333A (zh) 2015-07-15 2016-07-13 显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015141083A JP2017018519A (ja) 2015-07-15 2015-07-15 表示装置およびコンピュータープログラム

Publications (1)

Publication Number Publication Date
JP2017018519A true JP2017018519A (ja) 2017-01-26

Family

ID=57775589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015141083A Pending JP2017018519A (ja) 2015-07-15 2015-07-15 表示装置およびコンピュータープログラム

Country Status (3)

Country Link
US (1) US20170014683A1 (ja)
JP (1) JP2017018519A (ja)
CN (1) CN106344333A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054988A (ja) * 2017-09-21 2019-04-11 恭太 青木 協調運動評価方法及びプログラム
JP2021003379A (ja) * 2019-06-26 2021-01-14 学校法人北里研究所 リハビリ支援装置、及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6897177B2 (ja) * 2017-03-10 2021-06-30 セイコーエプソン株式会社 リハビリに使用可能な訓練装置及びリハビリに使用可能な訓練装置用のコンピュータープログラム
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
US11925863B2 (en) * 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US12013985B1 (en) 2021-02-25 2024-06-18 Snap Inc. Single-handed gestures for reviewing virtual content
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11861070B2 (en) 2021-04-19 2024-01-02 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006086504A2 (en) * 2005-02-09 2006-08-17 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California Method and system for training adaptive control of limb movement
EP2323602A2 (en) * 2008-08-25 2011-05-25 Universität Zürich Prorektorat Mnw Adjustable virtual reality system
AU2014367277B2 (en) * 2013-12-20 2019-09-26 Integrum Ab System and method for neuromuscular rehabilitation comprising predicting aggregated motions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019054988A (ja) * 2017-09-21 2019-04-11 恭太 青木 協調運動評価方法及びプログラム
JP2021003379A (ja) * 2019-06-26 2021-01-14 学校法人北里研究所 リハビリ支援装置、及びプログラム
JP7262763B2 (ja) 2019-06-26 2023-04-24 学校法人北里研究所 リハビリ支援装置、及びプログラム

Also Published As

Publication number Publication date
CN106344333A (zh) 2017-01-25
US20170014683A1 (en) 2017-01-19

Similar Documents

Publication Publication Date Title
JP2017018519A (ja) 表示装置およびコンピュータープログラム
CN110647237B (zh) 在人工现实环境中基于手势的内容共享
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
JP6870264B2 (ja) 運動訓練装置およびプログラム
CN112567287A (zh) 具有帧调制功能的增强现实显示
JP2017012264A (ja) リハビリ補助用具およびリハビリ装置
JP2022168029A (ja) 拡張現実のためのシステムおよび方法
WO2014128747A1 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2014128752A1 (ja) 表示制御装置、表示制御プログラム、および表示制御方法
JP2024069461A (ja) 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
JP2010102215A (ja) 表示装置、画像処理方法、及びコンピュータプログラム
WO2014128748A1 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
CN108428375A (zh) 一种基于增强现实的教学辅助方法及设备
US20240077937A1 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
US20240094882A1 (en) Gestures for selection refinement in a three-dimensional environment
KR20240091224A (ko) 사용자의 표현을 생성 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
CN108446011A (zh) 一种基于增强现实的医疗辅助方法及设备
JP2018183272A (ja) 訓練装置、訓練システム、プログラム、制御装置
JP6394108B2 (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
US20240103616A1 (en) User interfaces for gaze tracking enrollment
US20240118746A1 (en) User interfaces for gaze tracking enrollment
US20230384860A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
US20240029377A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Inputs in Three-Dimensional Environments
US20240103636A1 (en) Methods for manipulating a virtual object