CN109791437A - 显示装置及其控制方法 - Google Patents

显示装置及其控制方法 Download PDF

Info

Publication number
CN109791437A
CN109791437A CN201780060040.7A CN201780060040A CN109791437A CN 109791437 A CN109791437 A CN 109791437A CN 201780060040 A CN201780060040 A CN 201780060040A CN 109791437 A CN109791437 A CN 109791437A
Authority
CN
China
Prior art keywords
display
image
display device
processor
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780060040.7A
Other languages
English (en)
Other versions
CN109791437B (zh
Inventor
韩枝延
张星炫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109791437A publication Critical patent/CN109791437A/zh
Application granted granted Critical
Publication of CN109791437B publication Critical patent/CN109791437B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3025Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
    • G02B5/3033Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state in the form of a thin sheet or foil, e.g. Polaroid
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47FSPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
    • A47F7/00Show stands, hangers, or shelves, adapted for particular articles or materials
    • A47F7/19Show stands, hangers, or shelves, adapted for particular articles or materials for garments
    • A47F2007/195Virtual display of clothes on the wearer by means of a mirror, screen or the like
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47GHOUSEHOLD OR TABLE EQUIPMENT
    • A47G1/00Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
    • A47G1/02Mirrors used as equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开一种显示装置。所述显示装置可包括:显示器,被配置成作为屏幕和镜子中的至少一个操作;拍摄单元,被配置成生成拍摄的图像,在拍摄的图像中,拍摄了在所述显示器的显示方向上存在的主体;和处理器,被配置成控制显示器以便显示器的第一区域作为显示拍摄的图像的一部分的屏幕操作以及除第一区域之外的第二区域作为镜子操作。

Description

显示装置及其控制方法
技术领域
本公开一般涉及一种显示装置及其控制方法,例如涉及一种使用镜子功能提供各种用户体验的显示装置及其控制方法。
背景技术
随着显示技术的发展,显示装置的功能已经扩展到包括考虑显示装置的装饰性方面而不仅仅是提供图像信息的功能。
在现有技术中,鉴于显示装置的装饰性方面,已经制造出具有比以前更纤薄和更简单设计的显示装置。相应地,考虑到显示装置的视觉方面,显示装置已经将其功能范围扩展到用作用于室内装饰的物品。
此外,显示装置不仅可以显示图像,而且可以在该装置关闭的同时在其中显示装置用作镜子的镜子模式下操作,从而不仅考虑视觉方面而且考虑实际使用的方面来执行各种各样的功能。
最近,显示装置已经需要更加用户友好的技术,该技术可以执行仅在显示装置上显示图像的功能之外的镜子功能。
发明内容
各种示例性实施例的一方面涉及一种使用镜子功能提供各种用户体验的显示装置及其控制方法。
根据示例性实施例,提供一种显示装置,该显示装置包括:显示器,被配置成作为屏幕和镜子中的至少一个操作;包括相机的拍摄单元,被配置成生成拍摄的图像,在拍摄的图像中拍摄了在显示器的显示方向上存在的主体(subject);以及处理器,被配置成控制显示器将显示器的第一区域作为显示拍摄的图像的一部分的屏幕操作,以及将除第一区域之外的第二区域作为镜子操作。
响应于在显示器作为镜子操作的同时接收到选择主体的部分区域的输入手势,处理器可控制显示器在第一区域上显示拍摄的图像的对应于选择的部分区域的部分。
处理器可控制显示器在第一区域上显示比关于选择的部分区域的镜子图像大的图像。
显示装置可进一步包括:被配置成感测在显示器的预定接近范围内的对象的接近传感器,其中处理器可基于拍摄的图像和接近传感器的感测结果中的至少一个来感测手势。
处理器可从拍摄的图像检测多个身体部位,执行图像处理以突出显示拍摄的图像中的多个检测到的身体部位中的至少一个,并且控制显示器在第一区域上显示经处理的图像。
处理器可执行拍摄的图像的图像处理,以突出显示多个检测的身体部位之中最靠近显示器的身体部位。
响应于确定在突出显示的身体部位与显示器之间的距离等于或大于预定距离,处理器可控制显示器将显示器的第一区域作为镜子操作。
处理器可检测拍摄的图像中的眼睛、鼻子、嘴和头部当中的身体部位中的至少两个。
响应于接收到将第一区域移出显示器的手势,处理器可控制显示器将显示器的第一区域作为镜子操作。
处理器可从拍摄的图像生成主体的捕获图像,并且控制显示器将生成的捕获图像与关于主体的预先存储的捕获图像一起显示。
响应于感测到用户的后视图,处理器可控制显示器生成用户的后视图的捕获图像,并且响应于感测到用户的前视图,控制显示器在第一区域上显示用户的后视图的捕获图像。
响应于执行视频呼叫功能,处理器可感测用户的位置,并且基于感测的位置,控制显示器在其中未显示用户的镜子图像的区域上显示基于视频呼叫功能接收的对方的图像。
同时,显示装置可进一步包括通信器,该通信器包括被配置成与外部电子装置通信的通信电路,其中响应于从拍摄的图像检测到用户,处理器可控制显示器在其中存在用户的镜子图像的区域上显示包括通信信息的识别标记,以及控制通信器连接到已经拍摄了显示的识别标记的电子装置。
响应于在电子装置中接收到呼叫并且电子装置和显示装置在预定距离内,处理器可控制显示器在显示装置中显示用于接收呼叫的UI元素。
响应于在拍摄的图像中检测到收集用户健康信息并将信息存储在电子装置中的可穿戴设备,处理器可控制通信器从电子装置接收健康信息,并且控制显示器显示接收的健康信息。
处理器可基于预先存储的脸部信息从拍摄的图像识别用户,并且控制显示器显示对应于识别的用户的内容推荐屏幕。
显示器可包括:显示面板,被配置成生成对应于图像的光,以及偏振片,被配置成布置在显示面板的前侧,透射在显示面板中生成的光,以及反射从外部入射的光。
同时,提供一种用于控制显示装置的方法,该显示装置包括被配置成作为屏幕和镜子中的至少一个操作的显示器,该方法可包括:生成拍摄的图像,在拍摄的图像中拍摄了在显示器的显示方向上存在的主体,并且控制显示器将显示器的第一区域作为显示拍摄的图像的一部分的屏幕操作,并且将除第一区域之外的第二区域作为镜子操作。
控制可包括:响应于在显示器作为镜子操作的同时接收到选择主体的部分区域的手势的输入,控制显示器在第一区域上显示拍摄的图像的对应于选择的部分区域的部分。
控制可包括:控制显示器在第一区域上显示比关于选择的部分区域的镜子图像大的图像。
附图说明
从下面结合附图进行的详细描述中,本公开的这些和其他方面、特征和伴随的优点将变得更加清楚,在附图中,相同的附图标记指代相同的元件,并且其中:
图1是图示根据本公开的示例性实施例的示例性显示装置的图;
图2是图示根据本公开示例性实施例的显示装置的示例性配置的框图;
图3是图示根据本公开的示例性实施例的显示装置的示例性显示的图;
图4和5是图示本公开的各种示例性实施例的图,其中显示装置一起显示拍摄的图像与镜子图像;
图6是图示根据本公开示例性实施例的显示装置的示例性扩大功能的图;
图7是图示本公开的示例性实施例的图,其中当前捕获的图像和之前捕获的图像一起被显示在显示装置中;
图8是图示本公开的示例性实施例的图,其中前面外观和背面外观可被同时检查;
图9是图示根据本公开的示例性实施例的显示装置的示例性视频呼叫功能的图;
图10是图示根据本公开的示例性实施例的显示装置与外部装置之间的示例性连接的图;
图11是图示本公开的示例性实施例的图,其中显示装置接听外部电子装置的呼叫;
图12是图示根据本公开的示例性实施例的在显示装置上显示的示例性内容推荐屏幕的图;
图13是图示关于执行与从拍摄的图像检测的对象对应的功能的本公开的示例性实施例的图;以及
图14是图示根据本公开的示例性实施例的用于控制显示装置的示例性方法的流程图。
具体实施方式
在下文中,将参照附图更详细地描述本公开的各种示例性实施例。
在示例性实施例中使用的术语是考虑到在示例性实施例中描述的功能而定义的,并且该术语可根据在相关领域中实践的技术人员的意图、新技术的出现等而变化。在特定情况下,可任意选择术语,并且在这种情况下,将在对应公开的描述中描述其定义。因此,在描述中使用的术语不应当一定被解释为术语的简单名称,而是基于本公开的总体内容和术语的含义来定义。
示例性实施例可变化,并且可在不同的示例性实施例中被提供。将参照附图描述各种示例性实施例。然而,这不一定将示例性实施例的范围限制成特定形式。相反,可采用在本说明书的公开概念和技术范围中包括的修改、等同和替换。而且,如果公知的功能或结构将以不必要的细节模糊本公开,则可能不详细描述公知的功能或结构。
诸如“第一”和“第二”之类的术语可用于解释各种元件,但是元件不应当受这些术语的限制。所述术语仅用于区分一个元件与另一元件的目的。
除非另有指示,否则单数术语包括复数形式。应当理解:在本公开的示例性实施例中使用的术语“包括”或“具有”用于指示在本公开中描述的特征、数字、步骤、操作、元件、部件或其组合的存在,并且不排除存在或添加一个或多个其他特征、数字、步骤、操作、元件、部件或其组合。
在示例性实施例中,“模块”或“单元”执行至少一个功能或操作,并且可被实现为硬件、软件或其组合。此外,除了必须被实现为某个硬件的“模块”或“单元”之外,多个“模块”或多个“单元”可被集成到至少一个模块中,并且被实现为包括各种处理电路的至少一个处理器。
在下文中,将参照附图更详细地描述本公开的示例性实施例,使得本领域技术人员可以容易地理解示例性实施例。然而,示例性实施例可被实现为各种不同的形式,并且不限于本文描述的示例性实施例。在附图中,可省略与描述无关的部分以清楚地描述实施例,并且在整个公开中,相同的附图标记用于相同的元件。
在下文中,将参照附图更详细地描述本公开。
图1是图示根据本公开的示例性实施例的示例性显示装置的图。
参考图1,显示装置100被配置成显示图像。例如,显示装置100可由各种装置实现,诸如TV、Tablet PC、膝上型计算机、台式计算机、监视器、投影仪等等,但不限于此。例如,当显示装置100可以执行镜子功能,显示装置100可以被制造成壁挂式。
显示装置100可包括屏幕或显示器110以及拍摄单元(例如,包括至少一个相机)120。拍摄单元120可包括各种拍摄电路,诸如例如而不限于可拍摄对象并生成静止图像或视频的相机。拍摄单元120可被实现为其中提供镜头和图像传感器的相机。
例如,拍摄单元120可拍摄存在于显示装置100的显示方向上的对象,并生成拍摄的图像。
本文的显示装置100的显示方向可指到注视显示装置100上显示的屏幕的用户所在的位置(即显示装置100的前侧)的方向。
如图1中所示,拍摄单元120可被布置在显示装置的上部,但不限于此。拍摄单元120还可被布置在显示装置100内部,并且从前面拍摄用户。
根据示例性实施例的显示装置100可被配置成具有图像显示功能和镜子功能。相应地,显示装置100可被称为“镜子显示器”。
例如,显示装置100可通过两个方法实现镜子功能。第一方法是:在反转在拍摄单元200中拍摄的图像的右侧和左侧之后,显示反转的图像。例如,用户10被拍摄单元120拍摄,并且如果拍摄的图像的右侧和左侧被反转,并且反转的图像被显示,则用户在看该图像时可感觉好像他或她看镜子。
作为第二方法,显示装置100可通过反射外部光来投影镜子图像。与第一方法不同,来自用户10的光被显示装置100反射,并且用户10可以看到反射的光。
为了实现第二方法,例如,可将玻璃安装在显示装置100的显示面板的顶表面上。玻璃的顶表面可涂覆有金属,诸如铝、铬、钛等等。因为外部光被金属涂覆的表面反射,所以可以实现镜子功能,并且从显示装置100产生的光可被透射到装置的外部。这样的方法被称为半镜法。
作为另一示例,可使用电致变色镜,其方法是通过氧化还原反应将镜子状态电转换成透明状态。例如,在显示装置100的顶表面上提供电致变色镜的透明电极,并且在该透明电极上,可依次累积离子存储膜(membrane)、电解质膜、催化剂层和活性膜。透明电极可以是ITO膜。离子存储膜可存储引起电致变色效应所需的质子。离子存储膜例如可以是氧化钨(WOx)层。如果正电压(+)被施加到电致变色镜的透明电极,则离子存储膜中的包括质子可移动到离子存储膜的上部,穿过电解质膜和催化剂层,并且到达活性膜。相应地,离子存储膜和活性膜可变得透明。相反,如果负电压(-)被施加到电致变色镜的透明电极,则已到达活性膜的氢可移动到离子存储膜。结果,活性膜可返回到固有的金属性质,并且离子存储膜可变得透明,因为它由于质子而再次变成深蓝色状态,即,离子存储膜变得具有颜色。在后者中,显示装置可作为镜子操作。
作为另一示例,偏振片(film)可被布置在显示装置100的显示面板的顶表面上。偏振片可包括多个偏振层,其具有与垂直偏振光和水平偏振光之一不同的折射率,并且在垂直偏振光与水平偏振光之间,多个偏振层可反射一个并且透射另一个。使用偏振片,显示装置100可通过反射从外部入射的光的一部分而作为镜子操作,并且同时,用户可通过透射从显示面板产生的光来看到图像。
除了上述示例之外,显示装置100可使用现有技术的各种方法来实现显示功能和镜子功能。
此外,在显示装置100中,不仅显示装置100的整个区域可作为镜子操作,而且该区域的仅仅一部分可作为镜子操作。
在下文中,将参照图2描述显示装置100的示例性配置。
图2是图示根据本公开示例性实施例的显示装置100的示例性配置的框图。显示装置100可包括显示器110、拍摄单元120和处理器(例如,包括处理电路)130。
显示器110例如可指用于显示各种屏幕的组件。显示器110例如可被实现为阴极射线管(CRT)、等离子体显示面板(PDP)、有机发光二极管(OLED)、透明OLED(TOLED)等等,但不限于此。显示器还可被实现为可以感测用户的触摸操纵的触摸屏。
参考图3的示例,其中显示装置100被实现为可以通过上述第二方法执行镜子功能的装置。
图3图示根据本公开的示例性实施例的显示器110。
参考图3,沿Z方向上从背光单元(未图示)照射的光可入射到显示面板300,并且在Z方向上穿过显示面板300的组件发射。在下文中,上部/上侧和下部/下侧的表达用于指示根据作为照射光的移动方向的Z方向构造的相对布置或累积关系。
显示面板300可包括上基板310、被配置成面对上基板310布置的下基板320、被配置成在上基板301与下基板320之间布置的液晶层330、被配置成在液晶层330与下基板320之间***的滤色器层340、被配置成在下基板320的上侧布置的下偏振层350、以及被配置成在上基板310的下侧布置的上偏振层360。
上基板301和下基板320可以是根据光的移动以一定间隙彼此面对布置的透明基板。根据液晶层330的操作方法,可需要与上基板310和下基板320不同的特性。例如,如果液晶层330的操作方法是无源矩阵,则可使用钠钙玻璃,并且如果液晶层330是有源矩阵,则可使用无碱玻璃和硼硅酸盐玻璃。
液晶层330可夹在上基板301与下基板320之间,并且通过基于供应的操作信号改变液晶的排列来调节光透射。一旦向液晶供电,分子的排列就会改变,并且光学性质也相应地改变。在液晶层330的液晶的情况下,存在四种类型的液晶:向列型(nematic)液晶、胆甾型(cholesteric)液晶、近晶型(smectic)液晶和铁电液晶。
滤色器层340可被布置在液晶层330与下基板320之间,并且过滤入射光,以便将某个颜色的光发射到液晶层330的每个像素。
滤色器层340可将入射到显示面板100的光转换成RGB颜色,并将颜色转移到液晶层330。液晶层330的像素可包括对应于RGB颜色中的每一个的子像素,并且滤色器层340可根据每个子像素过滤每个颜色。相应地,当光穿过每个子像素时,可由滤色器层340从每个子像素发射不同颜色和光束。在示例性实施例中,描述滤色器层340可被布置在下基板320中,但是滤色器层340的位置可不限于此。滤色器层340可被布置在上基板301中。
下偏振层350可被布置在下基板320与滤色器层340之间,并且上偏振层360可被布置在上基板310与液晶层330之间。下偏振层350和上偏振层360可被配置成透射预定偏振方向的入射光。根据设计方法,由下偏振层350和上偏振层360透射的光的每个偏振方向可相同或不同。
另外,如图3中所图示,镜子200可被布置在显示面板300的上面板的表面上。
根据示例性实施例,镜子200可以是偏振片。作为镜子200的偏振片可透射在显示面板300中产生的光,并且向用户提供显示图像,并且还通过反射外部光的一部分来投影镜子图像。
根据另一示例性实施例,镜子200可以是电致变色镜子。电致变色镜子可根据供应的电力的电压性质以穿透(透明)模式和反射(镜子)模式操作。
根据另一示例性实施例,镜子200可以是半镜(或半透明镜或单向镜)。
如果电致变色镜被布置在显示器110的顶表面上,则电致变色镜可基于供应的电力的电压性质以穿透(透明)模式和反射(镜子)模式操作。在穿透模式中,电致变色镜可作为屏幕操作,并且在反射模式中,它可作为镜子操作。
根据另一示例性实施例,显示器110可作为屏幕操作,并且同时作为镜子操作。例如,在偏振片或半镜被布置在显示器110的顶表面上的情况下,因为背光单元的光可以被透射并且外部光还可以被反射,所以显示器110可显示屏幕,并且同时作为镜子操作。
拍摄单元120可以是拍摄主体并生成静止图像或视频的装置。拍摄单元120例如可被实现为相机。拍摄单元120可被布置在显示装置100内部,或者被提供为可以经由电缆或无线地与显示装置100连接的单独装置。
拍摄单元120可生成拍摄的图像,在拍摄的图像中,拍摄在显示器的显示方向上存在的主体。本文的图像可包括视频和静止图像。
处理器130可包括各种处理线路,并控制显示装置100的整体操作。处理器130可包括CPU、RAM、ROM和***总线。在前述示例性实施例中,描述处理器130可包括各种处理电路,诸如例如一个CPU,但是处理器130也可由多个CPU(或DSP、MPU等)、专用处理器等等实现。此外,处理器130可被实现为微计算机(MICOM)、专用集成电路(ASIC)等等,但不限于此。
处理器130可控制显示器,以便显示器110的第一区域作为显示由拍摄单元120拍摄的图像的一部分的屏幕操作,并且除第一区域之外的第二区域作为镜子操作。参考图1,用户可在第一区域上看到拍摄的他/她自己的图像,并且在第二区域上,用户可看到镜子图像,即他/她自己的反射。
响应于在显示器作为镜子操作的同时输入选择主体的部分区域的手势,处理器130可控制显示器110在由拍摄单元120拍摄的图像内显示与第一区域上的选择的部分区域对应的拍摄的图像的部分,并且控制显示器110,以便除第一区域外的第二区域作为镜子操作。这将在以下参照图4更详细地描述。
参考图4(a),显示镜子图像10',该图像通过在显示器110作为镜子操作的同时被显示器110反射的来自主体10的光创建,并且可输入选择主体的部分区域41的手势。在图4(a)中,为了解释手势而单独图示手,但是手是主体10的。
可通过各种方法输入选择主体的部分区域41的手势。
根据示例性实施例,如果由拍摄单元120拍摄的图像中包括的用户手的移动是指向显示器的某个部分或者在某个部分上绘制圆圈的移动,则处理器可确定已经输入了选择正在某个部分上显示的主体的手势。手势不必是朝向显示器110的手势,但是诸如直接指向主体的某个部分(例如,用手指触摸眼睛)之类的手势被感测到,处理器130可确定选择主体的某个部分的手势已被输入。
根据另一示例性实施例,显示装置100可包括接近传感器(例如,IR接近传感器),并且感测接近(例如,预定接近)显示器110的对象。而且,可由接近传感器确定用户手势。
如上所述,不仅可感测用户不与显示器110接触的手势,而且还可感测与显示器110接触的手势。例如,显示器110可被实现为触摸面板,并且当感测到用户触摸显示器110的某个部分,或者用户触摸某个部分并在某个部分中绘制圆圈时,处理器130可确定已经输入了选择在该某个部分上显示的主体的手势。
参考图4(b),处理器130可在作为屏幕操作的第一区域42上显示拍摄的图像43的与从主体选择的部分区域41对应的部分区域,并且控制显示器110以便除第一个区域之外的区域作为镜子操作。
在前述示例中,处理器130可控制显示器110以便在第一区域上显示比与从主体选择的部分区域41对应的反射图像(或镜子图像)大的图像43。相应地,用户10可在第一区域42上看到从镜子上看到的他/她脸部图像放大的他/她脸部图像。
此外,响应于输入预定用户手势,处理器130可控制显示器110,以便第一区域42作为镜子区域操作。即,响应于输入预定用户手势,处理器130可控制显示器110,以便不再显示图像43。根据示例性实施例,如图4(c)中所图示,响应于将其上显示图像43的第一区域42移出显示器42的手势的输入,处理器130可控制显示器110,以便第一区域42作为镜子操作。即,因为处理器130可控制显示器110不在第一区域43上显示任何图像,所以显示器110可作为镜子操作。
处理器130可从由拍摄单元110拍摄的图像检测多个身体部位,执行图像处理以突出显示拍摄的图像中的检测的身体部位中的至少一个,并且控制显示器110显示经处理的图像。
根据示例性实施例,处理器130可通过识别出作为拍摄的图像上的特征区域的眼睛、鼻子和嘴来检测脸部区域,并且还可基于预先存储的图像(例如,预先存储的骨架图像)来检测头部、手臂、腿等。
处理器130可通过将身体部位的颜色与其他身体部位的颜色区分开来突出显示多个检测的身体部位中的至少一个,绘制身体部位的边缘或者放大该身体部位,并且显示该图像。
如果确定用户临近显示器100,则可执行上述操作。将参照图5来描述。
参考图5(a),用户10正站立看着作为镜子操作的显示器110,并且在显示器110上,镜子图像10'被显示在显示器110上,该图像通过来自用户的正被显示器110反射的光创建。图5(b)图示其中用户10更靠近显示器110的情况。处理器130可通过由拍摄单元120拍摄的图像或者接近传感器来计算(例如,确定)在用户10与显示器100之间的距离。如果确定该距离等于或小于预定距离,则处理器130可从拍摄的图像中检测多个预定的身体部位。
作为检测的对象的身体部位可包括眼睛、鼻子、嘴和脸部中的至少两个。另外,处理器可执行图像处理以突出显示某个身体部位,并在第一区域51上显示经处理的图像。例如,处理器130可控制显示器110显示放大的头部图像52,如图5(b)中所图示。
然后,如果确定在与第一区域51上显示的图像对应的身体部位与显示器110之间的距离等于或大于预定距离,则如图5(c)中所图示,处理器130可控制显示器110以便第一区域51作为镜子操作。即,因为处理器130可控制显示器110不在第一区域51上显示任何图像,所以显示器110可作为镜子操作。
而且,如果确定在与第一区域51上显示的图像对应的身体部位与显示器110之间的距离等于或大于预定距离,则处理器130可不立即停止显示头部图像51,但是维持该显示某个时间段之后停止显示头部图像。
在前述示例中,描述了可检测多个身体部位,但是也可能仅仅检测用户想要突出显示的一个身体部位。
图6是图示关于在拍摄的图像中显示用户的身体部位的本公开的另一示例性实施例的图。
参考图6(a),用户10正站立看着作为镜子操作的显示器,并且在显示器110上,镜子图像10'被显示在显示器110上,该图像通过来自用户10的正被反射的光创建。图6(b)图示其中用户10更靠近显示器110的示例。处理器130可通过由拍摄单元120拍摄的图像或者接近传感器来计算(例如,确定)在用户10与显示器100之间的距离。如果确定该距离等于或小于预定距离,则处理器130可从拍摄的图像中检测多个预定的身体部位。作为检测的对象的身体部位可包括眼睛、鼻子、嘴和脸部。
另外,处理器130可对拍摄的图像执行图像处理以突出显示最靠近显示器110的身体部位,并且控制显示器110显示经处理的图像。图6(b)图示其中最靠近的身体部位是眼睛、鼻子和嘴当中的眼睛的示例。处理器130可控制显示器110显示其中已经放大了眼睛的尺寸的经处理的图像61。
根据示例性实施例,可由如下方法确定最靠近显示器110的身体部位。处理器130可测量从拍摄的图像检测的眼睛、鼻子和嘴的每个尺寸,根据距离将检测的尺寸与预先存储的关于眼睛、鼻子和嘴的信息进行比较,并且在检测的眼睛、鼻子和嘴之中确定最靠近显示器110的身体部位。此外,处理器130可测量眼睛之间的距离,根据头部方向将测量的距离与预先存储的关于眼睛之间的距离的信息进行比较,并且确定哪个眼睛更靠近显示器110。而且,处理器可通过从拍摄的图像检测某个身体部位(例如,耳朵)的位置和形状来识别脸部的程度。
处理器可实时分析拍摄的图像,并且自动突出显示已经变得靠近的身体部位。如果用户10的眼睛如图6(b)中位于最靠近显示器110的位置,并且然后用户10的嘴如图6(b)中所图示地位于比眼睛更靠近显示器的位置,则处理器130可控制显示器110显示经处理的图像62以便放大嘴而不是眼睛。
图7是图示根据本公开的示例性实施例的显示装置100中的示例性捕获图像显示的图。
响应于感测到预定手势,处理器可从其中拍摄了主体的拍摄的图像生成捕获图像。捕获图像可以是图片。当用户、主体站立在显示器110前面达某个时间段,或者用户在显示器前面敲击某个姿势时,可执行预定手势的检测。在另一示例性实施例中,处理器130可在每个预定时间从拍摄的图像生成捕获图像。例如,在每天的下午两点,可生成位于显示器110前面的主体的捕获图像。
图7(a)图示其中用户10站立达某个时间段看着作为镜子操作的显示器110的示例。如果检测到用户已经在显示器110前面站立达某个时间段,则处理器130可控制拍摄单元120从拍摄的图像生成捕获图像。在这种情况下,如图7(b)中图示通知很快执行拍摄的UI元素71。
一旦完成拍摄,就可在显示器110上显示当前捕获的图像75,如图7(c)中所图示。在这种情况下,也可一起显示用户预先存储的捕获图像、过去由用户在显示器110前面拍摄的捕获图像72、73和74。
如上所述,显示装置100可包括可以存储捕获图像的存储器。该存储器可被实现为非易失性存储器、易失性存储器、闪存、硬盘驱动器(HDD)、固态驱动器(SSD)等等,但不限于此。存储器110可由处理器130访问,并且数据的读取/记录/编辑/删除/更新可由处理器130执行。而且,存储器110不仅可被实现为显示装置100内部的存储介质,而且可被实现为外部存储介质,诸如USB、通过网络的web服务器等等。在存储器中,可存储诸如操作***(OS)或各种应用程序之类的程序、用户设置数据、在执行应用程序的同时生成的数据、诸如多媒体内容之类的各种数据等。
图8是图示关于拍摄用户的后视图的本公开的示例性实施例的图。
图8(a)图示其中用户10正在站立、同时她背对着作为镜子操作的显示器110的示例。响应于感测到由拍摄单元120拍摄的图像中的用户的后视图,处理器130可从拍摄的图像生成用户的后视图的捕获图像。
如果检测到与预先存储的人背的形状对应的形状达等于或长于预定时间段,则处理器130可确定感测到用户的后视图。
然后,如果感测用户的前视图,即,如果从拍摄的图像感测脸部等,则处理器130例如可如图8(b)中所图示地显示先前已经生成的用户的后视图的捕获图像80。在这种情况下,可在除其中存在用户10的镜子图像10'的区域之外的区域上显示用户10的后视图的捕获图像80。处理器130可基于接近传感器和拍摄的图像识别当参考点是显示器110时用户10的位置,并且基于该位置,处理器130可识别其中存在用户10的镜子图像10'的区域。
根据上述示例性实施例,可同时显示向其投影用户的前视图的镜子图像10'和后视图的捕获图像80。
图9是图示关于视频呼叫的本公开的示例性实施例的图。
参考图9(a)和图9(b),显示装置100可执行视频呼叫功能。如图9(a)中所图示,响应于从外部接收到视频呼叫请求,显示装置100可控制显示器120显示用于开始视频呼叫的UI元素91。
如果选择了用于开始视频呼叫的UI元素91,则处理器130可根据视频呼叫功能在显示器110上显示接收的呼叫的对方的图像92,如图9(b)中所图示。在这种情况下,处理器130可基于接近传感器或拍摄的图像来感测用户的位置,并且基于感测到的位置,处理器130可控制显示器110在其中不显示用户10的镜子图像10'的区域上显示对方的图像92。例如,用户可在她在作为镜子操作的区域上看到她自己的反射的同时执行视频呼叫,并且看到在另一个区域上显示的对方。相应地,用户可感觉好像她与对方处于相同的空间。
显示装置100可进一步包括与外部装置通信的通信器。通信器可包括各种通信电路,其根据各种通信方法与各种类型的外部装置通信。通信器可包括以通信芯片形式的各种通信电路,诸如例如而不限于Wi-Fi芯片、蓝牙芯片、NFC芯片、无线通信芯片等等。Wi-Fi芯片、蓝牙芯片和NFC芯片可分别通过Wi-Fi、Wi-Fi直连、蓝牙和NFC的方法通信。NFC芯片指代通过NFC方法操作的通信芯片,该NFC方法使用在诸如135kHz、13.56MHz、433MHz、860~960MHz和2.45GHz之类的各种RF-ID频带当中的13.56MHz频带。在使用Wi-Fi芯片或蓝牙芯片的情况下,可首先发送和接收诸如SSID、会话密钥等之类的各种连接信息,执行通信连接,并且然后可发送和接收各种信息。无线通信芯片指代根据诸如IEEE、ZigBee、第三代(3G)、第三代合作伙伴(3GP)、长期演进(LTE)等等之类的各种通信标准通信的通信芯片。
图10是图示本公开的示例性实施例的图,其图示连接外部电子装置和显示装置100。
图10(a)图示其中用户10正在站立看着作为镜子操作的显示器110的示例。在显示器110上,可显示镜子图像10',该图像由来自用户的正被反射的光形成。响应于正从由拍摄单元120拍摄的图像检测用户,处理器130可基于预先存储的脸部信息识别检测的用户。如果在预先存储的脸部信息中没有与用户10的脸部匹配的信息,则处理器可确定用户是新用户。
如果确定用户是新用户,则处理器130可使用从拍摄的图像检测的用户形状(或轮廓和轮廓)生成包括连接信息的识别标记。而且,处理器130可存储在拍摄的图像中的用户脸部,并且当稍后再次拍摄用户时,处理器130可分析该用户脸部并使用该分析作为用于登录的数据。
处理器130可控制显示器110在其中存在用户的镜子图像10'的区域上显示识别标记1001,如图10(b)中所图示。处理器130可基于拍摄的图像中的用户的位置和显示装置100中的拍摄单元120的位置来识别其中存在镜子图像10'的区域。
识别标记可以是机器可读标记,诸如QR码和条形码等等,但不限于此。
参考图10(c),可使用诸如智能手机之类的电子装置400拍摄识别标记1001,并且可收集连接信息。连接信息可以是用于通过无线通信方法与显示装置100连接的信息。在诸如WI-FI、蓝牙等之类的无线通信方法的情况下,关于会话密钥的信息可被包括在连接信息中。连接信息还可包括关于显示装置100的ID的信息、可在显示装置100中支持的功能等等。
处理器130可控制显示装置100的通信器,以与已经拍摄识别标记1001的电子装置连接。
一旦建立与电子装置400的连接,处理器130就可将电子装置400的各种设置与显示装置100同步,并且显示图10(d)的屏幕。
例如,处理器130可同步诸如存储在电子装置400中的账户(例如,FacebookTM账户、GoogleTM账户、TweeterTM账户等)的ID和密码之类的信息。
而且,处理器130可通过诸如安装在电子装置400中的镜子管理器之类的应用来同步信息集。镜子管理器App可提供用户可选择和存储用户需要的信息(例如,时间、天气、个人通话记录、行程、健康信息、新闻等)的功能。
如果稍后拍摄用户并且识别出用户的脸部,则处理器130可反映存储的账户信息、设置等等。
图11是图示本公开的示例性实施例的图,其图示在显示装置中接收在外部电子装置中接收到的呼叫。
因为麦克风和扬声器被提供在显示装置100内部,并且显示装置100和电子装置400(例如,智能手机)可彼此通信,所以可在显示装置中接收在电子装置400中接收的呼叫。例如,如果在用户的电子装置400中接收到呼叫,则电子装置400可将通知在电子装置400中接收到呼叫的信息发送到显示装置100。这样的信息可被控制成仅仅在显示装置100与用户的电子装置400之间的距离在预定距离内时才被发送。在这种情况下,可使用各种通信方法,诸如蓝牙、Wi-Fi、NFC等。
参考图11(a),该图图示这样的情况:当在电子装置400中接收到呼叫时,用户的电子装置400和显示装置10彼此分开达某一距离或大于某一距离。而且,图11(b)图示这样的情况:电子装置400与显示装置100之间的距离等于或小于预定距离。处理器130例如可基于从电子装置400接收的信号的强度来测量电子装置400与显示装置100之间的距离,并且如果确定该距离等于或小于预定距离,则处理器130可接收进行呼叫的用户的信息。然后,如图11(b)中所图示,可显示用于接收包括进行呼叫的用户的信息的呼叫的UI元素1101。响应于选择用于接收呼叫的UI元素1101,可在显示装置100中接听在电子装置400中接收的呼叫。图11(c)图示一种状态,其中已经在显示装置100中接听和接收呼叫,并且可在显示器110上显示通知用户正被连接到进行呼叫的用户的UI元素1102。
根据示例性实施例,例如,当用户在没有握持手机的情况下在显示装置100前面进行化妆的同时,用户可舒适地通过电话说话。
图12是图示关于提供推荐内容的本公开的示例性实施例的图。
参考图12(a)和图12(b),当用户临近显示装置100时,处理器130可识别用户。
处理器130可在通过在显示装置100内部提供的IR接近传感器感测人时通过操作拍摄单元120,或者通过显示装置100内部提供的麦克风识别出语音来识别显示器110前面存在的用户。或者处理器130可基于预先存储的脸部信息从由拍摄单元120拍摄的图像识别用户。
处理器130可控制显示器110显示对应于识别的用户的信息,如图12(b)中所图示。而且,处理器130可控制显示器110显示对应于识别的用户的内容推荐屏幕,如图12(c)中所图示。例如,可基于识别的用户的年龄、观看信息、关于识别的用户存储的观看模式等等来显示内容推荐屏幕。在显示图12(b)的屏幕之后又过去预定时间之后,可显示图12(c)的屏幕。
当用户在图12(c)的屏幕上选择推荐内容时,处理器130可控制显示器110再现选择的内容。如果在图12(c)的屏幕上未执行内容的选择达某个时间段,则处理器130可控制显示器110显示包括如图12(d)的屏幕中的另一内容的内容推荐屏幕。如果选择了推荐内容,则再现选择的推荐内容,并且如果在预定时间段内未执行选择,则处理器130可控制显示器110显示包括天气信息的基本屏幕,如图12(e)。
图13是图示本公开的示例性实施例的图,其图示提供与识别出的对象相关联的信息。
参考图13,如果在由拍摄单元120拍摄的图像中识别出某个对象,例如,如果识别出牙刷,则处理器130可控制显示器显示计时器1301。基于计时器1301,用户可在推荐时间(三分钟)内刷他/她的牙齿。
如果检测到从由拍摄单元120拍摄的图像收集用户健康信息并将收集的信息存储在电子装置400中的可穿戴设备,则处理器130可控制通信器从用户的电子装置400接收健康信息,并且控制显示器110显示接收的健康信息。本文的可穿戴设备可以是智能手表,并且健康信息可以是诸如体重和步行信息之类的信息。
根据另一示例性实施例,显示装置100可提供脸部上的涂鸦功能。例如,处理器130可反转其中拍摄了用户的图像的右侧和左侧,并且在显示器110上显示图像。然后,处理器130可感测用户的手势,并且基于用户的手势在显示的图像上输入图片或涂鸦。然后,处理器130通过将输入的图片或涂鸦与其右侧和左侧已被反转的拍摄的图像组合来生成合成图像,并且存储合成图像。
同时,在上述示例性实施例中,假设显示装置100配备有偏振片、半镜等等,并且描述:随着从外部入射到显示装置100的光被反射,可显示镜子图像。然而,当显示装置100未配备有偏振片、半镜等等时,也可应用各种示例性实施例。例如,可通过反转由拍摄单元120拍摄的图像的右侧和左侧来产生镜子图像。此外,在上述各种示例性实施例中,描述:通过在显示器110的某个区域上不显示图像,该某个区域可作为镜子操作。然而,如果使用拍摄单元120生成镜子图像,则可在反转图像的右侧和左侧后显示当前由拍摄单元110拍摄的图像,以便操作显示器110的某个区域以作为镜子操作。
图14是图示根据本公开的示例性实施例的用于控制显示装置100的示例性方法的流程图,该显示装置100包括作为屏幕和镜子中的至少一个操作的显示器。
显示装置100可生成其中拍摄了在显示器的显示方向上存在的主体的图像(S1410)。
显示装置100可控制显示器,以便显示器的第一区域作为显示拍摄的图像的部分的屏幕操作并且除第一区域之外的第二区域作为镜子操作(S1420)。
如果显示装置100配备有诸如可以反射外部光的偏振片之类的组件,则为了控制显示器作为镜子操作可控制显示器不显示图像。如果显示器100未配备有这样的组件,则它可反转其中拍摄了显示装置100前面的情况的图像的右侧和左侧,并且实时地在显示器上显示图像。
同时,响应于在显示器作为镜子操作的同时选择主体的部分区域的手势,显示装置100可控制显示器在第一区域上显示拍摄的图像的对应于选择的部分区域的一部分。
显示装置100可进一步包括感测接近显示器的对象的接近传感器。接近传感器可以是IR接近传感器。
显示装置100可基于拍摄的图像和接近传感器的感测结果中的至少一个来感测选择主体的部分区域的手势。
此外,显示装置100可基于拍摄的图像和接近传感器的感测结果中的至少一个来检测出现在显示器前面的用户的位置,并且基于检测的用户位置,确定显示镜子图像的位置,该镜子图像由来自用户的正被反射的光创建。
同时,如果显示器前面的用户存在于某一距离内,则显示装置100可操作扩大功能,并且放大已经临近显示器的身体部位。例如,显示装置100可检测用户的眼睛、鼻子和嘴,并且如果确定身体部位中的一个比其他身体部位更靠近地临近显示器,则显示装置100可执行拍摄的图像的图像处理,以便放大最靠近的身体部位,并且在显示器上显示经处理的图像。在这种情况下,放大率可基于脸部的程度以及在显示器与身体部位之间的距离而改变。
而且,显示装置100可从拍摄的图像检测某个对象,并且激活与检测的对象相关联的功能。例如,如果已经检测到牙刷,则显示装置100可在显示器上显示计时器,并且如果已经检测到智能手表,则显示装置100可在显示器上显示健康相关信息。
根据上述各种示例性实施例,可由作为镜子操作的显示装置100以及图像显示装置提供各种用户体验。
上述各种示例性实施例可被体现在记录介质中,该记录介质可由计算机或类似装置通过使用软件、硬件或其组合读取到计算机。根据硬件实施例,本公开中描述的示例性实施例可通过使用从专用处理器、CPU、专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理器件(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、用于执行其他功能的电子单元中选择的至少一个来体现。在一些情况下,本公开中描述的示例性实施例可被体现为处理器130。根据软件实施例,诸如本公开中描述的过程和功能之类的实施例可被体现为附加软件模块。软件模块中的每一个可执行本公开中描述的一个或多个功能和操作。
可在非暂时性计算机可读介质中存储并提供根据各种示例性实施例的用于控制显示装置的上述方法。非暂时性计算机可读介质可被安装在各种装置上。
非暂时性计算机可读介质是可通过设备执行读取的介质。例如,可在诸如CD、DVD、硬盘、蓝光、磁盘、USB、存储卡、ROM等等之类的非临时读取设备中存储并通过其提供用于执行上述各种方法的程序。
前述示例性实施例和优点仅仅是示例,并且不应被解释为限制示例性实施例。示例性实施例的描述旨在是说明性的,而不限制如由所附权利要求限定的本公开的范围,并且许多替代方案、修改和变型对于本领域技术人员而言将是显而易见的。

Claims (15)

1.一种显示装置,包括:
显示器,被配置为作为屏幕和镜子中的至少一个操作;
拍摄单元,其包括相机,被配置为生成在其中拍摄了在显示器的显示方向上存在的主体的拍摄的图像;以及
处理器,被配置为控制显示器将显示器的第一区域作为显示拍摄的图像的一部分的屏幕操作,以及将除第一区域之外的第二区域作为镜子操作。
2.如权利要求1所述的显示装置,其中,所述处理器被配置为:响应于在显示器作为镜子操作的同时接收到选择主体的部分区域的手势的输入,控制显示器在第一区域上显示拍摄的图像的与选择的部分区域对应的部分。
3.如权利要求2所述的显示装置,其中,所述处理器被配置为:控制所述显示器在第一区域上显示比所选择的部分区域的镜子图像大的图像。
4.如权利要求2所述的显示装置,还包括:
接近传感器,被配置为感测在显示器的预定接近范围内的对象,
其中,所述处理器被配置为:基于拍摄的图像和接近传感器的感测结果中的至少一个来感测手势。
5.如权利要求1所述的显示装置,其中,所述处理器被配置为:从拍摄的图像检测多个身体部位,执行图像处理以突出显示拍摄的图像中的多个检测到的身体部位中的至少一个,并且控制显示器在第一区域上显示经处理的图像。
6.如权利要求5所述的显示装置,其中,所述处理器被配置为:执行对拍摄的图像的图像处理以突出显示多个检测到的身体部位当中最靠近显示器的身体部位。
7.如权利要求5所述的显示装置,其中,所述处理器被配置为:响应于确定在突出显示的身体部位与显示器之间的距离等于或大于预定距离,控制显示器将显示器的第一区域作为镜子操作。
8.如权利要求5所述的显示装置,其中,所述处理器被配置为:检测拍摄的图像中的眼睛、鼻子、嘴和头部当中的至少两个身体部位。
9.如权利要求1所述的显示装置,其中,所述处理器被配置为:响应于接收到将第一区域移出显示器的手势,控制显示器将显示器的第一区域作为镜子操作。
10.如权利要求1所述的显示装置,其中,所述处理器被配置为:从所拍摄的图像生成主体的捕获图像,以及控制所述显示器将所生成的捕获图像与关于所述主体的预先存储的捕获图像一起显示。
11.如权利要求1所述的显示装置,其中,所述处理器被配置为:响应于感测到用户的后视图,控制所述显示器生成所述用户的后视图的捕获图像,以及响应于感测到用户的前视图,控制所述显示器在第一区域上显示用户的后视图的捕获图像。
12.如权利要求1所述的显示装置,其中,所述处理器被配置为:响应于执行视频呼叫功能,感测用户的位置,以及基于所感测到的位置,控制所述显示器在其中未显示用户的镜子图像的区域上显示基于所述视频呼叫功能而接收到的对方的图像。
13.如权利要求1所述的显示装置,还包括:
通信电路,被配置为与外部电子装置通信,
其中,所述处理器被配置为:响应于从拍摄的图像检测到用户,控制所述显示器在其中存在用户的镜子图像的区域上显示包含通信信息的识别标记,以及控制所述通信电路连接到已拍摄所显示的识别标记的电子装置。
14.如权利要求1所述的显示装置,其中,所述显示器包括:
显示面板,被配置为生成对应于图像的光;和
偏振片,被布置在所述显示面板的前侧,并且被配置为:透射在所述显示面板中生成的光,以及反射从外部入射的光。
15.一种用于控制显示装置的方法,所述显示装置包括被配置为作为屏幕和镜子中的至少一个操作的显示器,所述方法包括:
生成拍摄的图像,在拍摄的图像中,拍摄了在所述显示器的显示方向上存在的主体;以及
控制所述显示器将所述显示器的第一区域作为显示所拍摄的图像的一部分的屏幕操作,以及将除所述第一区域之外的第二区域作为镜子操作。
CN201780060040.7A 2016-09-29 2017-05-22 显示装置及其控制方法 Active CN109791437B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0125513 2016-09-29
KR1020160125513A KR20180035434A (ko) 2016-09-29 2016-09-29 디스플레이 장치 및 그의 제어 방법
PCT/KR2017/005291 WO2018062658A1 (en) 2016-09-29 2017-05-22 Display apparatus and controlling method thereof

Publications (2)

Publication Number Publication Date
CN109791437A true CN109791437A (zh) 2019-05-21
CN109791437B CN109791437B (zh) 2022-09-27

Family

ID=61685915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780060040.7A Active CN109791437B (zh) 2016-09-29 2017-05-22 显示装置及其控制方法

Country Status (5)

Country Link
US (1) US10440319B2 (zh)
EP (1) EP3465393B1 (zh)
KR (2) KR20180035434A (zh)
CN (1) CN109791437B (zh)
WO (1) WO2018062658A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968511A (zh) * 2020-08-26 2020-11-20 京东方科技集团股份有限公司 显示面板及智能镜及确定发型推荐信息的方法
CN113853158A (zh) * 2019-07-22 2021-12-28 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、程序及认知功能评价装置
CN114911384A (zh) * 2022-05-07 2022-08-16 青岛海信智慧生活科技股份有限公司 镜子显示器及其远程控制方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018205478A (ja) * 2017-06-02 2018-12-27 セイコーエプソン株式会社 表示装置および表示装置の制御方法
US10868955B2 (en) * 2017-09-05 2020-12-15 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
KR102537784B1 (ko) * 2018-08-17 2023-05-30 삼성전자주식회사 전자 장치 및 그 제어 방법
CN111028138A (zh) * 2018-10-10 2020-04-17 北京奇虎科技有限公司 一种智能穿衣镜自拍***
CN111435441A (zh) * 2019-01-11 2020-07-21 丽宝大数据股份有限公司 压力转向式电子镜面装置
KR102607214B1 (ko) * 2019-03-25 2023-11-29 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN110009942B (zh) * 2019-04-11 2021-04-13 九思教育科技有限公司 一种函数体验装置
KR20210022302A (ko) * 2019-08-20 2021-03-03 삼성전자주식회사 전자 장치 및 전자 장치의 상태에 기반하여 동작 모드 제어 방법
KR20210086103A (ko) * 2019-12-31 2021-07-08 삼성전자주식회사 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법
DE102020100585B4 (de) * 2020-01-13 2022-05-05 Frank Hochstätter Bildwiedergabevorrichtung und Verfahren zur gleichzeitigen visuellen Darstellung verschiedener Zustände eines Objekts
TWI738439B (zh) * 2020-07-29 2021-09-01 友達光電股份有限公司 影像顯示方法及顯示系統
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
IT202100019904A1 (it) * 2021-07-26 2023-01-26 Digitarc Srl Dispositivo di visualizzazione di immagini

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020196333A1 (en) * 2001-06-21 2002-12-26 Gorischek Ignaz M. Mirror and image display system
WO2007000743A2 (en) * 2005-06-28 2007-01-04 Koninklijke Philips Electronics, N.V. In-zoom gesture control for display mirror
US20070040033A1 (en) * 2005-11-18 2007-02-22 Outland Research Digital mirror system with advanced imaging features and hands-free control
US20080055730A1 (en) * 2006-08-29 2008-03-06 Industrial Technology Research Institute Interactive display system
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US20110228155A1 (en) * 2010-03-19 2011-09-22 Hon Hai Precision Industry Co., Ltd. Cosmetic mirror and adjusting method for the same
US20110298910A1 (en) * 2009-02-23 2011-12-08 Koninklijke Philips Electronics N.V. Mirror device
WO2014100250A2 (en) * 2012-12-18 2014-06-26 Nissi Vilcovsky Devices, systems and methods of capturing and displaying appearances
CN204130112U (zh) * 2014-11-12 2015-01-28 刘艳 全视角广告镜面***
US20150253873A1 (en) * 2012-08-06 2015-09-10 Nikon Corporation Electronic device, method, and computer readable medium

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5340280A (en) 1976-09-27 1978-04-12 Toshiba Corp Manufacture of semiconductor unit
JP2001204545A (ja) * 2000-01-28 2001-07-31 Iti Joho Kogaku Kenkyusho:Kk 化粧鏡装置
DE602004029559D1 (de) * 2003-03-04 2010-11-25 Nat Inst Of Advanced Ind Scien Aus koji-schimmelpilz stammende phospholipase a2
JP4257508B2 (ja) 2003-06-09 2009-04-22 富士フイルム株式会社 電子カメラ
US7948481B2 (en) * 2005-03-01 2011-05-24 Nissi Vilcovsky Devices, systems and methods of capturing and displaying appearances
JP5117890B2 (ja) 2007-10-10 2013-01-16 株式会社リコー 情報処理装置、情報処理方法、およびそのプログラム
US8159458B2 (en) 2007-12-13 2012-04-17 Apple Inc. Motion tracking user interface
CN101784980B (zh) 2008-06-02 2013-09-18 松下电器产业株式会社 遥控操作装置及遥控操作方法
KR101034117B1 (ko) * 2009-11-13 2011-05-13 성균관대학교산학협력단 영상에서 관심 영역 지정 및 윤곽선 영상을 이용한 객체 인식 방법 및 장치
KR101817656B1 (ko) 2011-12-13 2018-01-12 삼성전자주식회사 다기능 디스플레이를 구비하는 카메라
KR200472165Y1 (ko) 2012-05-21 2014-04-10 (주)아모레퍼시픽 디지털 거울을 갖는 콤팩트 화장품 케이스
KR102019123B1 (ko) 2012-12-21 2019-09-06 엘지전자 주식회사 이동단말기 및 그 제어 방법
JP6124124B2 (ja) 2013-05-14 2017-05-10 株式会社デンソーウェーブ 認証システム
EP3028177B1 (en) * 2013-08-04 2024-07-10 Eyesmatch Ltd Devices, systems and methods of virtualizing a mirror
US9342877B2 (en) 2013-08-22 2016-05-17 Glasses.Com Inc. Scaling a three dimensional model using a reflection of a mobile device
KR102114617B1 (ko) 2014-01-08 2020-05-25 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102209745B1 (ko) * 2014-03-18 2021-01-29 광운대학교 산학협력단 광고 및 쇼핑 등 정보를 표시하기 위하여 사용자의 투영 영상 인식을 통한 미러 디스플레이의 정보 표시 장치 및 방법
KR20160019741A (ko) 2014-08-12 2016-02-22 엘지전자 주식회사 미러 디스플레이 장치 및 그의 동작 방법
US9910504B2 (en) 2014-08-21 2018-03-06 Samsung Electronics Co., Ltd. Sensor based UI in HMD incorporating light turning element

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020196333A1 (en) * 2001-06-21 2002-12-26 Gorischek Ignaz M. Mirror and image display system
WO2007000743A2 (en) * 2005-06-28 2007-01-04 Koninklijke Philips Electronics, N.V. In-zoom gesture control for display mirror
US20070040033A1 (en) * 2005-11-18 2007-02-22 Outland Research Digital mirror system with advanced imaging features and hands-free control
US20080055730A1 (en) * 2006-08-29 2008-03-06 Industrial Technology Research Institute Interactive display system
US20110298910A1 (en) * 2009-02-23 2011-12-08 Koninklijke Philips Electronics N.V. Mirror device
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US20110228155A1 (en) * 2010-03-19 2011-09-22 Hon Hai Precision Industry Co., Ltd. Cosmetic mirror and adjusting method for the same
US20150253873A1 (en) * 2012-08-06 2015-09-10 Nikon Corporation Electronic device, method, and computer readable medium
WO2014100250A2 (en) * 2012-12-18 2014-06-26 Nissi Vilcovsky Devices, systems and methods of capturing and displaying appearances
CN204130112U (zh) * 2014-11-12 2015-01-28 刘艳 全视角广告镜面***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113853158A (zh) * 2019-07-22 2021-12-28 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、程序及认知功能评价装置
CN113853158B (zh) * 2019-07-22 2024-05-14 松下知识产权经营株式会社 步行功能评价装置、步行功能评价***、步行功能评价方法、记录介质及认知功能评价装置
CN111968511A (zh) * 2020-08-26 2020-11-20 京东方科技集团股份有限公司 显示面板及智能镜及确定发型推荐信息的方法
CN114911384A (zh) * 2022-05-07 2022-08-16 青岛海信智慧生活科技股份有限公司 镜子显示器及其远程控制方法

Also Published As

Publication number Publication date
US20180091772A1 (en) 2018-03-29
EP3465393A4 (en) 2019-08-14
KR20180035434A (ko) 2018-04-06
EP3465393B1 (en) 2020-04-29
KR20220044467A (ko) 2022-04-08
US10440319B2 (en) 2019-10-08
CN109791437B (zh) 2022-09-27
WO2018062658A1 (en) 2018-04-05
EP3465393A1 (en) 2019-04-10
KR102519586B1 (ko) 2023-04-10

Similar Documents

Publication Publication Date Title
CN109791437A (zh) 显示装置及其控制方法
US10423193B2 (en) Electronic device and method for controlling displays
US11257459B2 (en) Method and apparatus for controlling an electronic device
KR102310130B1 (ko) 착용 가능한 전자 장치
CN105574484B (zh) 电子装置及用于在电子装置中分析脸部信息的方法
KR102460544B1 (ko) 센싱 기능을 포함하는 디스플레이 및 그것을 포함하는 전자 장치
CN105980976B (zh) 用于控制显示器的电子装置和方法
CN108369438A (zh) 柔性电子设备及其操作方法
US9971712B2 (en) Electronic device and operating method thereof
CN107800930A (zh) 图像合成方法和支持该方法的电子设备
CN109491541A (zh) 一种控制方法及移动终端
KR102424986B1 (ko) 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
CN109068043A (zh) 一种移动终端的图像成像方法及装置
CN104932675A (zh) 显示装置、图像显示***以及信息处理方法
JP2017117159A (ja) 端末装置及び双方向通信システム
JP2015176186A (ja) 情報処理装置、情報処理方法、及び情報処理システム
CN109189953A (zh) 一种多媒体文件的选择方法及装置
CN109302569A (zh) 一种移动终端的图像成像方法及装置
CN108702833A (zh) 包括发光装置的电子装置及其操作方法
KR20160127606A (ko) 이동 단말기 및 그 제어 방법
US9998671B2 (en) Electronic apparatus, method of controlling the same, and computer-readable recording medium
CN208013970U (zh) 一种生物特征识别***
JP2017508223A (ja) ページ表示方法および装置、ならびに電子デバイス
CN109688325A (zh) 一种图像显示方法及终端设备
KR20150110053A (ko) 웨어러블 디바이스를 이용한 정보 공유 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant