CN108293146B - 图像显示设备及其操作方法 - Google Patents

图像显示设备及其操作方法 Download PDF

Info

Publication number
CN108293146B
CN108293146B CN201680067907.7A CN201680067907A CN108293146B CN 108293146 B CN108293146 B CN 108293146B CN 201680067907 A CN201680067907 A CN 201680067907A CN 108293146 B CN108293146 B CN 108293146B
Authority
CN
China
Prior art keywords
image
display
window
user input
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680067907.7A
Other languages
English (en)
Other versions
CN108293146A (zh
Inventor
戈瑞高兹·奥莱伊尼恰克
托马兹·罗伯特·格达拉
金度亨
成周娟
尹愥畯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108293146A publication Critical patent/CN108293146A/zh
Application granted granted Critical
Publication of CN108293146B publication Critical patent/CN108293146B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/43Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of news video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种包括配置成显示第一图像的显示器的图像显示设备。该图像显示设备包括控制器和传感器,其中,控制器配置成通过放大第一图像的、在显示器的第一区域中显示的一部分来生成第二图像,并且控制显示器在第一区域中显示第二图像的一部分,传感器配置成感测用于移动第二图像的用户输入。控制器配置成响应于用户输入控制显示器在第一区域内移动和显示第二图像。

Description

图像显示设备及其操作方法
技术领域
本公开涉及图像显示设备及其操作方法。更具体地,本公开涉及能够高效地放大显示器上显示的图像的一部分的图像显示设备及该图像显示设备的操作方法。
背景技术
图像显示设备是例如具有显示用户可见的图像的功能的设备。用户可以通过图像显示设备观看广播。图像显示设备显示由用户从广播站发送的广播信号中选择的广播。当前全球的趋势是从模拟广播转换到数字广播。
数字广播表示发送数字视频和音频信号的广播。与模拟广播相比,数字广播对外部噪声具有鲁棒性,因此具有较低的数据损耗。此外,数字广播在错误校正方面更有利、具有更高的分辨率并提供更清晰的图像。此外,与模拟广播不同,数字广播允许交互服务。
最近,提供了具有除了数字广播功能之外的各种类型的内容的智能电视(TV)。智能电视的目的不在于根据用户的选择被动地操作,而是旨在没有用户操控的情况下找到并提供用户想要的内容。
以上信息仅作为背景技术信息呈现以帮助理解本公开。并未作出对于以上任何内容是否可以用作关于本公开的现有技术的判断和声明。
发明内容
技术方案
因此,本公开的一方面是提供放大显示器的区域中显示的图像以及不同地显示放大的图像的图像显示设备和方法。
附图说明
通过结合附图的以下描述,本公开的特定实施方式的以上及其它方面、特征和优点将变得更显而易见,在附图中:
图1是示出根据本公开的实施方式的图像显示设备和控制设备的图;
图2是示出根据本公开的实施方式的图像显示设备的配置的框图;
图3是示出根据本公开的实施方式的图像显示设备的配置的框图;
图4是示出根据本公开的实施方式的存储在图3的存储器中的软件的配置的图;
图5是示出根据本公开的实施方式的控制设备的配置的框图;
图6a至图6d是示出根据本公开的实施方式的显示通过放大第一图像的、在显示器的第一区域中显示的一部分而获得的第二图像的示例的图;
图7a至图7c是示出根据本公开的实施方式的显示通过放大显示器上显示的整个图像而获得的图像的示例的图;
图8a和图8b是示出根据本公开的实施方式的显示通过放大第一图像的、在显示器的第一区域中显示的一部分而获得的第二图像的示例的图;
图9a至图9e是示出根据本公开的实施方式的显示通过放大第一图像的、在第一区域中显示的一部分而获得的第二图像的示例的图;
图10是示出根据本公开的实施方式的第一区域与缩放框之间的位置关系的曲线图;
图11是示出根据本公开的实施方式的根据图10的曲线图的第一区域与缩放框之间的位置关系的图;
图12a和图12b示出了根据本公开的实施方式的缩放框以指向模式固定的示例的图;
图13a和图13b是示出根据本公开的实施方式的图像显示设备根据内容的属性来放大显示器上所显示的内容的方法的图;
图14a至图14h是示出当显示器包括具有不同属性的区域时根据本公开的实施方式的所选择的区域与缩放框之间的位置关系的图;
图15a至图15e是示出根据本公开的实施方式的图像显示设备放大特定对象并且显示放大的对象的示例的图;
图16是示出根据本公开的实施方式的图像显示设备的操作方法的流程图;以及
图17是示出根据本公开的实施方式的图像显示设备的操作方法的流程图。
在附图中,相同的附图标记将被理解为指代相同的部分、组件和结构。
实现本发明的最佳实施方式
本公开的方面将至少解决以上提到的问题和/或缺点,并且将至少提供以下描述的优点。因此,本公开的方面将提供放大显示器的区域中所显示的图像以及不同地显示放大的图像的图像显示设备和方法。
根据本公开的一方面,提供了一种图像显示设备。图像显示设备包括显示器、控制器和传感器,其中,显示器配置成显示第一图像,控制器配置成通过放大第一图像的、在显示器的第一区域中显示的一部分来生成第二图像并控制显示器在第一区域中显示第二图像的一部分,传感器配置成感测用于移动第二图像的用户输入。控制器配置成响应于用户输入控制显示器在第一区域内移动和显示第二图像。
根据实施方式的传感器可以配置成感测箭头按键输入,并且控制器可以配置成执行控制使得在与感测到的箭头按键输入对应的方向上移动和显示第二图像。
根据实施方式的显示器可以显示表示第二图像的可移动方向的图标。
根据实施方式的传感器可以配置成感测用于放大或缩小第二图像的输入,并且控制器可以配置成响应于感测到的放大输入来放大第二图像或响应于感测到的缩小输入来缩小第二图像。
根据实施方式的控制器可以配置成检测第一图像中的兴趣对象,并且将显示有检测到的兴趣对象的区域设置成第一区域。
根据实施方式的控制器可以配置成检测第一图像中的文本,并且将显示有该文本的区域设置成第一区域。
根据本公开的另一方面,提供了一种图像显示设备。图像显示设备包括显示器、传感器和控制器,其中,显示器配置成显示包括至少一个对象的第一图像,传感器配置成感测用于从至少一个对象中选择兴趣对象的用户输入,控制器配置成检测第一图像中的兴趣对象、通过放大检测到的兴趣对象来生成第二图像以及控制显示器来显示第二图像。
根据实施方式的控制器可以配置成检测第一图像中所包括的至少一个对象并执行控制使得在显示器上显示包括检测到的至少一个对象的候选列表,并且用户输入可以是用于从候选列表中所包括的至少一个对象中选择兴趣对象的输入。
根据实施方式的控制器可以配置成根据显示器上所显示的兴趣对象的尺寸来调整兴趣对象的放大倍数,并且根据调整的放大倍数来放大兴趣对象。
根据实施方式的控制器可以配置成当显示器上所显示的兴趣对象的尺寸等于或大于阈值时,控制显示器显示兴趣对象而不放大该兴趣对象。
根据实施方式的控制器可以配置成控制显示器将第二图像与显示有兴趣对象的区域重叠显示。
根据本公开的另一方面,提供了一种图像显示设备的操作方法。操作方法包括在显示器上显示第一图像、通过放大显示器的第一区域中所显示的第一图像的一部分来生成第二图像、在第一区域中显示第二图像的一部分、感测用于移动第二图像的用户输入以及响应于用户输入在第一区域中移动和显示第二图像。
根据实施方式的感测用户输入可以包括感测箭头按键输入,并且移动和显示第二图像可以包括在与感测到的箭头按键输入对应的方向上移动第二图像,并且显示被移动的第二图像。
根据实施方式的操作方法还可以包括显示表示第二图像的可移动方向的图标。
根据实施方式的操作方法还可以包括感测用于放大或缩小第二图像的输入以及响应于感测到的放大输入来放大第二图像或响应于感测到的缩小输入来缩小第二图像。
根据实施方式的操作方法还可以包括检测第一图像中的兴趣对象,并且将显示有检测到的兴趣对象的区域设置成第一区域。
根据实施方式的检测第一图像中的兴趣对象并且将显示有检测到的兴趣对象的区域设置成第一区域可以包括:检测第一图像中的文本,并且将显示有文本的区域设置成第一区域。
根据本公开的另一方面,提供了一种图像显示设备的操作方法。操作方法包括显示包括至少一个对象的第一图像、感测用于从至少一个对象中选择兴趣对象的用户输入、检测第一图像中的兴趣对象、通过放大检测到的兴趣对象来生成第二图像以及显示第二图像。
根据实施方式的操作方法还可以包括检测第一图像中所包括的至少一个对象并显示包括检测到的至少一个对象的候选列表,并且用户输入可以是用于从候选列表中所包括的至少一个对象中选择兴趣对象的输入。
根据实施方式的操作方法还可以包括根据显示器上显示的兴趣对象的尺寸来调整兴趣对象的放大倍数。
根据实施方式的操作方法还可以包括当第一图像中所包括的兴趣对象的尺寸等于或大于阈值时显示兴趣对象而不放大兴趣对象。
根据实施方式的显示第二图像可以包括将第二图像与显示有兴趣对象的区域重叠显示。
结合附图的以下详细描述公开了本公开的各种实施方式,根据以下详细描述,本公开的其它方面、优点和显著特征对于本领域技术人员来说将变得显而易见。
具体实施方式
提供了参考附图的以下描述以帮助全面理解由权利要求及其等同所限定的本公开的各种实施方式。以下描述包括各种具体细节以帮助理解,但是这些描述仅被视为示例性的。因此,本领域的普通技术人员将认识到,在不背离本公开的范围和精神的情况下,可以对本文中描述的各种实施方式作出多种改变和修改。此外,为了清楚和简要的目的,可以省略众所周知的功能和结构的描述。
以下说明书和所附权利要求中使用的术语和词语不限于书面含义,而是仅由发明人使用以使得能够清楚且一致地理解本公开。因此,对于本领域技术人员将显而易见的是,提供本公开的各种实施方式的以下描述仅出于说明的目的而不是为了限制由所附权利要求及其等同限定的本公开的目的。
将理解的是,除非上下文另有明确规定,否则单数形式“一(a)”、“一(an)”和“该(the)”包括复数指示物。因此,例如,对“一组件表面”的引述包括对一个或多个这种表面的引述。
在说明书中,除非另有描述,否则当一部分“包括”元件时,其中还可以包括另一元件,而不是排除其它元件的存在。此外,本文中使用的诸如“部分”、“模块”等术语表示用于处理至少一个功能或操作的单元,其中,单元和块可以体现为硬件或软件,或者可以体现为硬件和软件的组合。
现在将详细参考各种实施方式,附图中示出了各种实施方式的示例,其中,在全文中,相同的附图标记指代相同的元件。就此而言,呈现的各种实施方式可以具有不同的形式,而不应被解释成限于本文中所阐述的描述。因此,下文仅通过参考附图描述各种实施方式以描述各个方面。如本文中所使用的,术语“和/或”包括一个或多个相关列出项目的任何和所有组合。在一系列元件之后的诸如“...中的至少一个”的表达修饰元件的整个列表而不是修饰列表中的单个元件。
图1是示出根据本公开的实施方式的图像显示设备和控制设备的图。
参考图1,图像显示设备100可以是电视机(TV)。然而,TV仅仅是一个实施方式,并且图像显示设备100可以实现为包括显示器的电子设备。例如,图像显示设备100可以实现为各种各样的电子设备,诸如,蜂窝电话、平板个人计算机(PC)、数码相机、摄像机、膝上型计算机、台式机、电子书(e-book)终端、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航设备、运动图像专家组阶段1或阶段2(MPEG-1或MPEG-2)音频层3(MP3)播放器、可穿戴设备等。具体地,实施方式可以容易地在具有大显示器的显示设备(诸如,TV)中实现,但不限于此。此外,图像显示设备100可以是固定类型或可移动类型,并且可以是能够接收数字广播的数字广播接收器。
图像显示设备100不仅可以实现为平面显示设备,而且还可以实现为曲面显示设备或柔性显示设备,其中,曲面显示设备是具有曲率的屏幕,柔性显示设备具有可调节的曲率。图像显示设备100的输出分辨率可以包括例如高清(HD)分辨率、全高清分辨率、超高清分辨率或比超高清分辨率更高的分辨率。
控制设备200可以以用于控制图像显示设备100的多种形式实现,诸如,遥控器或蜂窝电话。
此外,控制设备200可以使用包括红外(IR)和蓝牙的短程通信来控制图像显示设备100。控制设备200可以使用提供的按键(包括按钮)、触摸板、能够接收用户语音的麦克风(未示出)以及能够识别控制设备200的动作的传感器(未示出)中的至少一个来控制图像显示设备100的功能。
控制设备200包括用于打开或关闭图像显示设备100的电源的电源开/关按钮。根据用户输入,控制设备200可以改变图像显示设备100的频道、调整音量、选择地面广播/有线广播/卫星广播,或者进行设置。
控制设备200可以包括四个箭头按键(或四个箭头按钮)。四个箭头按键可以用于指导上移动、下移动、左移动和右移动。例如,当接收到四个箭头按键中的任何一个的输入时,图像显示设备100可以在相应的方向上移动光标。
控制设备200可以包括至少一个滚动键。滚动键可以用于指导竖直移动或水平移动。例如,当接收到在任何一个方向上滚动滚动键的输入时,图像显示设备100可以在相应的方向上移动光标。
此外,控制设备200可以为指向设备。例如,当接收到特定按键输入时,控制设备200可以作为指向设备进行操作。图像显示设备100可以通过向上、向下、向左或向右移动控制设备200或在任意方向上使控制设备200倾斜的用户输入进行控制。由控制设备200的传感器感测的有关控制设备200的动作的信息可以发送到图像显示设备100。图像显示设备100可以根据有关控制设备200的动作的信息来计算显示器上光标的坐标,并且将光标移动到与所计算的坐标对应的位置。因此,可以移动图像显示设备100的显示器上的光标,或可以激活各种显示的菜单。
替代地,当控制设备200包括触摸板时,可以根据触摸板上移动的对象(诸如,用户的手指)的位移值来移动图像显示设备100的显示器上的光标或选择性地激活各种显示的菜单。
在本说明书的各种实施方式中,术语“用户”表示使用控制设备200来控制图像显示设备100的功能或操作的人,并且可以包括观众、管理员和安装工程师。
同时,根据实施方式的图像显示设备100可以通过放大在显示器上显示的第一图像的第一区域10中显示的第一图像的一部分来生成第二图像。此外,图像显示设备100可以在第二区域20中显示第二图像。在这里,第二区域20可以大于第一区域10,并且可以与第一区域10重叠。替代地,第一区域10和第二区域20可以是相同的区域。替代地,第二区域20可以是固定的区域,而与第一区域10的位置无关。
同时,根据实施方式的第一区域10和第二区域20可以根据用户输入来移动。例如,图像显示设备100可以根据用户输入通过移动第一区域10来设定要放大的图像的一部分。此外,图像显示设备100可以根据用户输入通过移动第二区域20来设定显示放大的图像的区域的位置。
图2是示出根据本公开的实施方式的图像显示设备的配置的框图。图2的图像显示设备100a可以是图1的图像显示设备100的实施方式。
参考图2,图像显示设备100a可以包括控制器110、显示器120和传感器130。
显示器120通过转换由控制器110处理的视频信号、数据信号、屏幕显示(OSD)信号、控制信号等来生成驱动信号。显示器120可以实现为等离子显示面板(PDP)显示器、液晶显示器(LCD)、有机发光二极管(OLED)显示器、柔性显示器等,并且还可以实现为三维(3D)显示器。此外,显示器120可以配置为触摸屏并且用作输入设备以及输出设备。
根据实施方式的显示器120可以显示第一图像。此外,显示器120可以显示用于设定待放大的第一图像的一部分的第一区域。此外,显示器120可以显示通过放大第一图像的、在第一区域中显示的一部分获得的第二图像。
根据实施方式的传感器130可以感测用户输入并且将感测信号发送到控制器110。此外,传感器130可以感测用于打开/关闭电源、选择频道、向上/向下换频道、设置屏幕等用户输入。此外,根据实施方式的传感器130可以感测用于移动待放大的区域(第一区域)或显示显示器120上显示的图像中的放大图像的区域(第二区域)的用户输入、用于移动光标的用户输入、用于移动放大的图像(第二图像)的输入、用于放大第二图像的输入、用于缩小第二图像的输入、用于在第一图像中所包括的至少一个对象中选择兴趣对象的用户输入等。
根据实施方式的控制器110可以处理视频信号并将处理的视频信号输入到显示器120。因此,可以在显示器120上显示与视频信号对应的图像。此外,控制器110可以通过由传感器130感测的用户指令或内部程序来控制图像显示设备100a。
例如,根据实施方式,控制器110可以通过放大第一图像的、在显示器120的第一区域中显示的一部分来生成第二图像并在第一区域中显示第二图像的一部分。
此外,控制器110可以执行控制使得根据感测的用户输入来在第一区域中移动和显示第二图像。此外,控制器110可以执行控制使得在与感测到的箭头按键的输入对应的方向上移动第二图像并显示第二图像。此外,控制器110可以根据感测的放大输入来放大第二图像或根据感测的缩小输入来缩小第二图像。
控制器110可以检测第一图像中的兴趣对象,并且通过放大检测的兴趣对象来生成第二图像。
控制器110可以检测第一图像中所包括的至少一个对象,并且控制显示器120在其上显示包括检测到的至少一个对象的候选列表。
控制器110可以根据所显示的兴趣对象的尺寸来调整兴趣对象的放大倍数,并且根据调整的放大倍数来放大兴趣对象。
当显示器120上显示的兴趣对象的尺寸等于或大于阈值时,控制器110可以控制显示器120在不放大兴趣对象的情况下显示兴趣对象。
控制器110可以控制显示器120来将通过放大兴趣对象获得的第二图像显示成与显示兴趣对象的区域重叠。
图3是示出根据本公开的实施方式的图像显示设备的配置的框图。图3的图像显示设备100b可以是图1的图像显示设备100的实施方式。
参考图3,除了控制器110、显示器120和传感器130之外,根据实施方式的图像显示设备100b还可以包括视频处理器180、音频处理器115、音频输出器125、电源160、调谐器140、通信器150、输入器/输出器170和存储器190。
至于图3的控制器110、显示器120和传感器130,将省略与参考图2作出的相同的描述。
视频处理器180处理通过图像显示设备100b接收的视频数据。视频处理器180可以对视频数据执行多种类型的图像处理,诸如,解码、缩放、噪声过滤、帧率转换、分辨率转换等。
显示器120在屏幕上显示通过调谐器140接收的广播信号中所包括的视频。此外,显示器120可以显示通过通信器150或输入器/输出器170输入的内容(例如,动态图像)。显示器120可以输出存储在存储器190中的图像。此外,显示器120可以显示用于执行与语音识别对应的语音识别任务的语音用户界面(UI)(例如,包括语音命令指南)或用于执行与动作识别对应的动作识别任务的动作UI(例如,包括用于动作识别的用户动作指南)。
音频处理器115处理音频数据。音频处理器115可以对音频数据执行多种类型的处理,诸如,解码、放大、噪声过滤等。同时,音频处理器115可以具有用于处理与多条内容对应的音频的多个音频处理模块。
音频输出器125输出通过调谐器140接收的广播信号中所包括的音频。音频输出器125可以输出通过通信器150或输入器/输出器170输入的音频(例如,语音和声音)。此外,音频输出器125可以输出存储在存储器190中的音频。音频输出器125可以包括扬声器126、头戴式耳机输出终端127和索尼/飞利浦数字接口(S/PDIF)输出终端128中的至少一个。音频输出器125可以包括扬声器126、头戴式耳机输出终端127和S/PDIF输出终端128的组合。
电源160向图像显示设备100b中的组件供应从外部电源输入的电力。此外,电源160可以将从位于图像显示设备100b中的一个或多个电池(未示出)输出的电力提供到内部组件。
通过对有线或无线方式接收的广播信号进行放大、混合、谐振等,调谐器140可以从许多无线电波分量中选择仅由图像显示设备100b意图接收的频道的频率并且可以被调谐到所选择的频率。广播信号包括音频、视频和附加信息(例如,电子节目指南(EPG))。
调谐器140可以根据用户输入(例如,从控制设备200接收的控制信号,诸如,频道号码的输入、向上换频道/向下换频道的输入和EPG屏幕上的频道输入)接收与频道号吗(例如,有线广播号码“506”)对应的频带中的广播信号。
调谐器140可以从各种源(诸如,地面广播、有线广播、卫星广播、互联网广播等)接收广播信号。调谐器140还可以从源(诸如,模拟广播、数字广播等)接收广播信号。通过调谐器140接收的广播信号被解码(例如,音频解码,视频解码,或附加信息解码)并且分离成音频、视频和/或附加信息。分离的音频、视频和/或附加信息可以存储在存储器190中。
图像显示设备100b可以包括一个或多个调谐器140。调谐器140可以实现为与图像显示设备100b合为一体(即,一体化)、实现为具有电连接到图像显示设备100b的调谐器的独立设备(例如,机顶盒;未示出)、或实现为连接到输入器/输出器170的调谐器(未示出)。
通信器150可以将图像显示设备100b连接到外部设备(例如,音频设备等)。控制器110可以向通过通信器150连接的外部设备发送内容或者从通过通信器150连接的外部设备接收内容、从外部设备下载应用或执行网页浏览。通信器150可以包括与图像显示设备100b的性能和结构对应的无线局域网(WLAN)模块151、蓝牙模块152和有线以太网模块153中的一个。替代地,通信器150可以包括WLAN模块151、蓝牙模块152和有线以太网模块153的组合。通信器150可以接收控制设备200的控制信号。控制信号可以实现为蓝牙类型、射频(RF)信号类型或Wi-Fi类型。
除了蓝牙之外,通信器150还可以包括用于其它短程通信方案(例如,近场通信(NFC;未示出)和低功耗蓝牙(BLE;未示出))的模块。
传感器130感测语音、图像或用户的交互。
麦克风131接收由用户发出的语音。麦克风131可以将接收的语音转换成电信号并将该电信号输出到控制器110。用户的声音可以包括例如与图像显示设备100b的菜单或功能对应的语音。考虑到麦克风131的识别范围,建议使麦克风131与用户之间的距离为约4m或更近,并且麦克风131的识别范围可以根据用户语音的大小和周边环境(例如,扬声器声音和环境噪声)而变化。
根据实施方式,麦克风131可以接收由用户发出的语音并将接收的语音数据输出到控制器110,使得控制器110可以使用语音数据来确定观看图像显示设备100b的用户的身份。
麦克风131可以与图像显示设备100b一起实现为一体,或与图像显示设备100b分开地实现。分开实现的麦克风131可以通过通信器150或输入器/输出器170电连接到图像显示设备100b。
本领域的普通技术人员将容易理解的是,可以根据图像显示设备100b的性能和结构来移除麦克风131。
相机132在相机的识别范围内接收与用户的动作(包括姿势)对应的视频(例如,连续的帧)。例如,相机132的识别范围可以是从相机132到用户的约0.1m至约5m的距离。用户动作可以包括用户的身体的一部分(例如,用户的面部、面部表情、手、拳头或手指)的动作等。在控制器110的控制下,相机132可以将接收的视频转换成电信号并将电信号输出到控制器110。
根据实施方式,相机132可以拍摄使用图像显示设备100b的用户的面部等,并将拍摄的面部图像输出到控制器110,使得控制器110可以使用面部图像来确定用户的身份。
使用接收的动作识别结果,控制器110可以选择图像显示设备100b中显示的菜单或执行与动作识别结果对应的控制。例如,与动作识别结果对应的控制可以包括频道调整、音量调整、指示符移动和光标移动。
相机132可以包括镜头(未示出)和图像传感器(未示出)。使用多个镜头和图像处理,相机132可以支持光学变焦或数字变焦。可以根据相机的角度和周围环境的条件不同地设定相机132的识别范围。当相机132包括多个相机时,可以使用多个相机接收3D静止图像或3D动作。
相机132可以与图像显示设备100b一起实现为一体,或与图像显示设备100b分开实现。包括分开的相机132的附加设备(未示出)可以通过通信器150或输入器/输出器170电连接到图像显示设备100b。
本领域的普通技术人员将容易理解的是,可以根据图像显示设备100b的性能和结构来移除相机132。
光接收器133通过显示器120的边框中的光接收窗(未示出)等从外部控制设备200接收光学信号(包括控制信号)。光接收器133可以从控制设备200接收与用户输入(例如,触摸、按压、触摸姿势、语音或动作)对应的光学信号。可以从接收的光学信号中提取控制信号。
输入器/输出器170从图像显示设备100b的外部接收视频(例如,动态图像等)、音频(例如,语音,音乐等)、附加信息(例如,EPG等)。输入器/输出器170可以包括高清晰度多媒体接口(HDMI)端口171、分量插孔172、PC端口173和通用串行总线(USB)端口174中的一个。输入器/输出器170可以包括HDMI端口171、分量插孔172、PC端口173和USB端口174的组合。
本领域的普通技术人员将容易理解的是,输入器/输出器170的配置和操作可以根据本公开的实施方式而不同地实施。
控制器110用于控制图像显示设备100b的整体操作和图像显示设备100b的内部组件之间的信号流,并且用于处理数据。当存在用户的输入或满足已经预先设定和存储的条件时,控制器110可以执行存储在存储器190中的操作***(OS)和各种应用。
控制器110可以包括随机存取存储器(RAM)181、只读存储器(ROM)182和处理器183,其中,随机存取存储器(RAM)181存储从图像显示设备100b的外部输入的信号或数据,或用作与图像显示设备100b中执行的多种任务对应的存储区,只读存储器(ROM)182存储用于控制图像显示设备100b的控制程序。
处理器183可以包括用于执行与视频对应的图形处理的图形处理单元(GPU;未示出)。处理器183可以实现为集成有内核(未示出)和GPU(未示出)的片上***(SoC)。处理器183可以包括单内核、双内核、三内核、四内核或它们的倍数的内核。
处理器183可以包括多个处理器。例如,处理器183可以实现为主处理器(未示出)和在睡眠模式中操作的子处理器(未示出)。
图形处理器184使用计算器(未示出)和渲染部(未示出)来生成包括多种对象(诸如,图标,图像,文本等)的屏幕。计算器使用通过传感器130感测的用户输入根据屏幕的布局来计算用于显示每个对象的属性值,诸如,坐标值、形状、尺寸、颜色等。渲染部基于由计算器计算的属性值生成包括对象的各种布局的屏幕。通过渲染部生成的屏幕在显示器120的显示区域中显示。
第一接口185-1至第n接口185-n连接到以上描述的各种组件。接口185-1至185-n中的一个可以是通过网络连接到外部设备的网络接口。
RAM 181、ROM 182、处理器183、图形处理器184以及第一接口185-1至第n接口185-n可以通过内部总线186彼此连接。
在本实施方式中,术语“图像显示设备的控制器”包括处理器183、ROM 182和RAM181。
存储器190可以存储用于操作和控制图像显示设备100b的各种类型的数据、程序或应用。存储器190可以存储与视频处理器180、显示器120、音频处理器115、音频输出器125、传感器130、调谐器140、通信器150、电源160和输入器/输出器170的操作对应的输入/输出信号或输入/输出数据。存储器190可以存储用于控制图像显示设备100b和控制器110的控制程序、由制造商最初提供的或外部下载的应用、与应用有关的图形用户界面(GUI)、用于提供GUI的对象(例如,图像、文本、图标、按钮等)、用户信息、文档、数据库(DB)或相关的数据。
在实施方式中,术语“存储器”包括存储器190、控制器110的ROM182和RAM 181或安装在图像显示设备100b中的存储卡(例如,微型安全数字(micro-SD)卡或USB存储器(未示出))。此外,存储器190可以包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)或固态驱动器(SSD)。
虽然未在附图中示出,但是存储器190可以包括广播接收模块、频道控制模块、音量控制模块、通信控制模块、语音识别模块、动作识别模块、光接收模块、显示控制模块、音频控制模块、外部输入控制模块、电源控制模块、以无线方式(例如,蓝牙)连接的外部设备的电源控制模块、语音DB或动作DB。存储器190的未在附图中示出的模块和DB可以以用于图像显示设备100b的软件的形式实现以执行广播接收控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、动作识别功能、光接收控制功能、显示控制功能、音频控制功能、外部输入控制功能、电源控制功能或以无线方式(例如,蓝牙)连接的外部设备的电源控制功能。控制器110可以使用存储在存储器190中的软件来执行每个功能。
具有显示器120的图像显示设备100b可以电连接到具有调谐器的附加外部设备(例如,机顶盒;未示出)。例如,图像显示设备100b可以实现为模拟TV、数字TV、3D TV、智能TV、LED TV、OLED TV、等离子TV、显示屏等,但是本领域的普通技术人员将容易理解的是,图像显示设备100b不限于此。
图像显示设备100b可以包括用于感测图像显示设备100b的内部状态或外部状态的传感器(例如,亮度传感器、温度传感器等;未示出)。
同时,图2和图3中示出的图像显示设备100a和100b的框图是实施方式的框图。框图的各个组件可以根据实际中实施的图像显示设备100a和100b的规格进行集成、添加或省略。换言之,根据需要,两个或更多个组件可以组合成一个组件,或者一个组件可以分成两个或更多个组件。此外,由每个框执行的功能旨在用于描述实施方式,并且框的具体操作或设备不限制本公开的范围。
图4是示出根据本公开的实施方式的存储在图3的存储器190中的软件的配置的图。
参考图4,存储器190可以存储包括基础模块191、感测模块192、通信模块193、展示模块194、网页浏览器模块195和服务模块196的软件。
基础模块191表示用于处理从图像显示设备100中所包括的每个硬件发送的信号并将处理的信号发送到上层模块的基层模块。基础模块191包括存储模块191-1、安全模块191-2、网络模块191-3等。存储模块191-1是管理DB或注册表的程序模块。处理器183可以使用存储模块191-1来访问存储器中的DB并读取各种类型的数据。安全模块191-2是支持硬件的认证、许可、安全存储等的程序模块。网络模块191-3是用于支持网络连接的模块,其包括DNET模块、通用即插即用(UPnP)模块等。
感测模块192是聚合来自多种类型的传感器的信息并分析和管理聚合信息的模块。感测模块192可以包括旋转识别模块、触摸识别模块、姿势识别模块、头部方向识别模块、面部识别模块、语音识别模块、动作识别模块、NFC识别模块等。
通信模块193是执行与外部的通信的模块。通信模块193可以包括消息模块193-1和电话模块193-2,其中,消息模块193-1包括信使程序、短消息服务(SMS)和多媒体消息服务(MMS)程序、电子邮件程序等,电话模块193-2包括呼叫信息聚合器程序模块、互联网协议语音(VoIP)模块等。
展示模块194是用于配置显示屏幕的模块。展示模块194包括用于播放和输出多媒体内容的多媒体模块194-1和用于执行UI和图形处理的UI渲染模块194-2。多媒体模块194-1可以包括播放器模块、摄像机模块、声音处理模块等。因此,多媒体模块194-1执行再现多种类型的多媒体内容的操作以生成和再现图片和声音。UI渲染模块194-2可以包括合成图像的图像合成器模块、通过组合用于显示图像的屏幕上的坐标来生成图像的坐标组合模块、从硬件接收各种事件的X11模块、提供用于配置二维(2D)或3D UI的工具的2D/3D UI工具包等。
网页浏览器模块195表示执行网页浏览以访问网页服务器的模块。网页浏览器模块195可以包括各种模块,诸如,配置网页的网页视图模块、执行下载的下载代理模块、书签模块、Webkit模块等。
服务模块196是包括用于提供各种服务的多种应用的模块。具体地,服务模块196可以包括多种程序模块,诸如,社交网络服务(SNS)程序、内容回放程序、游戏程序、电子书(e-book)程序、日历程序、警报管理程序、其它小工具等。
图4示出了多种程序模块,但是可以根据图像显示设备100的类型和特性省略、修改或添加附图中示出的多种程序模块中的一些。例如,服务模块196可以通过进一步包括基于位置的模块来实现,该基于位置的模块通过与诸如全球定位***(GPS)芯片的硬件一起操作来支持基于位置的服务。
图5是示出根据本公开的实施方式的控制设备的配置的框图。
参考图5,控制设备200可以包括无线通信器220、用户输入部分230、传感器240、输出部分250、电源260、存储器270和控制器280。
无线通信器220可以向以上描述的根据多种实施方式的图像显示设备中的任何一个发送信号或从该图像显示设备中的任何一个接收信号。无线通信器220可以具有根据RF通信标准向图像显示设备100发送信号或从图像显示设备100接收信号的RF模块221。此外,控制设备200可以具有根据IR通信标准向图像显示设备100发送信号或从图像显示设备100接收信号的IR模块223。
在本实施方式中,控制设备200通过RF模块221向图像显示设备100发送包括有关控制设备200的动作等信息的信号。
控制设备200可以通过RF模块221接收由图像显示设备100发送的信号。此外,根据需要,控制设备200可以通过IR模块223向图像显示设备100发送用于打开/关闭电源、改变频道、改变音量等命令。
用户输入部分230可以配置有小键盘、按钮、触摸板、触摸屏等。用户可以通过操纵用户输入部分230将与图像显示设备100有关的命令输入到控制设备200。当用户输入部分230具有硬键按钮时,用户可以通过按压硬键按钮的动作将与图像显示设备100有关的命令输入到控制设备200。当用户输入部分230具有触摸屏时,用户可以通过触摸触摸屏的软按键将与图像显示设备100有关的命令输入到控制设备200。
例如,用户输入部分230可以包括四个箭头按钮或四个箭头按键。四个箭头按钮或按键可以用于控制显示器120上显示的窗口、区域、应用或项目。四个箭头按键或按钮可以用于指导上移动、下移动、左移动和右移动。本领域的普通技术人员可以理解的是,用户输入部分230可以包括两个箭头按钮或两个箭头按键,而不是四个箭头按钮或四个箭头按键。
用户输入部分230可以具有可以由用户操纵的多种类型的输入部分,诸如,滚动键、柄式控制键(jog key)等。
用户输入部分230可以包括触摸板。根据实施方式的用户输入部分230可以通过控制设备200的触摸板接收拖动、触摸或翻转的用户输入。此外,可以根据所接收的用户输入的类型(例如,输入拖动命令的方向或输入触摸命令的时间期间)来控制图像显示设备100。
传感器240可以具有陀螺仪传感器241或加速度传感器243。陀螺仪传感器241可以感测有关控制设备200的动作的信息。例如,陀螺仪传感器241可以感测有关控制设备200相对于x轴、y轴和z轴的动作的信息。加速度传感器243可以感测有关控制设备200的移动速度等的信息。同时,传感器240还可以包括距离测量传感器,使用距离测量传感器可以感测距图像显示设备100的距离。
输出部分250可以输出与用户输入部分230的操纵或由图像显示设备100接收的信号对应的视频信号或音频信号。用户可以通过输出部分250知道是否已经操纵用户输入部分230或是否已经控制图像显示设备100。
例如,输出部分250可以包括LED模块251、振动模块253、声音输出模块255和显示模块257,其中,LED模块251在操纵用户输入部分230时或在通过无线通信器220向图像显示设备100发送信号或从图像显示设备100接收信号时发光,振动模块253引起振动,声音输出模块255输出声音,显示模块257输出图像。
电源260向控制设备200提供电力。当控制设备200在某个时间期间未移动时,电源260可以停止供电,从而减少电力的浪费。当操纵控制设备200中设置的某个按键时,电源260可以恢复供电。
存储器270可以存储用于控制或操作控制设备200的多种类型的程序、应用数据等。
控制器280执行整体控制以控制控制设备200。控制器280可以通过无线通信器220将与用户输入部分230上的特定按键的操作对应的信号或由传感器240感测的与控制设备200的动作对应的信号发送到图像显示设备100。
图像显示设备100可以包括可以计算与控制设备200的动作对应的光标的坐标值的坐标值计算器(未示出)。
坐标值计算器(未示出)可以校正手部抖动或与感测到的控制设备200的动作对应的信号中的误差,以计算将在显示器120上显示的光标的坐标值(x,y)。
通过传感器130感测的控制设备200的发送信号发送到图像显示设备100的控制器110。控制器110可以从控制设备200发送的信号中识别有关操作控制设备200和操纵控制设备200上的按键的信息,从而控制图像显示设备100。
在另一示例中,控制设备200可以计算与操作对应的光标的坐标值并将坐标值发送到图像显示设备100。在此情况下,图像显示设备100可以将有关接收到的坐标值的信息发送到控制器110而无需手部抖动校正处理或错误校正处理。
图6a至图6d是示出根据本公开的实施方式的显示通过放大第一图像的、在显示器的第一区域中显示的一部分而获得的第二图像的示例的图。
参考图6a,显示器120可以显示第一图像610。此外,显示器120的第一区域620可以是设置为缩放区域的区域。第一区域620可以通过用户输入进行设置。替代地,控制器110可以检测第一图像610中的兴趣对象并且将显示有检测到的兴趣对象的区域设置为第一区域620。例如,控制器110可以检测第一图像610中的文本并且将显示有文本的区域设置为第一区域620。
根据实施方式的图像显示设备100可以感测用于放大的输入。例如,图像显示设备100可以感测按压控制设备200中所包括的特定按键的输入作为用于放大的输入。此外,图像显示设备100可以感测触摸控制设备200中所包括的触摸板的输入或触摸板上的拖动输入作为用于放大的输入。此外,图像显示设备100可以感测在一个方向上滚动控制设备200中所包括的滚动键的输入作为用于放大的输入。然而,用于放大的输入不限于此。
同时,参考图6b,当感测到用于放大的输入时,图像显示设备100可以通过放大第一图像610的一部分来生成第二图像并在第一区域620中显示第二图像的一部分。在这里,由于通过放大第一图像610的一部分来获得图像,因此第二图像比第一图像610的一部分大,并且可以在第一区域620中示出第二图像的仅仅一部分。
此外,显示器120可以显示表示第二图像在第一区域620中的可移动方向的图标。在这里,图标可以表示在相应的方向上存在第二图像的未示出的部分。例如,如图6b中所示,可以显示表示第二图像能够向上移动、向下移动、向左移动和向右移动的三角形图标630。然而,图标630不限于此,并且可以具有多种形状和尺寸。此外,图标630的形状和尺寸可以基于用户输入进行不同地设定。
图像显示设备100可以感测用于移动第二图像的用户输入,并且在第一区域620中移动和显示第二图像。
例如,当接收到控制设备200中所包括的四个箭头按键中的任何一个箭头按键的输入时,图像显示设备100可以在与接收的箭头按键的输入对应的方向上移动第二图像。如图6c中所示,当接收到右按键的输入(按压右按键的输入)时,图像显示设备100可以向左(在与向右相对的方向上)移动第二图像并且显示第二图像。然而,第二图像的移动不限于此,并且第二图像可以响应于右按键的输入而向右移动。除了四个箭头按键的输入之外,用于移动第二图像的用户输入可以包括滚动键输入、触摸输入、向上移动、向下移动、向左移动和向右移动控制设备200的输入等。
参考图6d,显示器120可以在第一区域620的右侧上显示竖直滚动条651,并且在底部处显示水平滚动条652。竖直滚动条651和水平滚动条652可以显示当前显示在第一区域620中的第二图像的一部分在整个第二图像中的位置。图像显示设备100可以接收控制设备200中所包括的四个箭头按键中的上按键或下按键的输入以向上或向下移动竖直滚动条651中显示的滚动块,并且因此可以向上或向下移动第二图像。此外,图像显示设备100可以接收四个箭头按键中的左按键或右按键的输入以向左或向右移动水平滚动条652中显示的滚动块,并且因此可以向左或向右移动第二图像。然而,第二图像的移动不限于此,并且除了四个箭头按键的输入之外,可以使用向上或向下滚动滚动键的输入、向左或向右滚动滚动键的输入、拖动滚动块的输入等移动第二图像。
图7a至图7c是示出根据本公开的实施方式的显示通过放大显示器上显示的整个图像而获得的图像的示例的图。
参考图7a,如参考图6b所描述的,显示器120可以在第一区域中显示通过放大第一区域中显示的第一图像(整个图像)的一部分生成的第二图像。
根据实施方式的图像显示设备100可以感测用于整体放大的输入。例如,图像显示设备100可以感测按压控制设备200中所包括的特定按键的输入作为用于整体放大的输入。此外,图像显示设备100可以感测触摸控制设备200中所包括的触摸板的输入或触摸板上的拖动输入作为用于整体放大的输入。此外,图像显示设备100可以感测在一个方向上滚动控制设备200中所包括的滚动键的输入作为用于整体放大的输入。然而,用于整体放大的输入不限于此。
同时,参考图7b,当感测到用于整体放大的输入时,图像显示设备100可以放大显示器120上显示的整个图像并显示放大的图像的一部分。此外,在显示器120的左上部分中,显示器120可以显示图标720,图标720表示当前显示在显示器120中的放大的图像的一部分在整个放大的图像中的位置。例如,用虚线表示的矩形730代表整个放大的图像,并且图标720表示当前显示在显示器120上的放大的图像的一部分。
当在显示放大的图像的一部分的同时感测到用于移动放大的图像的用户输入时,图像显示设备100可以移动并在显示器120中显示放大的图像。
例如,如图7c中所示,当接收到控制设备200中所包括的四个箭头按键中的右按键和上按键的输入时,图像显示设备100可以向左下移动放大的图像并且显示放大的图像。移动放大的图像的方法已经参考图6c进行了详细地描述,因此将省略相同的描述。
图8a和图8b是示出根据本公开的实施方式的显示通过放大第一图像的、在显示器的第一区域中显示的一部分而获得的第二图像的示例的图。
参考图8a,显示器120可以显示第一图像。根据实施方式的图像显示设备100可以感测用于放大的输入。例如,当感测到按压控制设备200中所包括的特定按键的输入时,图像显示设备100可以显示缩放框810。
缩放框810可以是用于显示通过放大第一图像的、在第一区域中显示的一部分获得的第二图像的框。缩放框810可以与第一区域重叠显示。此外,表示缩放框810的中心的光标815可以显示在缩放框810中,并且第一区域的中心可以与缩放框810的中心位于相同的位置处。
同时,光标815可以响应于用户输入在显示器120中移动。例如,当感测到控制设备200中所包括的四个箭头按键中的任何一个箭头按键的输入时,图像显示设备100可以在与感测到的箭头按键的输入对应的方向上移动光标815。除了四个箭头按键的输入之外,图像显示设备100可以感测滚动键输入、触摸输入、向上移动、向下移动、向左移动和向右移动控制设备200的输入等,并且在感测的方向上移动光标815。
当光标815移动时,第一区域和缩放框810的位置可以以相同的方式移动。例如,如图8b中所示,当光标815移动到左下方时,第一区域和缩放框810也可以移动到左下方。此外,当第一区域和缩放框810移动时,图像显示设备100可以在移动的缩放框810中显示通过放大移动的第一区域中显示的第一图像的一部分而生成的第二图像。
图9a至图9e是示出根据本公开的实施方式的显示通过放大第一图像的、在第一区域中显示的一部分而获得的第二图像的示例的图。
参考图9a,根据实施方式的显示器120可以显示第一图像。根据实施方式的图像显示设备100可以感测用于放大的输入。例如,当感测到按压控制设备200中所包括的特定按键的输入时,图像显示设备100可以显示缩放框910。缩放框910可以是显示通过放大第一图像的、在第一区域中显示的一部分而获得的第二图像的框。由于已经参考图8a详细地描述了缩放框,因此将省略缩放框910的详细描述。
当显示缩放框910时,图像显示设备100可以感测放大输入或缩小输入。当感测到放大输入时,图像显示设备100可以通过增加第一区域中显示的第一图像的一部分的放大倍数来生成第二图像。此外,可以增加显示有第二图像的缩放框910的尺寸。
例如,参考图9b,图像显示设备100可以感测在控制设备200中所包括的触摸板235上绘制特定图案(例如,顺时针圆圈)的输入作为放大输入。此外,图像显示设备100可以感测在特定方向(例如,向上或向右)上滚动控制设备200中所包括的滚动键的输入作为放大输入。
当感测到在触摸板235上绘制顺时针圆圈的输入时,图像显示设备100可以增加第一图像的一部分的放大倍数。例如,当图9a中示出的第二图像是通过将第一图像的一部分放大到两倍获得的图像时,感测到放大输入的图像显示设备100可以将第一图像的一部分放大到三倍。此外,如图9b中所示,图像显示设备100可以在缩放框920中显示已经放大到三倍的第二图像。
此外,根据绘制特定图案的次数,可以确定放大倍数。例如,当感测到重复两次、三次和四次绘制顺时针圆圈的输入时,图像显示设备100可以将放大倍数分别增加成四倍、五倍和六倍。然而,根据绘制次数确定的放大倍数不限于此。
同时,当感测到放大输入时,根据实施方式的图像显示设备100可以通过增加第一图像的一部分的放大倍数来生成第二图像,同时保持缩放框的尺寸不变。此时,由于缩放框的尺寸保持不变,因此第二图像的仅一部分可以在缩放框中显示。此外,可以根据放大输入的次数来增加第二图像的一部分的放大倍数。
另一方面,当感测到缩小输入时,图像显示设备100可以通过缩小第一区域中显示的第一图像的一部分的放大倍数来生成第二图像。此外,可以缩小显示有第二图像的缩放框910的尺寸。
例如,参考图9c,图像显示设备100可以感测在控制设备200中所包括的触摸板235上绘制特定图案(例如,逆时针方向的圆圈)的输入作为缩小输入。此外,图像显示设备100可以感测在特定方向(例如,向下或向左)上滚动控制设备200中所包括的滚动键的输入作为缩小输入。
当感测到在触摸板235上绘制逆时针方向的圆圈的输入时,图像显示设备100可以缩小第一图像的一部分的放大倍数。例如,当图9a中示出的第二图像是通过将第一图像的一部分放大到两倍获得的图像时,感测到缩小输入的图像显示设备100可以将第一图像的一部分放大到1.8倍。此外,如图9c中所示,图像显示设备100可以在缩放框930中显示已经放大到1.8倍的第二图像。
此外,可以根据绘制特定图案的次数确定放大倍数。例如,当感测到重复两次、三次和四次绘制逆时针方向的圆圈的输入时,图像显示设备100可以将放大倍数分别缩小到1.6倍、1.4倍和1.2倍。然而,根据绘制次数确定的放大倍数不限于此。
在显示缩放框的同时,根据实施方式的图像显示设备100可以感测用于增加或缩小第一区域的尺寸的输入。当感测到用于增加第一区域的尺寸的输入时,图像显示设备100可以增加第一区域的尺寸。当第一区域的尺寸增加时,第一区域中显示的第一图像的一部分的尺寸增加,并且因此,通过放大第一图像的一部分获得的第二图像的尺寸也增加。图像显示设备100可以增加显示有第二图像的缩放框910的尺寸。
例如,参考图9d,图像显示设备100可以感测按压控制设备200中所包括的四个箭头按键中的一个(例如,上按键或右按键)的输入作为用于增加第一区域的尺寸的输入。此外,如参考图9b所描述的,图像显示设备100可以感测在触摸板235上绘制特定图案的输入、在特定方向上滚动滚动键的输入等作为用于增加第一区域的尺寸的输入。然而,用于增加第一区域的尺寸的输入不限于此。
当感测到按压四个箭头按键中的上按键的输入时,图像显示设备100可以将第一区域的尺寸增加到1.1倍。当增加第一区域的尺寸时,还可以增加第一区域中显示的第一图像的一部分的尺寸,并且当放大在第一区域中显示的尺寸增加的第一图像的一部分时,还可以增加通过放大第一图像的一部分获得的第二图像的尺寸。在这里,第一图像的一部分的放大倍数可以与增加第一区域的尺寸之前相同。此外,可以在缩放框中显示通过放大第一图像的一部分获得的第二图像,并且如图9d中所示,可以将缩放框940的尺寸增加成大于图9a的缩放框910的尺寸。
根据按压上按键的次数,可以确定第一区域的尺寸的增加程度(增加率)。例如,当重复两次、三次和四次按压上按键时,图像显示设备100可以将第一区域的尺寸分别增加到1.2倍、1.3倍和1.4倍。然而,根据按压次数确定的第一区域的尺寸的增加程度不限于此。
另一方面,当感测到用于减小第一区域的尺寸的输入时,图像显示设备100可以减小第一区域的尺寸。当第一区域的尺寸减小时,第一区域中显示的第一图像的一部分的尺寸减小,并且因此,通过放大第一图像的一部分获得的第二图像的尺寸减小。图像显示设备100可以减小显示有第二图像的缩放框的尺寸。
例如,参考图9e,图像显示设备100可以感测按压控制设备200中所包括的四个箭头按键中的一个(例如,下按键或左按键)的输入作为用于减小第一区域的尺寸的输入。此外,如参考图9c所描述的,图像显示设备100可以感测在触摸板235上绘制特定图案的输入、在特定方向上滚动滚动键的输入等作为用于减小第一区域的尺寸的输入。然而,用于减小第一区域的尺寸的输入不限于此。
当感测到按压四个箭头按键中的下按键的输入时,图像显示设备100可以将第一区域的尺寸缩小到0.9倍。当减小第一区域的尺寸时,还可以减小第一区域中显示的第一图像的一部分的尺寸,并且当减小第一区域中显示的尺寸缩小的第一图像的一部分时,还可以减小通过放大第一图像的一部分获得的第二图像的尺寸。在这里,第一图像的一部分的放大倍数可以与减小第一区域的尺寸之前相同。此外,可以在缩放框中显示通过放大第一图像的一部分获得的第二图像,并且如图9e中所示,可以将缩放框950的尺寸缩小成小于图9a的缩放框910的尺寸。
根据按压下按键的次数,可以确定第一区域的尺寸的减小程度(减小率)。例如,当重复两次、三次和四次按压下按键时,图像显示设备100可以将第一区域的尺寸分别缩小到0.8倍、0.7倍和0.6倍。然而,根据按压次数确定的第一区域的尺寸的减小程度不限于此。
图10是示出根据本公开的实施方式的第一区域与缩放框之间的位置关系的曲线图,并且图11是示出根据本公开的实施方式的根据图10的曲线图的第一区域与缩放框之间的位置关系的图。
根据实施方式的缩放框可以是用于显示通过放大显示器120的第一区域中显示的第一图像的一部分获得的第二图像的框。
参考图10的曲线图,水平轴线表示第一区域的位置,并且竖直轴线表示缩放框的位置。根据实施方式的第一区域的位置可以由第一区域的中心的位置(例如,第一区域的中心的x坐标和y坐标)表示,并且缩放框的位置可以由缩放框的中心的位置(例如,缩放框的中心的x坐标和y坐标)表示。为了方便描述的目的,在下文假设显示区域的坐标在x轴方向上从0到1变化,并且在y轴方向上从0到1变化。
图10中示出的虚线图1010表示第一区域的位置与缩放框的位置相同。当沿着图10的虚线图1010确定第一区域的位置和缩放框的位置时,通过放大第一区域的图像获得的第二图像的一部分可能不在显示器120的边缘区域中显示。例如,如图11的(a)中所示,当第一区域1101的整体包括在显示器120中但是缩放框1102一部分未包括在显示器120中时,可以不显示与第一区域的阴影部分1101a对应的第二图像的部分1102a。
根据实施方式的图像显示设备100可以基于图10的实线图1020来根据第一区域的位置确定缩放框的位置。
图10的实线图1020可以表示为以下等式。
Figure GDA0001667147530000261
在等式1中,t表示第一区域的位置,并且q表示缩放框的位置。例如,t可以是第一区域的中心的x坐标,并且q可以是缩放框的中心的x坐标。替代地,t可以是第一区域的中心的y坐标,并且q可以是缩放框的中心的y坐标。
图11的(b)至(i)是根据图10的实线图1020确定第一区域1110的位置和缩放框1120的位置的示例。下面将基于x坐标进行描述,但是描述还可以以相同的方式应用到y坐标。
例如,如图11的(b)、(e)和(h)中所示,当第一区域1110的中心的x坐标和y坐标是0、0.5和1中的任何一个时,第一区域1110的位置和缩放框1120的位置可以是相同的。换言之,第一区域1110的中心的位置和缩放框1120的中心的位置可以是相同的。
如图11的(c)和(d)中所示,如果第一区域1110的中心的x坐标从0增加到0.5,则缩放框1120的中心的x坐标可以比第一区域1110的中心的x坐标增加得更快;当第一区域1110的中心的x坐标等于或大于特定值时,缩放框1120的中心的x坐标比第一区域1110的中心的x坐标增加得更慢,并且当第一区域1110的中心的x坐标是0.5时,缩放框1120的中心的x坐标可以是0.5。
此外,如图11的(f)和(g)中所示,如果第一区域1110的中心的x坐标从0.5增加到1,则缩放框1120的中心的x坐标可以比第一区域1110的中心的x坐标增加得更慢;当第一区域1110的中心的x坐标等于或大于特定值时,缩放框1120的中心的x坐标比第一区域1110的中心的x坐标增加得更快,并且当第一区域1110的中心的x坐标是1时,缩放框1120的中心的x坐标可以是1。
当基于图10的实线图1020以此方式确定第一区域1110的位置和缩放框1120的位置时,如图11的(i)所示,即使在显示器120的边缘区域中也可以显示通过放大第一区域1110的图像获得的整个第二图像。
图12a和图12b示出了根据本公开的实施方式的其中缩放框以指向模式固定的示例的图。
参考图12a,根据实施方式的显示器120可以显示第一图像。根据实施方式的图像显示设备100可以感测用于放大的输入。例如,当感测到按压控制设备200中所包括的特定按键的输入时,图像显示设备100可以显示缩放框1210。缩放框1210是显示有通过放大第一图像的、在第一区域中显示的一部分获得的第二图像的框。由于已经参考图8a详细地描述了缩放框,因此将省略缩放框1210的详细描述。
参考图12a,当感测到触摸控制设备200的触摸板235的输入或按压控制设备200的用户输入部分230的特定按钮时,图像显示设备100可以在指向模式中操作。当图像显示设备100在指向模式中操作时,图像显示设备100可以从控制设备200接收指向信号并且移动显示器120上显示的缩放框1210。
例如,图像显示设备100可以接收通过控制设备200的传感器感测的与控制设备200的动作有关的信息、计算显示器120上的缩放框1210的中心的坐标以及将缩放框1210移动到与所计算的坐标对应的位置。
替代地,图像显示设备100可以根据在控制设备200的触摸板235上移动的对象(诸如,用户的手指)的位移值来在显示器120上移动缩放框1210。
另一方面,参考图12b,当不触摸控制设备200的触摸板235或未按压特定按钮时,缩放框1210可以不移动,而是可以被固定。
图13a和图13b是示出根据本公开的实施方式的图像显示设备根据内容的属性放大显示器上所显示的内容的方法的图。
参考图13a,根据实施方式的显示器120可以包括其中播放视频内容的视频区域1310以及其中显示UI屏幕的UI区域1320。例如,如图13a中所示,图像显示设备100可以在视频区域1310中显示当前播放的视频帧。此外,图像显示设备100可以在UI区域1320中显示包括多个项目的用户菜单屏幕。例如,多个项目可以包括表示与当前播放的视频有关的频道的项目、表示与当前播放的视频有关的电视节目的项目以及表示与当前播放的视频有关的应用的项目。此外,可以包括用于使用图像显示设备100的各种功能的菜单图标。然而,多个项目不限于此。
多个项目可以与图像和文本一起显示。例如,当项目表示广播频道时,项目可以与频道的徽标图像一起显示或与表示频道上当前播出的节目的图像一起显示。此外,表示广播频道的项目可以与表示频道的数字或频道上当前播出的节目的名称的文本一起显示。当项目表示应用时,项目可以与表示应用或上次执行的应用屏幕的图像一起显示。此外,表示应用的项目可以与表示应用的名称的文本一起显示。
显示有多个项目中的每个的区域可以是矩形,并且矩形的尺寸可以彼此相同或彼此不同。例如,矩形的高度和宽度可以彼此不同,并且显示有项目的区域可以根据与多个项目分别对应的多条内容的类型、特性等而具有不同的宽度或高度。
继续参考图13a,当要放大的第一区域位于视频区域1310中时,如参考图8a和图8b所描述的,图像显示设备100可以在缩放框1330中显示通过放大第一区域中显示的视频帧的一部分而获得的第二图像。缩放框1330可以与第一区域重叠显示。由于放大第一区域的图像和在缩放框中显示放大的图像的方法已经参考图8a至图11进行了详细地描述,因此将省略该方法的详细描述。
同时,可以在UI区域1320中显示表示用户输入的位置的光标。例如,如图13b中所示,如果使用控制设备200等将视频区域1310中显示的缩放框1330移向UI区域1320,则当缩放框1330的中心光标1335越过视频区域1310与UI区域1320之间的边界移动到UI区域1320时,不再显示缩放框1330,而是显示表示用户输入的位置的光标1340。
光标1340可以根据UI区域1320中感测的用户输入进行移动。虽然图13b示出了圆形形状的光标1340,但是光标1340不限于此并且可以具有多种形状和尺寸。此外,光标1340的形状和尺寸可以基于用户输入进行不同地设定。光标1340可以位于UI区域1320中显示的多个项目中的任何一个中。当光标1340位于多个项目中的任何一个的区域中时,可以突出显示相应的项目1350。例如,可以改变突出显示的项目1350的颜色。此外,可以增加项目1350中显示的图像或文本的尺寸。例如,如图13b中所示,可以增加光标1340所在位置处的项目1350中显示的文本“Sherlock series 1”的尺寸。即使当项目1350中显示的图像或文本的尺寸增加时,项目区域1360的尺寸仍可以保持不变。
当感测到用于选择突出显示的项目的用户输入时,控制器110可以执行与该项目对应的操作。例如,如果突出显示的项目表示相关的电视节目时,当感测到用于选择突出显示的项目的输入时,控制器110可以在视频区域1310中显示电视节目的回放画面。
图14a至图14h是示出根据本公开的实施方式的当显示器包括具有不同属性的区域时选择区域与缩放框之间的位置关系的图。
参考图14a,根据实施方式的图像显示设备100可以包括显示有具有第一属性的内容的第一显示区域1410以及显示有具有第二属性的内容的第二显示区域1420。例如,具有第一属性的内容可以是视频内容,并且通过视频处理器180处理的视频数据可以作为图像显示在第一显示区域1410中。此外,具有第二属性的内容可以是用户输入界面屏幕,并且可以在第二显示区域1420中显示通过图形处理器184处理的包括图标、图像、文本等的GUI屏幕。然而,第一显示区域1410和第二显示区域1420中显示的内容不限于此。
此外,图像显示设备100可以显示缩放框1430。缩放框1430是用于显示通过放大第一图像而获得的第二图像的框,第一图像是由用户选择的在选择区域1440中显示的图像。参考图14a,选择区域1440可以是用虚线表示的区域,并且缩放框1430可以是用实线表示的框。缩放框1430可以与选择区域1440重叠显示。
根据实施方式的选择区域1440可以通过对控制设备200的箭头按键输入、触摸输入等在显示器120中移动。
在图14a至图14h中,将作为示例描述选择区域1440从第一显示区域1410移动到第二显示区域1420的情况。
参考图14a,选择区域1440位于第一显示区域1410中,并且选择区域1440的位置(选择区域1440的中心的位置)可以和缩放框1430的位置(缩放框1430的中心的位置)相同。
当选择区域1440移向第二显示区域1420(例如,向右)时,缩放框1430也可以按照选择区域1440那样以相同的方式移动。在此时,如图14a中所示,在缩放框1430移动时,从当缩放框1430的右边界和第一显示区域1410与第二显示区域1420之间的边界接触时的时间点开始,缩放框1430不再移动,即使选择区域1440仍移向第二显示区域1420。此外,在缩放框1430不再移动而仅选择区域1440向右移动时,从当如图14b中所示的选择区域1440的右边界和第一显示区域1410与第二显示区域1420之间的边界接触时的时间点开始,选择区域1440和缩放框1430一起移动,如图14c中所示。在此时,缩放框1430可以比选择区域1440移动得更快。
此外,选择区域1440中显示的图像中的在第一显示区域1410中显示的第一子图像可以被放大并在缩放框1430的第一显示区域1410中显示,并且选择区域1440中显示的图像中的在第二显示区域1420中显示的第二子图像可以被放大并在缩放框1430的第二显示区域1420中显示。
同时,如图14d中所示,在选择区域1440和缩放框1430一起移动时,当选择区域1440的中心位于第一显示区域1410与第二显示区域1420之间的边界处时,缩放框1430的中心也可以位于第一显示区域1410与第二显示区域1420之间的边界处。
从当选择区域1440和缩放框1430的位置相同时的时间点开始,缩放框1430可以比选择区域1440移动得更快。因此,如图14e中所示,缩放框1430的位置(缩放框1430的中心的位置)可以比选择区域1440的位置(选择区域1440的中心的位置)更靠右。
如图14f中所示,在选择区域1440和缩放框1430向右移动时,从当选择区域1440的左边界和第一显示区域1410与第二显示区域1420之间的边界接触时的时间点开始,缩放框1430不再移动,即使选择区域1440仍移向第二显示区域1420。
参考图14g和图14h,缩放框1430不再移动而是仅选择区域1440向右移动,直到缩放框1430的位置和选择区域1440的位置变得相同。从当选择区域1440的位置和缩放框1430的位置变得相同时的时间点开始,选择区域1440和缩放框1430可以一起移动。
同时,图14a至图14h中仅示出了选择区域1440向右移动的示例并且对其进行了描述,但是其还可以以相同的方式应用到选择区域1440穿过第一显示区域1410与第二显示区域1420之间的边界并向下移动的情况。
图15a至图15e是示出根据本公开的实施方式的图像显示设备放大特定对象并且显示放大的对象的示例的图。
参考图15a,根据实施方式的显示器120可以显示包括至少一个对象的第一图像。图像显示设备100可以检测第一图像中所包括的至少一个对象并且显示检测到的对象。例如,控制器110可以基于构成第一图像的像素值、明亮度变化、特征点的提取等来分析第一图像。此外,控制器110可以通过对象识别检测第一图像中的诸如人类面部、动物面部、建筑物等对象。在相关领域中,用于检测图像中的对象的方法和算法是已知的,并且因此将省略该方法和算法的详细描述。
控制器110可以通过放大第一图像中检测的对象中的选择的对象来生成第二图像,并且在显示器120上显示第二图像。例如,显示器120可以在第一图像中检测的对象上显示标记1510。当感测到用于选择显示器120上显示的标记的输入时,控制器110可以放大与所选择的标记对应的对象并显示放大的对象。
参考图15b,显示器120可以显示示出检测到的对象的候选列表1520。当感测到用于选择候选列表1520中所包括的对象中的任何一个的输入时,控制器110可以放大所选择的对象并显示放大的对象。
参考图15c,图像显示设备100可以感测用于手动地选择第一图像中的兴趣对象的输入。例如,显示器120可以显示用于选择第一图像中的兴趣对象的矩形框1530。用户可以使用控制设备200将显示器120中显示的矩形框1530移动到兴趣对象的区域,并且然后通过按压特定按钮来选择兴趣对象。图像显示设备100可以放大所选择的兴趣对象并显示放大的兴趣对象。
参考图15d,根据实施方式的图像显示设备100可以自动地检测显示器120中显示的图像中的兴趣对象、放大兴趣对象并显示放大的兴趣对象。
例如,如参考图15a至图15c所描述的,当在第一图像中所包括的对象中设定兴趣对象时,控制器110可以自动地检测当前显示在显示器120中的图像(下文称为“当前图像”)中的兴趣对象。在当前图像包括兴趣对象时,控制器110可以放大兴趣对象并在缩放框1540中显示放大的兴趣对象。
例如,当图像显示设备100播放动态图像时,显示器120可以显示动态图像中所包括的帧,并且兴趣对象的位置可以根据帧而改变。当兴趣对象根据帧而显示在不同的位置处时,图像显示设备100可以通过跟踪兴趣对象的位置来自动地检测兴趣对象、放大兴趣对象并在缩放框中显示放大的对象。
在第一图像中,缩放框1540可以与显示有兴趣对象的区域重叠显示。例如,当兴趣对象的位置根据帧而变化时,缩放框的位置也可以根据兴趣对象的移动而变化。此外,控制器110可以执行控制使得在预设区域中显示缩放框1540,或可以基于用户输入来改变缩放框1540的显示位置。此外,图像显示设备100可以调整兴趣对象的放大倍数。
参考图15e,在当前图像中显示的兴趣对象的尺寸等于或大于第一阈值时,根据实施方式的控制器110可以不放大兴趣对象。例如,控制器110可以检测当前图像中的兴趣对象1550并计算检测的兴趣对象1550的尺寸。在此时,如果兴趣对象1550的尺寸等于或大于第一阈值,则控制器110可以执行控制使得不显示缩放框并仅显示当前图像。
例如,当显示的兴趣对象的尺寸逐渐地增大时,放大的兴趣对象的尺寸也可以逐渐地增大,并且当兴趣对象的尺寸等于或大于第一阈值时,图像显示设备100可以不显示放大的兴趣对象。此外,当兴趣对象的尺寸逐渐地缩小并且变得小于第一阈值时,图像显示设备100可以再次显示放大的兴趣对象。
另一方面,在当前图像中显示的兴趣对象的尺寸小于第二阈值(其小于第一阈值)时,根据实施方式的控制器110可以增加兴趣对象的放大倍数。
当感测到用于完成缩放显示的输入时,控制器110可以执行控制使得不显示缩放框并且仅显示当前图像。
图16是示出根据本公开的实施方式的图像显示设备的操作方法的流程图。
参考图16,在操作S1610处,图像显示设备100可以显示第一图像。
在操作S1620处,图像显示设备100可以通过放大第一图像的、在显示器120的第一区域中显示的一部分来生成第二图像并在第一区域中显示第二图像的一部分。
例如,第一区域可以是设置为缩放区域的区域。第一区域可以是通过用户输入设置的区域或显示有在第一图像中检测到的兴趣对象的区域。
图像显示设备100可以感测用于放大的输入,并且通过放大第一图像的、在第一区域中显示的一部分来生成第二图像。在这里,第二图像是通过放大第一图像的一部分获得的图像,并且具有比第一图像的一部分大的尺寸。因此,图像显示设备100可以在第一区域中显示第二图像的仅一部分。
此外,图像显示设备100可以在第一区域中显示表示第二图像的可移动方向的图标或滚动条。
在操作S1630处,图像显示设备100可以感测用于移动第二图像的用户输入,并且在操作S1640处,可以响应于感测到的用户输入在第一区域中移动第二图像并显示被移动的第二图像。
例如,当接收到控制设备200中所包括的四个箭头按键中的任何一个的输入时,图像显示设备100可以在与接收到的箭头按键输入对应的方向上移动第二图像。然而,第二图像的移动不限于此,并且除了四个箭头按键的输入之外,可以使用向上或向下滚动滚动键的输入、向左或向右滚动滚动键的输入、拖动滚动块的输入等移动第二图像。
此外,图像显示设备100可以感测用于放大或缩小第二图像的输入,并且可以响应于感测到的放大输入来放大第二图像或响应于感测到的缩小输入来缩小第二图像。
图17是示出根据本公开的实施方式的图像显示设备的操作方法的流程图。
参考图17,在操作S1710处,图像显示设备100可以显示包括至少一个对象的第一图像。
此外,图像显示设备100可以检测第一图像中所包括的至少一个对象并且显示检测到的对象。例如,控制器110可以基于构成第一图像的像素值、明亮度变化、特征点的提取等来分析第一图像。图像显示设备100可以通过对象识别检测第一图像中的诸如人类面部、动物面部、建筑物等对象。
图像显示设备100可以在第一图像中检测到的对象中显示标记或显示包括检测到的对象的候选列表。
在操作S1720处,图像显示设备100可以感测用于选择至少一个对象中的兴趣对象的用户输入。
在操作S1730处,图像显示设备100可以检测第一图像中的兴趣对象,并且显示通过放大检测到的兴趣对象而获得的第二图像。
例如,图像显示设备100可以自动地检测当前显示在显示器120上的图像(当前图像)中的兴趣对象。在当前图像包括兴趣对象时,图像显示设备100可以放大兴趣对象并在缩放框中显示放大的兴趣对象。缩放框可以与第一图像中的显示有兴趣对象的区域重叠显示。替代地,图像显示设备100可以执行控制使得在预设区域中显示缩放框,或可以基于用户输入来改变缩放框的显示位置。图像显示设备100还可以调整兴趣对象的放大倍数。
在当前图像中显示的兴趣对象的尺寸等于或大于第一阈值时,根据实施方式的图像显示设备100可以不放大兴趣对象。例如,图像显示设备100可以检测当前图像中的兴趣对象并计算检测的兴趣对象的尺寸。在此时,如果兴趣对象的尺寸等于或大于第一阈值,则图像显示设备100可以执行控制使得不显示缩放框并且仅显示当前图像。
另一方面,在当前图像中显示的兴趣对象的尺寸小于第二阈值(其小于第一阈值)时,图像显示设备100可以增加兴趣对象的放大倍数。
根据实施方式的图像显示设备的操作方法可以以程序指令的形式体现,所述程序指令可以由各式各样的计算工具(例如,处理器,控制器或中央处理单元)执行并且记录在非暂时性计算机可读记录介质上。非暂时性计算机可读记录介质可以包括程序指令、数据文件、数据结构等之一或其组合。记录在非暂时性计算机可读记录介质中的程序指令可以针对本公开专门设计或配置,或者可以是计算机软件领域的普通技术人员所公知且使用的。非暂时性计算机可读记录介质的示例包括:诸如硬盘、软盘和磁带的磁性介质;诸如光盘(CD)-ROM和数字通用盘(DVD)的光学介质;诸如光软盘的磁光介质;以及诸如ROM、RAM和闪速存储器的专门配置成储存和执行程序指令的硬件设备。程序指令的示例包括可以由计算机利用解释器等执行的高级语言代码以及由编译器创建的机器语言代码。
应该理解,本文中描述的各种实施方式应理解为仅是描述性含义而不是出于限制的目的。每个实施方式中的特征或方面的描述通常应该被认为可以用于其它实施方式中的相似特征或方面。
虽然已经参考本公开的各种实施方式示出和描述了本公开,但是本领域的技术人员将理解,在不脱离由所附权利要求及其等同限定的本公开的精神和范围的情况下,可以在本发明中作出形式和细节上的各种改变。

Claims (19)

1.图像显示设备,包括:
显示器;
至少一个处理器,所述至少一个处理器配置成:
控制所述显示器显示图像;
提供窗口,所述窗口用于基于从配置为接收用于放大功能的用户输入的用户接口装置接收的第一用户输入信息而显示所述图像的一部分;
控制所述显示器在所述窗口中显示所述图像的所述一部分,其中,所述图像的所述一部分被放大以显示在所述窗口中;
基于从所述用户接口装置接收的第二用户输入信息,改变所述窗口在所述显示器上的位置;
控制所述显示器在所述窗口中显示所述图像的不同部分,其中所述图像的所述不同部分被放大以显示在所述窗口中,所述图像的所述不同部分与所述窗口的位置有关;
基于用于固定所述窗口的第三用户输入信息将所述窗口的位置固定在所述显示器的第一位置,所述第三用户输入信息从所述用户接口装置接收;以及
基于在所述窗口中移动所述图像的第一部分的第四用户输入信息,控制所述显示器在所述窗口中显示所述图像的第二部分,所述第四用户输入信息从所述用户接口装置接收,
其中,所述图像的所述第一部分和所述图像的所述第二部分被放大以显示在所述窗口中,
其中,在所述图像的所述第一部分根据所述第四用户输入信息在所述窗口中移动时,所述窗口固定在所述第一位置,
其中,所述图像的所述第二部分与根据所述第四用户输入的所述显示器的第二位置有关。
2.根据权利要求1所述的图像显示设备,
其中,所述用户接口还配置成感测方向按键输入,以及
其中,所述至少一个处理器还配置成进行控制,使得所放大的所述图像的所述第二部分在与感测到的方向按键输入对应的方向上移动,而所述窗口固定在所述显示器的所述第一位置处。
3.根据权利要求1所述的图像显示设备,
其中,所述显示器还配置成显示用于表示在所述窗口中的放大的所述图像的所述第二部分的可移动方向的图标和滚动条中的至少一项。
4.根据权利要求1所述的图像显示设备,
其中,所述用户接口还配置成感测用于放大或缩小在所述窗口中的放大的所述图像的所述第二部分的第五用户输入,以及
其中,所述至少一个处理器还配置成:
响应于感测到的放大输入来放大所放大的所述图像的所述第二部分;或
响应于感测到的缩小输入来缩小所放大的所述图像的所述第二部分。
5.根据权利要求1所述的图像显示设备,
其中,在所述窗口中显示的所放大的所述图像的所述第二部分基于所述窗口在所述显示器中的位置而由所述图像识别出。
6.根据权利要求1所述的图像显示设备,
其中,所显示的图像包括至少一个对象;
其中,所述用户接口还配置成感测用于从所述至少一个对象中选择兴趣对象的第六用户输入;以及
其中,所述至少一个处理器还配置成:
检测根据所述第六用户输入在所述图像中选择的对象,所选择的对象显示在所述显示器的第一区域中;
确定所选择的对象的尺寸;以及
通过根据所选择的对象的尺寸来控制所述显示器显示在所述窗口中放大的图像的一部分。
7.根据权利要求6所述的图像显示设备,
其中,所述至少一个处理器还配置成:
根据所选择的对象的尺寸调整所选择的对象的放大倍数;以及
根据所调整的放大倍数放大所选择的对象。
8.图像显示设备的操作方法,所述操作方法包括:
在显示器上显示图像;
提供窗口,所述窗口用于基于从配置为接收用于放大功能的用户输入的用户接口装置接收的第一用户输入信息而显示所述图像的一部分;
在所述窗口中显示所述的图像的所述一部分,其中,所述图像的所述一部分被放大以显示在所述窗口中;
基于从所述用户接口装置接收的第二用户输入信息,改变所述窗口在所述显示器上的位置;
在所述窗口中显示所述图像的不同部分,其中所述图像的所述不同部分被放大以显示在所述窗口中,所述图像的所述不同部分与所述窗口的位置有关;
基于用于固定所述窗口的第三用户输入信息将所述窗口的位置固定在所述显示器的第一位置,所述第三用户输入信息从所述用户接口装置接收;以及
基于在所述窗口中移动所述图像的第一部分的第四用户输入信息,在所述窗口中显示所述图像的第二部分,所述第四用户输入信息从所述用户接口装置接收,
其中,所述图像的所述第一部分和所述图像的所述第二部分被放大以显示在所述窗口中,
其中,在所述图像的所述第一部分根据所述第四用户输入信息在所述窗口中移动时,所述窗口固定在所述第一位置,
其中,所述图像的所述第二部分与根据所述第四用户输入的所述显示器的第二位置有关。
9.根据权利要求8所述的操作方法,还包括:
其中,所放大的所述图像的所述第二部分在与方向按键输入对应的方向上移动并显示在所述窗口中,而所述窗口固定在所述显示器的所述第一位置处。
10.根据权利要求8所述的操作方法,还包括:显示用于表示在所述窗口中的放大的所述图像的所述第二部分的可移动方向的图标和滚动条中的至少一项。
11.根据权利要求8所述的操作方法,还包括:
感测用于放大或缩小在所述窗口中的放大的所述图像的所述第二部分的第五用户输入,以及
响应于感测到的放大输入来放大所放大的所述图像的所述第二部分,或响应于感测到的缩小输入来缩小所放大的所述图像的所述第二部分。
12.根据权利要求8所述的操作方法,
其中,在所述窗口中显示的所放大的所述图像的所述第二部分基于所述窗口在所述显示器中的位置而由所述图像识别出。
13.根据权利要求8所述的操作方法,其中,所显示的图像包括至少一个对象,
所述方法还包括:
感测用于从所述至少一个对象中选择兴趣对象的第六用户输入;以及
检测根据所述第六用户输入在所述图像中选择的对象,所选择的对象显示在所述显示器的第一区域中;
确定所选择的对象的尺寸;以及
通过根据所选择的对象的尺寸来显示在所述窗口中放大的图像的一部分。
14.根据权利要求13所述的操作方法,还包括:
根据所选择的对象的尺寸调整所选择的对象的放大倍数;以及
根据所调整的放大倍数放大所选择的对象。
15.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读程序,
其中,当所述计算机可读程序在计算设备上运行时,所述计算设备执行以下操作:
在显示器上显示图像;
提供窗口,所述窗口用于基于从配置为接收用于放大功能的用户输入的用户接口装置接收的第一用户输入信息而显示所述图像的一部分;
在所述窗口中显示所述图像的所述一部分,其中,所述图像的所述一部分被放大以显示在所述窗口中;
基于从所述用户接口装置接收的第二用户输入信息,改变所述窗口在所述显示器上的位置;
在所述窗口中显示所述图像的不同部分,其中所述图像的所述不同部分被放大以显示在所述窗口中,所述图像的所述不同部分与所述窗口的位置有关;
基于用于固定所述窗口的第三用户输入信息将所述窗口的位置固定在所述显示器的第一位置,所述第三用户输入信息从所述用户接口装置接收;以及
基于在所述窗口中移动所述图像的第一部分的第四用户输入信息,在所述窗口中显示所述图像的第二部分,所述第四用户输入信息从所述用户接口装置接收,
其中,所述图像的所述第一部分和所述图像的所述第二部分被放大以显示在所述窗口中,
其中,在所述图像的所述第一部分根据所述第四用户输入信息在所述窗口中移动时,所述窗口固定在所述第一位置,
其中,所述图像的所述第二部分与根据所述第四用户输入的所述显示器的第二位置有关。
16.图像显示设备的操作方法,所述操作方法包括:
在显示器上显示第一图像;
通过放大在所述显示器的第一区域中显示的所述第一图像的一部分来生成第二图像;
在所述第一区域中显示所述第二图像的一部分;
感测用于移动所述第二图像的用户输入;以及
响应于所述用户输入在所述第一区域中移动并显示所述第二图像,
其中,所述第一区域固定,而所述第二图像根据用于移动所述第二图像的用户输入而移动,
其中,所述第二图像的移动改变所述第二图像在所述第一区域中显示的部分,以及
其中,所述第二图像的所改变部分与用于移动所述第二图像的用户输入的位置有关。
17.根据权利要求16所述的操作方法,
其中,对所述用户输入的感测包括对方向键输入的感测,以及
其中,移动并显示所述第二图像包括:在与所感测的方向键输入对应的方向上移动所述第二图像并且在所述第一区域中显示移动后的第二图像。
18.根据权利要求16所述的操作方法,还包括:显示表示所述第二图像的可移动方向的图标。
19.根据权利要求16所述的操作方法,还包括:
感测用于放大或缩小所述第二图像的输入;以及
响应于所感测的放大输入放大所述第二图像,或者响应于所感测的缩小输入缩小所述第二图像。
CN201680067907.7A 2015-11-20 2016-05-24 图像显示设备及其操作方法 Active CN108293146B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020150163341A KR102474244B1 (ko) 2015-11-20 2015-11-20 영상 표시 장치 및 그 동작방법
KR10-2015-0163341 2015-11-20
PCT/KR2016/005479 WO2017086559A1 (en) 2015-11-20 2016-05-24 Image display device and operating method of the same

Publications (2)

Publication Number Publication Date
CN108293146A CN108293146A (zh) 2018-07-17
CN108293146B true CN108293146B (zh) 2022-01-28

Family

ID=58717514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680067907.7A Active CN108293146B (zh) 2015-11-20 2016-05-24 图像显示设备及其操作方法

Country Status (5)

Country Link
US (2) US11150787B2 (zh)
EP (1) EP3360337A4 (zh)
KR (2) KR102474244B1 (zh)
CN (1) CN108293146B (zh)
WO (1) WO2017086559A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9075492B1 (en) * 2007-03-30 2015-07-07 Amazon Technologies, Inc. Method and system for displaying items
KR101679294B1 (ko) * 2009-08-21 2016-11-25 삼성전자주식회사 이동 경로의 생성, 관리 및 공유 방법과 그 장치
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
US20180275856A1 (en) * 2017-03-23 2018-09-27 Vizio Inc Systems and methods for zooming a selected portion of the graphics layer of a display screen
US10373290B2 (en) * 2017-06-05 2019-08-06 Sap Se Zoomable digital images
US20200351543A1 (en) * 2017-08-30 2020-11-05 Vid Scale, Inc. Tracked video zooming
JP2022546595A (ja) * 2019-09-09 2022-11-04 ペイジ.エーアイ インコーポレイテッド デジタル病理学のためのスライドの画像を処理するためのシステムおよび方法
CN111176603A (zh) * 2019-12-31 2020-05-19 海信视像科技股份有限公司 一种用于显示设备的图像显示方法及显示设备
JP2021129178A (ja) * 2020-02-12 2021-09-02 シャープ株式会社 電子機器、表示制御装置、表示制御方法、および、プログラム
CN111818311B (zh) * 2020-08-25 2021-06-04 北京中联合超高清协同技术中心有限公司 一种可变视域的超高清视频监视器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754348A (en) * 1996-05-14 1998-05-19 Planetweb, Inc. Method for context-preserving magnification of digital image regions

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144378A (en) * 1997-02-11 2000-11-07 Microsoft Corporation Symbol entry system and methods
KR100253002B1 (ko) 1997-11-28 2000-04-15 구자홍 디티브이의 디스플레이용 영상 처리장치 및 그 방법
US6710771B1 (en) * 1999-05-13 2004-03-23 Sony Corporation Information processing method and apparatus and medium
US7197718B1 (en) * 1999-10-18 2007-03-27 Sharp Laboratories Of America, Inc. Interactive virtual area browser for selecting and rescaling graphical representations of displayed data
US6803931B1 (en) * 1999-11-04 2004-10-12 Kendyl A. Roman Graphical user interface including zoom control box representing image and magnification of displayed image
US7434177B1 (en) * 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
GB0116877D0 (en) * 2001-07-10 2001-09-05 Hewlett Packard Co Intelligent feature selection and pan zoom control
JP4297784B2 (ja) * 2001-10-23 2009-07-15 サムスン エレクトロニクス カンパニー リミテッド マークアップ文書とavデータとが記録された情報保存媒体、その記録方法、再生方法及び再生装置
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
KR100515959B1 (ko) 2002-10-29 2005-09-23 삼성테크윈 주식회사 저시력자를 위한 카메라의 제어 방법
US7376908B2 (en) * 2003-03-24 2008-05-20 Microsoft Corporation On-screen display image rendered with MPEG hardware
KR20040093262A (ko) * 2003-04-22 2004-11-05 엘지전자 주식회사 Pip모드를 이용한 화면확대기능을 갖는 영상표시기기및 그방법
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7542971B2 (en) * 2004-02-02 2009-06-02 Fuji Xerox Co., Ltd. Systems and methods for collaborative note-taking
US7486302B2 (en) * 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
WO2005125209A1 (en) * 2004-06-22 2005-12-29 Stratech Systems Limited Method and system for surveillance of vessels
US7274378B2 (en) * 2004-07-29 2007-09-25 Rand Mcnally & Company Customized wall map printing system
JP2008512756A (ja) * 2004-09-15 2008-04-24 ノキア コーポレイション 画面上におけるコンテンツのハンドリングおよびスクロール
US8744852B1 (en) * 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
KR20060031959A (ko) * 2004-10-11 2006-04-14 가온미디어 주식회사 디지털 방송 수신기에 채널 전환 방법
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7847792B2 (en) * 2005-08-15 2010-12-07 Tektronix, Inc. Simple integrated control for zoom/pan functions
US8031206B2 (en) * 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
EP1955214A4 (en) * 2005-11-07 2010-01-06 Google Inc LOCAL RESEARCH AND MAPPING FOR MOBILE DEVICES
US8736761B2 (en) 2006-06-09 2014-05-27 Thomson Licensing System and method for closed captioning
JP4904108B2 (ja) * 2006-07-25 2012-03-28 富士フイルム株式会社 撮影装置及び画像表示制御方法
US10503342B2 (en) * 2006-08-04 2019-12-10 Apple Inc. User interface spaces
US20080118237A1 (en) * 2006-11-22 2008-05-22 Rainer Wegenkittl Auto-Zoom Mark-Up Display System and Method
US8166410B2 (en) * 2006-12-27 2012-04-24 Mlslistings Inc. Methods and systems of online mapping and planning driving tours
KR101310230B1 (ko) * 2007-01-17 2013-09-24 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
EP1959389B1 (en) * 2007-02-16 2017-11-15 Axis AB Providing area zoom functionality for a camera
US20080288888A1 (en) * 2007-05-15 2008-11-20 E-Image Data Corporation Computer User Interface for a Digital Microform Imaging Apparatus
JP5053731B2 (ja) * 2007-07-03 2012-10-17 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US20090254841A1 (en) * 2007-11-12 2009-10-08 Move Sales, Inc. Apparatus, method, and computer program product for characterizing user-defined areas
US20090132961A1 (en) * 2007-11-16 2009-05-21 Idelix Software Inc. Tunable system for geographically-based online advertising
US20090213218A1 (en) * 2008-02-15 2009-08-27 Andrew Cilia System and method for multi-resolution storage of images
CN101247489A (zh) 2008-03-20 2008-08-20 南京大学 一种用于数字电视细节实时重现的方法
WO2009120303A1 (en) * 2008-03-24 2009-10-01 Google Inc. Panoramic images within driving directions
US8468469B1 (en) * 2008-04-15 2013-06-18 Google Inc. Zooming user interface interactions
US8068983B2 (en) * 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
KR101009881B1 (ko) 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
JP5116608B2 (ja) * 2008-08-20 2013-01-09 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US20100077304A1 (en) * 2008-09-19 2010-03-25 Microsoft Corporation Virtual Magnification with Interactive Panning
JP5127686B2 (ja) * 2008-12-11 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、ならびに、撮像装置
JP2010147808A (ja) * 2008-12-18 2010-07-01 Olympus Imaging Corp 撮像装置および撮像装置における画像処理方法
US20100188579A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Control and Present a Picture-In-Picture (PIP) Window Based on Movement Data
US8761753B2 (en) 2009-04-23 2014-06-24 Qualcomm Incorporated Communication of an interference condition in wireless communications systems
US8319801B2 (en) * 2009-05-08 2012-11-27 International Business Machines Corporation Magnifying content on a graphical display
US20120092253A1 (en) * 2009-06-22 2012-04-19 Pourang Irani Computer Input and Output Peripheral Device
WO2011090467A1 (en) * 2009-12-28 2011-07-28 Hillcrest Laboratories Inc. Tv internet browser
US8365074B1 (en) * 2010-02-23 2013-01-29 Google Inc. Navigation control for an electronic device
US9335894B1 (en) * 2010-03-26 2016-05-10 Open Invention Network, Llc Providing data input touch screen interface to multiple users based on previous command selections
US9508322B2 (en) * 2010-05-28 2016-11-29 Qualcomm Incorporated Text box resizing
KR20120002834A (ko) 2010-07-01 2012-01-09 삼성전자주식회사 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
KR20120015620A (ko) 2010-08-12 2012-02-22 삼성전자주식회사 디스플레이 방법 및 장치
US8522158B2 (en) * 2010-10-19 2013-08-27 Apple Inc. Systems, methods, and computer-readable media for providing a dynamic loupe for displayed information
US20120113019A1 (en) * 2010-11-10 2012-05-10 Anderson Michelle B Portable e-reader and method of use
US20120147246A1 (en) * 2010-12-13 2012-06-14 Research In Motion Limited Methods And Apparatus For Use In Enabling An Efficient Review Of Photographic Images Which May Contain Irregularities
US9128960B2 (en) * 2011-01-14 2015-09-08 Apple Inc. Assisted image selection
TW201237726A (en) * 2011-03-04 2012-09-16 Sunplus Technology Co Ltd Rapid screen control system
KR101770206B1 (ko) 2011-04-06 2017-08-22 엘지전자 주식회사 이동 단말기 및 이를 이용한 사용자 인터페이스 제공 방법
US9146703B2 (en) * 2011-04-08 2015-09-29 Nintendo Co., Ltd. Storage medium, information processing apparatus, information processing system and information processing method
JP5791364B2 (ja) * 2011-05-16 2015-10-07 キヤノン株式会社 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体
MX2013014731A (es) * 2011-06-17 2014-02-11 Thomson Licensing Navegacion de video a traves de ubicacion de objetos.
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
US8836703B2 (en) * 2011-09-20 2014-09-16 General Electric Company Systems and methods for accurate measurement with a mobile device
US20130156274A1 (en) * 2011-12-19 2013-06-20 Microsoft Corporation Using photograph to initiate and perform action
US9047376B2 (en) * 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition
WO2013166322A1 (en) * 2012-05-04 2013-11-07 Skybox Imaging, Inc. Overhead image viewing systems and methods
US9256983B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. On demand image overlay
JP5924203B2 (ja) * 2012-09-12 2016-05-25 ブラザー工業株式会社 画像表示制御装置、画像表示制御方法およびプログラム
US9292129B2 (en) * 2012-10-30 2016-03-22 Smart Technologies Ulc Interactive input system and method therefor
KR101494880B1 (ko) * 2012-11-07 2015-02-25 한국과학기술연구원 인지적 아바타 생성 장치 및 방법
US20140130099A1 (en) * 2012-11-08 2014-05-08 General Instrument Corporation User-intiated feedback and correction of program metadata through an electronic program guide
US20140195975A1 (en) * 2013-01-04 2014-07-10 Samsung Electronics Co., Ltd. Display apparatus and method of controlling a display apparatus
GB2509541A (en) 2013-01-08 2014-07-09 Ibm Display tool with a magnifier with a crosshair tool.
JP5761216B2 (ja) * 2013-01-22 2015-08-12 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
US20150212660A1 (en) * 2013-01-25 2015-07-30 Xiaoqiang Su System and method for displaying multiple applications
US8984439B2 (en) * 2013-02-14 2015-03-17 Citibank, N.A. Methods and systems for managing a graphical user interface
US9342759B1 (en) * 2013-03-14 2016-05-17 Hrl Laboratories, Llc Object recognition consistency improvement using a pseudo-tracklet approach
US20140313333A1 (en) * 2013-04-18 2014-10-23 Ford Global Technologies, Llc System and method for imaging a driver of a vehicle
US9885862B2 (en) * 2013-05-01 2018-02-06 Bio-Rad Laboratories, Inc. Adjustable digital microscope display
KR102135092B1 (ko) 2013-06-03 2020-07-17 엘지전자 주식회사 영상표시장치의 동작 방법
JP6429454B2 (ja) * 2013-11-28 2018-11-28 キヤノン株式会社 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
US9626084B2 (en) * 2014-03-21 2017-04-18 Amazon Technologies, Inc. Object tracking in zoomed video
US10409366B2 (en) * 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
CN104360882B (zh) 2014-11-07 2018-07-27 北京奇虎科技有限公司 一种浏览器中对网页中图片进行显示方法和装置
US10275436B2 (en) * 2015-06-01 2019-04-30 Apple Inc. Zoom enhancements to facilitate the use of touch screen devices
US20170052968A1 (en) * 2015-08-17 2017-02-23 Digitalglobe, Inc. Analyzing and viewing social interactions based on personal electronic devices
US10229522B2 (en) * 2016-09-23 2019-03-12 Apple Inc. Fixed size scope overlay for digital images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754348A (en) * 1996-05-14 1998-05-19 Planetweb, Inc. Method for context-preserving magnification of digital image regions

Also Published As

Publication number Publication date
EP3360337A4 (en) 2018-10-24
KR20220165707A (ko) 2022-12-15
KR102474244B1 (ko) 2022-12-06
US20210405838A1 (en) 2021-12-30
WO2017086559A1 (en) 2017-05-26
US11150787B2 (en) 2021-10-19
CN108293146A (zh) 2018-07-17
KR20170059242A (ko) 2017-05-30
US20170147174A1 (en) 2017-05-25
EP3360337A1 (en) 2018-08-15

Similar Documents

Publication Publication Date Title
CN108293146B (zh) 图像显示设备及其操作方法
US10379698B2 (en) Image display device and method of operating the same
EP3057312A2 (en) Image display apparatus and method
KR102414806B1 (ko) 영상 표시 장치 및 영상 표시 방법
CN105763921B (zh) 图像显示设备和方法
US11500509B2 (en) Image display apparatus and image display method
EP3024220A2 (en) Display apparatus and display method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant