WO2018066788A1 - 디스플레이 장치 - Google Patents

디스플레이 장치 Download PDF

Info

Publication number
WO2018066788A1
WO2018066788A1 PCT/KR2017/006620 KR2017006620W WO2018066788A1 WO 2018066788 A1 WO2018066788 A1 WO 2018066788A1 KR 2017006620 W KR2017006620 W KR 2017006620W WO 2018066788 A1 WO2018066788 A1 WO 2018066788A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
partial image
partial
screen
sub
Prior art date
Application number
PCT/KR2017/006620
Other languages
English (en)
French (fr)
Inventor
이혜승
황정환
안상진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US16/339,696 priority Critical patent/US20190286318A1/en
Priority to EP17858583.2A priority patent/EP3525453A4/en
Priority to CN201780068224.8A priority patent/CN109937569A/zh
Publication of WO2018066788A1 publication Critical patent/WO2018066788A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Definitions

  • the present invention relates to a display apparatus that provides a plurality of partial images included in an omnidirectional image on a single screen by using a sub-screen such as a picture-in-picture (PIP).
  • a sub-screen such as a picture-in-picture (PIP).
  • a representative example is a photographing apparatus called a 360 degree camera and a terminal or display apparatus displaying an image photographed by a 360 degree camera.
  • the omnidirectional photographed image it is common to display an image of a partial region corresponding to a specific viewpoint among the omnidirectional photographed images, and then move the viewpoint to display an image of another region by a user's manipulation.
  • the user when displaying an image of a part of the omnidirectional image, the user may not view the image of the other area together.
  • a viewpoint when a user moves a viewpoint to watch an image of another area, it may be difficult to smoothly watch the image while the viewpoint is moved to a desired area.
  • a large screen display device such as a TV
  • a mobile terminal such as a smartphone
  • methods for providing an omnidirectional photographed image to the user more effectively may be implemented by using the large screen.
  • the display device may provide a sub-screen (eg, picture-in-picture) that outputs an image by using a partial area of the display, in addition to the main screen that outputs the image to the entire area of the display.
  • This sub-screen may be displayed when the zoom function is executed or when multiple channels are provided.
  • the subscreen may display the same image as the main screen or may display another image.
  • An object of the present invention is to provide a display device that can provide a more effective viewing environment when viewing the omnidirectional image by using the main screen and the sub-screen displayed through the display unit.
  • a display apparatus may include a first partial image displayed on a main screen, having the same viewpoint as that of the first partial image, and including the first partial image.
  • a display unit for displaying a second partial image through a sub-screen, a user input interface unit for receiving a viewpoint moving command for the sub-screen, and a viewpoint moving from the viewpoint of the second partial image based on the received viewpoint moving command
  • a controller configured to display a third partial image corresponding to the sub-picture and maintain the viewpoint of the first partial image displayed on the main screen when the viewpoint moves to the third partial image.
  • the controller receives a selection request for the third partial image displayed on the sub-screen according to the viewpoint movement command, and in response to the received selection request, the first partial image displayed on the main screen. May be changed to and displayed as a fourth partial image included in the third partial image having the same viewpoint as that of the third partial image.
  • the display apparatus may further include a storage unit storing an original image of the omnidirectional image, wherein the controller generates a distortion image for displaying the entire area of the omnidirectional image through the display unit.
  • the first partial image may be obtained from an original image stored in the storage unit, and the second partial image may be obtained from the distorted image.
  • the controller is configured to display the second partial image on the sub-screen in response to a request to execute a zoom function with respect to the omnidirectional image, and indicate an area corresponding to the first partial image among the second partial images.
  • a guide may be displayed on the second partial image.
  • the controller may receive a zoom-in request or a zoom-out request for the fourth partial image displayed through the main screen, and in response to the received request, the controller may enlarge or reduce the enlarged image of the fourth partial image.
  • the area guide may be displayed on the main screen, and the size of the area guide may be adjusted to correspond to an area of the enlarged image or the reduced image.
  • the second partial image corresponds to the omnidirectional image
  • the controller receives a request for moving the region guide and displays the region guide by moving the position of the region guide based on the received request.
  • the partial image corresponding to the moved position of the area guide may be displayed on the main screen.
  • the controller may be configured to receive a zoom command for a partial region of the first partial image displayed through the main screen, obtain an enlarged or reduced image of the image of the partial region in response to the received zoom command,
  • the sub-screen including the obtained image may be displayed at a position corresponding to the partial region.
  • the control unit receives a movement request for moving the display position of the sub-screen, moves and displays the position of the sub-screen based on the received movement request, and enlarges or enlarges an area corresponding to the moved position.
  • the reduced image may be displayed through the sub-screen.
  • the controller In response to the received zoom command, acquires an enlarged or reduced image of an image of a region corresponding to the partial region of an image opposite to the first partial image of the omnidirectional image, and obtains the obtained image.
  • the included subscreen may be displayed at a position corresponding to the partial region.
  • the position of the partial region may correspond to the display position of the pointer corresponding to the movement of the remote controller.
  • a display device may include a storage unit which stores an original image of an omnidirectional image, and displays a first partial image of the omnidirectional image through a main screen, and is identical to the viewpoint of the first partial image.
  • a display unit having a viewpoint and displaying a second partial image including the first partial image through a sub-screen, and a distortion image for displaying the entire region of the omnidirectional image on one screen through the display unit.
  • the first partial image is obtained from the original image
  • the second partial image is obtained from the distorted image.
  • the display device may display a partial image of the omnidirectional image through the main screen and a sub-screen, and move and display only the partial image of the subscreen when the viewpoint of the omnidirectional image moves. Accordingly, the user can smoothly watch the omnidirectional image through the partial image displayed on the main screen even when the viewpoint of the omnidirectional image is moved.
  • the display apparatus may provide a partial screen of each of the plurality of viewpoints of the omnidirectional image to the user through the display unit.
  • FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention.
  • Figure 3 shows an example of the actual configuration of the remote control device according to an embodiment of the present invention.
  • FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of displaying an omnidirectional image of a display apparatus according to an exemplary embodiment.
  • 6A to 6B are diagrams illustrating an example in which partial images included in an omnidirectional image are displayed through a main screen and a sub-screen of a display apparatus.
  • 7A to 7D are exemplary views illustrating the omnidirectional image display method illustrated in FIG. 5.
  • FIG. 8 is a flowchart for describing a method of displaying an omnidirectional image of a display device according to another exemplary embodiment.
  • FIG. 9A to 9C are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • 10A to 10C are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • FIG. 8 are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • 12A to 12B are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • FIG. 13 is a flowchart for describing a method of displaying an omnidirectional image of a display apparatus according to another exemplary embodiment.
  • FIG. 14A to 14D are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • 15A to 15D are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • 16A to 16B are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • FIG. 1 is a block diagram illustrating a configuration of a display apparatus according to an exemplary embodiment.
  • the display apparatus 100 may be implemented as a TV, a monitor, a projector, or a device including the same.
  • the display apparatus 100 may include a broadcast receiver 130, an external device interface 135, a storage 140, a user input interface 150, a camera 160, a controller 170, a display 180, The audio output unit 185 and the power supply unit 190 may be included.
  • the broadcast receiver 130 may include a tuner 131, a demodulator 132, and a network interface unit 133.
  • the tuner 131 may tune a specific broadcast channel according to a channel tuning command.
  • the tuner 131 may receive a broadcast signal for a tuned specific broadcast channel.
  • the demodulator 132 may separate the received broadcast signal into a video signal, an audio signal, and a data signal associated with a broadcast program, and may restore the separated video signal, the audio signal, and the data signal into a form capable of outputting the broadcast signal.
  • the network interface unit 133 may provide an interface for connecting the display apparatus 100 to a wired / wireless network including an internet network.
  • the network interface unit 133 may transmit or receive data with another user or another electronic device through the connected network or another network linked to the connected network.
  • some content data stored in the display apparatus 100 may be transmitted to a user selected from another user or another electronic device registered in the display apparatus 100 or a selected electronic apparatus.
  • the network interface unit 133 may access a predetermined web page through a connected network or another network linked to the connected network. That is, by accessing a predetermined web page through the network, it is possible to send or receive data with the server.
  • the network interface unit 133 may receive content or data provided by a content provider or a network operator. That is, the network interface unit 133 may receive content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • content such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network.
  • the network interface unit 133 may receive the update information and the update file of the firmware provided by the network operator, and may transmit data to the Internet or the content provider or the network operator.
  • the network interface unit 133 may select and receive a desired application from among applications that are open to the public through the network.
  • the external device interface unit 135 may receive an application or a list of applications in a neighboring external device and transmit the received application to the controller 170 or the storage 140.
  • the external device interface unit 135 may provide a connection path between the display apparatus 100 and the external device.
  • the display apparatus 100 may be connected to the external device by wire or wirelessly through the external device interface unit 135.
  • the external device interface unit 135 may receive one or more of an image and audio output from the external device and transmit the received one or more to the controller 170.
  • the external device connectable to the external device interface unit 135 may be any one of a set top box, a Blu-ray player, a DVD player, a game machine, a sound bar, a terminal such as a smartphone, a PC, a USB memory, and a home theater.
  • the storage unit 140 may store a program for processing and controlling each signal in the controller 170, and may store a signal-processed video, audio, or data signal.
  • the storage 140 may perform a function for temporarily storing an image, audio, or data signal input from the external device interface 135, the network interface 133, or the camera 160.
  • the channel storage function may also store information about a predetermined image.
  • the storage 140 may store an application or a list of applications input from the external device interface 135 or the network interface 133.
  • the display apparatus 100 may reproduce and provide a content file (video file, still image file, music file, document file, application file, etc.) stored in the storage 140 to the user.
  • a content file video file, still image file, music file, document file, application file, etc.
  • the user input interface unit 150 may transmit a signal input by the user to the controller 170, or may transmit a signal from the controller 170 to the user.
  • the user input interface unit 150 may be configured according to various communication methods such as Bluetooth, Ultra Wideband (UWB), ZigBee, RF (Radio Frequency) communication, or Infrared (IR) communication.
  • the remote controller 200 may receive and process a control signal such as power on / off, channel selection, screen setting, or the like, or transmit a control signal from the controller 170 to the remote controller 200.
  • the user input interface unit 150 may transmit a control signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.
  • a local key such as a power key, a channel key, a volume key, and a set value
  • the image signal processed by the controller 170 may be input to the display unit 180 and displayed as an image corresponding to the image signal.
  • the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • the audio signal processed by the controller 170 may be audio output to the audio output unit 185.
  • the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 135.
  • controller 170 may control overall operations of the display apparatus 100.
  • controller 170 may control the display apparatus 100 by a user command or an internal program input through the user input interface unit 150, and access the network to display an application or a list of applications desired by the user. Can be downloaded to (100).
  • the controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display unit 180 or the audio output unit 185.
  • controller 170 may output an external device input through the external device interface unit 135 according to an external device image playback command received through the user input interface unit 150, for example, from a camera or a camcorder.
  • the video signal or the audio signal may be output through the display unit 180 or the audio output unit 185.
  • the controller 170 may control the display unit 180 to display an image, for example, a broadcast image input through the tuner 131, or an external input input through the external device interface unit 135.
  • An image, an image input through a network interface unit, or an image stored in the storage 140 may be controlled to be displayed on the display unit 180.
  • the image displayed on the display unit 180 may be a still image or a video, and may be a 2D image or a 3D image.
  • the controller 170 may control the content stored in the display apparatus 100, the received broadcast content, or the external input content input from the outside to be reproduced.
  • the content may include a broadcast image, an external input image, an audio file, It may be in various forms such as a still image, a connected web screen, and a document file.
  • the display unit 180 converts an image signal, a data signal, an OSD signal processed by the controller 170, or an image signal, data signal, etc. received from the external device interface unit 135 into R, G, and B signals, respectively. You can generate a signal.
  • the display device 100 shown in FIG. 1 is only an embodiment of the present invention. Some of the illustrated components may be integrated, added, or omitted according to the specifications of the display apparatus 100 that is actually implemented.
  • two or more components may be combined into one component as needed, or one component may be divided into two or more components.
  • the function performed in each block is for explaining an embodiment of the present invention, the specific operation or device does not limit the scope of the present invention.
  • the display apparatus 100 does not include the tuner 131 and the demodulator 132, as shown in FIG. 1, but the network interface unit 133 or the external device interface unit ( 135 may be received and played back.
  • the display apparatus 100 may be divided into an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services, and a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
  • an image processing apparatus such as a set-top box, such as for receiving broadcast signals or contents according to various network services
  • a content reproducing apparatus for playing contents input from the image processing apparatus. Can be implemented.
  • the operation method of the display apparatus according to the embodiment of the present invention described below is not only the display apparatus 100 as described with reference to FIG. 1, but also an image processing apparatus or a display unit such as the separated set-top box or the like. 180 may be performed by any one of the content reproduction device including the audio output unit 185.
  • FIG. 2 is a block diagram of a remote control apparatus according to an embodiment of the present invention
  • Figure 3 shows an actual configuration of the remote control apparatus according to an embodiment of the present invention.
  • the remote control apparatus 200 includes a fingerprint recognition unit 210, a wireless communication unit 220, a user input unit 230, a sensor unit 240, an output unit 250, and a power supply unit 260. ), A storage unit 270, a control unit 280, and a voice acquisition unit 290.
  • the wireless communication unit 220 transmits and receives a signal to and from a display device according to an embodiment of the present invention described above.
  • the remote control apparatus 200 includes an RF module 221 capable of transmitting and receiving a signal with the display apparatus 100 according to the RF communication standard, and capable of transmitting and receiving a signal with the display apparatus 100 according to the IR communication standard.
  • IR module 223 may be provided.
  • the remote control apparatus 200 may include a Bluetooth module 225 capable of transmitting and receiving a signal with the display apparatus 100 according to the Bluetooth communication standard.
  • the remote control apparatus 200 includes an NFC module 227 capable of transmitting and receiving a signal to and from the display apparatus 100 according to a Near Field Communication (NFC) communication standard, and displaying according to a WLAN (Wireless LAN) communication standard.
  • WLAN module 229 capable of transmitting and receiving signals to and from device 100 may be provided.
  • the remote control apparatus 200 transmits a signal containing information regarding the movement of the remote control apparatus 200 to the display apparatus 100 through the wireless communication unit 220.
  • the remote control device 200 may receive a signal transmitted from the display device 100 through the RF module 221, and if necessary, the power supply to the display device 100 via the IR module 223 / Commands regarding off, channel change, volume change, etc. can be sent.
  • the user input unit 230 may include a keypad, a button, a touch pad, or a touch screen.
  • the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by manipulating the user input unit 230.
  • the user input unit 230 includes a hard key button, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 through a push operation of the hard key button. This will be described with reference to FIG. 3.
  • the remote control apparatus 200 may include a plurality of buttons.
  • the plurality of buttons may include a fingerprint recognition button 212, a power button 231, a home button 232, a live button 233, an external input button 234, a volume control button 235, a voice recognition button 236, It may include a channel change button 237, a confirmation button 238, and a back button 239.
  • the fingerprint recognition button 212 may be a button for recognizing a fingerprint of a user. In one embodiment, the fingerprint recognition button 212 may be pushed to receive a push operation and a fingerprint recognition operation.
  • the power button 231 may be a button for turning on / off the power of the display apparatus 100.
  • the home button 232 may be a button for moving to the home screen of the display apparatus 100.
  • the live button 233 may be a button for displaying a live broadcast program.
  • the external input button 234 may be a button for receiving an external input connected to the display apparatus 100.
  • the volume control button 235 may be a button for adjusting the volume of the volume output from the display apparatus 100.
  • the voice recognition button 236 may be a button for receiving a user's voice and recognizing the received voice.
  • the channel change button 237 may be a button for receiving a broadcast signal of a specific broadcast channel.
  • the confirmation button 238 may be a button for selecting a specific function, and the back button 239 may be
  • the user input unit 230 When the user input unit 230 includes a touch screen, the user may input a command related to the display apparatus 100 to the remote control apparatus 200 by touching a soft key of the touch screen.
  • the user input unit 230 may include various kinds of input means that the user can operate, such as a scroll key or a jog key, and the embodiment does not limit the scope of the present invention.
  • the sensor unit 240 may include a gyro sensor 241 or an acceleration sensor 243, and the gyro sensor 241 may sense information about the movement of the remote controller 200.
  • the gyro sensor 241 may sense information about the operation of the remote control device 200 based on the x, y, and z axes, and the acceleration sensor 243 may move the speed of the remote control device 200. Information about the data can be sensed.
  • the remote control device 200 may further include a distance measuring sensor, it is possible to sense the distance to the display unit 180 of the display device 100.
  • the output unit 250 may output a video or audio signal corresponding to an operation of the user input unit 235 or a signal transmitted from the display apparatus 100.
  • the user may recognize whether the user input unit 235 is manipulated or whether the display apparatus 100 is controlled through the output unit 250.
  • the output unit 250 is an LED module 251 that is turned on when the user input unit 235 is manipulated or a signal is transmitted to or received from the display apparatus 100 through the wireless communication unit 225, and a vibration module generating vibration. 253, a sound output module 255 for outputting sound, or a display module 257 for outputting an image.
  • the power supply unit 260 supplies power to the remote control device 200, and can reduce power waste by stopping the power supply when the remote control device 200 does not move for a predetermined time.
  • the power supply unit 260 may resume power supply when a predetermined key provided in the remote control apparatus 200 is operated.
  • the storage unit 270 may store various types of programs, application data, and the like necessary for controlling or operating the remote control apparatus 200. If the remote control apparatus 200 transmits and receives a signal wirelessly through the display apparatus 100 and the RF module 221, the remote control apparatus 200 and the display apparatus 100 transmit and receive signals through a predetermined frequency band. .
  • the control unit 280 of the remote control apparatus 200 stores and refers to the storage unit 270 with information about a frequency band for transmitting and receiving a signal wirelessly with the display apparatus 100 paired with the remote control apparatus 200. can do.
  • the controller 280 controls various matters related to the control of the remote controller 200.
  • the controller 280 may display a signal corresponding to a predetermined key manipulation of the user input unit 235 or a signal corresponding to the movement of the remote controller 200 sensed by the sensor unit 240 through the wireless communication unit 220. 100).
  • the voice acquisition unit 290 of the remote control device 200 may obtain a voice.
  • the voice acquirer 290 may include at least one microphone, and may obtain a voice through the microphone.
  • FIG. 4 is demonstrated.
  • FIG. 4 shows an example of using a remote control device according to an embodiment of the present invention.
  • FIG. 4A illustrates that a pointer 205 corresponding to the remote control apparatus 200 is displayed on the display unit 180.
  • the user may move or rotate the remote control apparatus 200 vertically, left and right.
  • the pointer 205 displayed on the display unit 180 of the display apparatus 100 corresponds to the movement of the remote control apparatus 200.
  • the remote control apparatus 200 may be referred to as a spatial remote controller because the pointer 205 is moved and displayed according to the movement in the 3D space as shown in the figure.
  • FIG. 4B illustrates that when the user moves the remote control apparatus 200 to the left side, the pointer 205 displayed on the display unit 180 of the display apparatus 100 also moves to the left side correspondingly.
  • the display apparatus 100 may calculate the coordinates of the pointer 205 from the information about the movement of the remote control apparatus 200.
  • the display apparatus 100 may display the pointer 205 to correspond to the calculated coordinates.
  • FIG. 4C illustrates a case in which the user moves the remote control apparatus 200 away from the display unit 180 while pressing a specific button in the remote control apparatus 200.
  • the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed in to be enlarged and displayed.
  • the selection area in the display unit 180 corresponding to the pointer 205 may be zoomed out and reduced.
  • the selection area may be zoomed out, and when the remote control apparatus 200 approaches the display unit 180, the selection area may be zoomed in.
  • recognition of up, down, left and right movements may be excluded when a specific button in the remote control apparatus 200 is pressed. That is, when the remote control apparatus 200 moves away from or approaches the display unit 180, the up, down, left, and right movements are not recognized, and only the front and back movements may be recognized. In a state in which a specific button in the remote control apparatus 200 is not pressed, only the pointer 205 moves according to the up, down, left, and right movements of the remote control apparatus 200.
  • the moving speed or the moving direction of the pointer 205 may correspond to the moving speed or the moving direction of the remote control apparatus 200.
  • the pointer in the present specification refers to an object displayed on the display unit 180 in response to the operation of the remote control apparatus 200.
  • the pointer 205 may be an object of various shapes in addition to the arrow shape shown in the drawing.
  • the concept may include a point, a cursor, a prompt, a thick outline, and the like.
  • the pointer 205 may be displayed corresponding to any one of the horizontal axis and the vertical axis of the display unit 180, or may be displayed corresponding to a plurality of points such as a line and a surface. Do.
  • FIG. 5 is a flowchart illustrating a method of displaying an omnidirectional image of a display apparatus according to an exemplary embodiment.
  • the omnidirectional image is defined as being an image photographed using an omnidirectional photographing camera (for example, a 360 degree camera) as an image obtained by photographing all regions of a spherical shape around the camera.
  • an omnidirectional photographing camera for example, a 360 degree camera
  • the display apparatus 100 may display the first partial image of the omnidirectional image through the main screen of the display 180 (S100).
  • the main screen may mean a screen displayed on the entire area of the display unit 180.
  • the sub-screen may mean a screen displayed on a portion of the display unit 180.
  • the sub-screen may be implemented as a picture-in-picture (PIP), but is not limited thereto.
  • the first partial image may mean an image of a partial region corresponding to a specific view of the omnidirectional image.
  • the first partial image may mean an image of the entire area of the omnidirectional image. Since the omnidirectional image is an image in which all regions having a spherical shape are photographed, when the first partial image is an image of the entire region of the omnidirectional image, the first partial image displayed on the display unit 180 having a rectangular shape is generally used. Distortion may occur. On the other hand, when the first partial image is an image of a partial region of the omnidirectional image, distortion may not occur in the first partial image displayed on the display unit 180.
  • the display apparatus 100 may display a second partial image corresponding to the first partial image through the sub-screen (S110).
  • the controller 170 of the display apparatus 100 may display the sub-screen in a circle to indicate that the image being provided is an omnidirectional image. That is, the second partial image in which distortion is displayed through the circular sub-screen may be displayed, thereby more effectively indicating that the currently displayed image is an omnidirectional image.
  • Steps S100 and S110 will be described with reference to FIGS. 6A to 6B.
  • 6A to 6B are diagrams illustrating an example in which partial images included in an omnidirectional image are displayed through a main screen and a sub-screen of a display apparatus.
  • the omnidirectional photographing camera may photograph the entire area 400 having a spherical shape, and generate an omnidirectional image based on the photographing result.
  • the controller 170 may display the first partial image 501 including the partial region 401 corresponding to a specific time point in the entire region 400 of the omnidirectional image on the main screen of the display 180. .
  • the controller 170 may display the second partial image 502 corresponding to the first partial image 501 on the sub-screen of the display 180.
  • the second partial image 502 may correspond to the same view as the first partial image 501 and may include the first partial image 501.
  • the sub-screen may be implemented in a circular shape, and distortion may occur in the second partial image 502. On the other hand, distortion may not occur in the first partial image 501 displayed through the main screen.
  • the controller 170 extracts the first partial image 501 corresponding to the partial region 401, that is, the image without distortion, from the original image of the omnidirectional image stored in the storage 140, and extracts the extracted image.
  • the first partial image 501 may be displayed on the main screen.
  • the controller 170 displays the entire area 400 of the omnidirectional image through the display unit 180
  • the display unit 180 displays the entire area 400 on the flat display unit 180. Distortion may occur in the image displayed in the). Accordingly, the controller 170 may generate a distortion image for the omnidirectional image. That is, the distorted image may be an image for displaying the entire area of the omnidirectional image through one screen of the display unit 180. As the second partial image 502 is extracted from the distorted image and displayed, distortion may exist in the second partial image 502.
  • the user may intuitively grasp that the image currently displayed through the display unit 180 is an omnidirectional image through the sub-screen on which the distorted second partial image 502 is displayed.
  • the display apparatus 100 may receive a viewpoint moving command with respect to the sub-screen in order to move the viewpoint of the second partial image (S120).
  • the controller 170 may receive a viewpoint moving command for the sub-screen from the remote controller 200 through the user input interface unit 150.
  • the viewpoint movement command may be generated in response to the input of a direction button included in the remote control apparatus 200 or the movement of the remote control apparatus 200.
  • the display apparatus 100 may display the third partial image corresponding to the moved time point through the sub-screen according to the received view movement command (S130).
  • the controller 170 may move the viewpoint of the second partial image based on the received viewpoint movement command. As the viewpoint is moved, the partial image displayed on the sub screen may also be moved. According to an exemplary embodiment, the control unit 170 more effectively controls the partial image included in the omnidirectional image according to the viewpoint movement by using the effect of rotating the sub-screen implemented in a circle like a sphere. I can display it.
  • the first partial image displayed on the main screen may not be changed. Accordingly, the user may search for another partial image while watching the first partial image displayed on the main screen.
  • the display apparatus 100 may display a fourth partial image corresponding to the third partial image through the main screen (S140).
  • the controller 170 may change and display the partial image displayed on the sub-screen as the third partial image according to operation S130, and receive a request for selecting the third partial image through the user input interface unit 150. In response to the received selection request, the controller 170 may change and display the first partial image displayed on the main screen as a fourth partial image corresponding to the third partial image.
  • the user watches the first partial image of the omnidirectional image through the main screen and simultaneously moves another partial image while moving the viewpoint of the partial image displayed on the subscreen. You can navigate. Therefore, the user can smoothly watch the partial image through the main screen while moving the viewpoint of the omnidirectional image.
  • FIG. 5 A detailed example of the omnidirectional image display method illustrated in FIG. 5 will be described with reference to FIGS. 7A to 7D.
  • 7A to 7D are exemplary views illustrating the omnidirectional image display method illustrated in FIG. 5.
  • the controller 170 displays the first partial image 501 of the omnidirectional image on the main screen of the display 180, and displays the second partial image corresponding to the first partial image 501 ( 502 may be displayed on the sub-screen of the display unit 180.
  • the controller 170 may display a viewpoint movement button 610 for moving the viewpoint of the partial image displayed on the main screen.
  • the viewpoint movement button 610 is selected by the pointer 205 of the remote control apparatus 200
  • the controller 170 displays the viewpoint of the partial image displayed on the main screen in response to the selected viewpoint movement button 610. You can move down, left, or right.
  • the controller 170 may receive a viewpoint movement command for the second partial image displayed on the sub-screen.
  • the controller 170 may receive the viewpoint movement command from the remote controller 200. As described above with reference to FIG. 5, the viewpoint movement command may be generated in response to the input of a direction button included in the remote controller 200 or the movement of the remote controller 200.
  • the controller 170 may move the viewpoint of the second partial image displayed on the sub-screen up, down, left, or right based on the received viewpoint movement command. For example, when the viewpoint moving command is a command for moving the viewpoint to the left side, the controller 170 may move to the left side from the viewpoint of the first partial image (the viewpoint of the second partial image is also the same) of the entire area 400 of the omnidirectional image. Can be moved to The controller 170 may display the third partial image 503 corresponding to the area 403 centered on the moved view through the sub-screen of the display 180. Like the second partial image 502, distortion may occur in the third partial image 503 and the third partial image 503. Based on the displayed third partial image 503, the user may continuously watch the first partial image 501 and search for the third partial image 503 corresponding to the other area 403.
  • the controller 170 may receive a selection input for the third partial image 503.
  • the selection input may also be received from the remote control device 200.
  • the control unit 170 may change the first partial image 501 displayed on the main screen to a fourth partial image 504 corresponding to the third partial image 503 in response to the received selection input.
  • the fourth partial image 504 may have the same view as the third partial image 503.
  • the fourth partial image 504 may represent the same area as that of the third partial image 503 or may indicate an area included in the third partial image 503.
  • the fourth partial image 504 may be displayed in a form in which distortion does not exist.
  • FIG. 8 is a flowchart for describing a method of displaying an omnidirectional image of a display device according to another exemplary embodiment.
  • the display apparatus 100 may support a zoom function.
  • the zoom function includes a first zoom function for displaying an enlarged or reduced image on the entire area of the main screen of the display unit 180, and a second zoom function for displaying an enlarged or reduced image for a partial area of the main screen. can do.
  • the zoom function described with reference to FIG. 8 may correspond to the first zoom function.
  • the zoom function to be described later in FIG. 13 may correspond to the second zoom function.
  • the display apparatus 100 may display the first partial image of the omnidirectional image through the main screen (S200). Since step S200 is substantially the same as step S100 of FIG. 5, a description thereof will be omitted.
  • the display apparatus 100 may receive a zoom function execution request for the omnidirectional image (S210). In response to the received zoom function execution request, the display apparatus 100 may display a second partial image including the first partial image on the sub-screen (S220).
  • the second partial image may be an image including the first partial image, and distortion may exist in the second partial image.
  • the sub-screen displayed at this time may be displayed in a circular shape as described above in FIG. 5, or may be displayed in a rectangular shape.
  • a distorted image including the entire area of the omnidirectional image may be displayed through the subscreen.
  • an area guide indicating an area of the first partial image currently displayed on the main screen may be further displayed.
  • the area guide may be changed in size according to a zoom-in or zoom-out request for the omnidirectional image. For example, the size of the area guide may be reduced when the zoom-in request is received, and the size of the area guide may be increased when the zoom-out request is received.
  • the display apparatus 100 may select a third partial image to perform a zoom function based on the displayed sub-screen (S230), and display a fourth partial image included in the selected third partial image through the main screen. (S240).
  • the controller 170 may display a partial image corresponding to the moved view on the subscreen based on the viewpoint movement command for the subscreen.
  • the controller 170 may move the viewpoint of the second partial image based on the viewpoint movement command. As the viewpoint is moved, the partial image displayed on the sub screen may be changed. As described above with reference to FIG. 5, the controller 170 may more effectively display a state in which a partial image included in the omnidirectional image is changed by using an effect of rotating the sub-screen.
  • the controller 170 may change the first partial image displayed on the main screen to correspond to the partial image of the sub-screen. In some embodiments, the controller 170 may not change the first partial image. It may not.
  • steps S230 and S240 will be described later with reference to FIGS. 9A to 12B.
  • the display apparatus 100 may perform a zoom function on the fourth partial image displayed on the main screen, and change and display the fourth partial image based on the result of performing the zoom function (S250).
  • the controller 170 may enlarge and display the fourth partial image.
  • the controller 170 may view the fourth partial image. It can be reduced and displayed.
  • an image of a portion of the edge area of the fourth partial image that is previously displayed may not be displayed through the main screen.
  • an image of an area of the fourth partial image that is previously displayed and an image of a partial region continuous with an edge region of the fourth partial image may be further displayed on the main screen.
  • FIG. 8 Various embodiments of the omnidirectional image display method illustrated in FIG. 8 will be described with reference to FIGS. 9A to 12B.
  • FIG. 9A to 9C are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • the controller 170 may display the first partial image 501 of the omnidirectional image through the display 180.
  • the controller 170 may receive a zoom function execution request for the omnidirectional image through the remote controller 200 or the like. In response to the received zoom function execution request, the controller 170 may display the second partial image 502 on the sub-screen. As described above, the sub-screen may be displayed in a PIP form.
  • An area corresponding to the second partial image 502 may include an area corresponding to the first partial image 501. 6A to 6B, distortion may exist in the second partial image 502.
  • the controller 170 may display an area guide 620 indicating an area of the first partial image 501 displayed on the current main screen on the second partial image 502 included in the sub-screen. Based on the displayed area guide 620, the user may grasp the position and size of the first partial image 501 displayed on the main screen among the second partial images 502.
  • the controller 170 may further display an enlargement / reduction bar 621 indicating an enlargement or reduction degree of the first partial image 501 displayed on the main screen.
  • the user may determine the degree of enlargement or reduction of the first partial image 501 based on the enlargement / reduction bar 621.
  • the controller 170 receives a zoom-in request or a zoom-out request for the first partial image 501 through the zoom bar 621 and based on the received request, the first portion. An enlargement or reduction operation may be performed on the image 501.
  • the controller 170 may receive a viewpoint movement command for the second partial image 502 displayed on the sub-screen. Based on the received viewpoint movement command, the controller 170 may move the viewpoint of the partial image displayed on the sub-screen up, down, left, or right.
  • the user may change the direction button of the remote controller 200 a plurality of times. It may be input or continuously input for a predetermined time. Alternatively, the remote control device 200 may be moved for a predetermined time in a specific direction. Accordingly, the controller 170 may display the third partial image 511 corresponding to the image opposite to the second partial image 502 on the sub screen.
  • the partial image displayed on the main screen may also be automatically changed. That is, the controller 170 may automatically change the first partial image 501 displayed on the main screen to the fourth partial image 510 included in the third partial image 511.
  • the controller 170 may receive a zoom-in request for the fourth partial image 510.
  • the controller 170 may receive the zoom-in request from the remote controller 200 according to the input of the zoom-in button included in the remote controller 200.
  • the controller 170 may receive a zoom-in request through the zoom bar 621.
  • the controller 170 may display the enlarged fourth partial image 512 on the main screen in response to the received zoom-in request.
  • the enlarged fourth partial image 512 may include a part of the fourth partial image 510 illustrated in FIG. 9B.
  • the controller 170 may adjust the size of the region guide 620 to correspond to the enlarged region of the fourth partial image 512.
  • the size of the area guide 620 displayed on the sub-screen may be reduced.
  • 10A to 10C are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • the control unit 170 displays function sub-screens in response to a zoom function execution request, and provides function buttons 622 ⁇ ⁇ to provide modes related to viewpoint movement of the sub-screen. 624).
  • the embodiment illustrated in FIGS. 10A to 10C corresponds to the case where the first function button 622 is selected
  • the embodiment illustrated in FIGS. 11A to 11B corresponds to the case where the second function button 623 is selected.
  • can do. 12A to 12B may correspond to the case where the third function button 624 is selected.
  • the controller 170 moves the first part of the second part image 502 displayed on the sub-screen, and moves the first part displayed on the main screen.
  • the viewpoint of the image 501 may not be changed. That is, even if the second partial image 502 displayed on the sub-screen is changed to the third partial image 503 according to the view movement command, the first partial image 501 displayed on the main screen may not be changed.
  • the controller 170 receives an input for selecting the third partial image 503 to be displayed on the sub-screen, and in response to the received input, displays the first partial image ( 501 may be displayed as a fourth partial image included in the third partial image 503. Thereafter, the controller 170 may display the enlarged fourth partial image 506 in response to the zoom-in request for the fourth partial image. As the enlarged fourth partial image 506 is displayed, the size of the connection guide 620 displayed on the sub-screen may be reduced.
  • the controller 170 may first receive a zoom-in request before receiving a selection input of the third partial image 503 to be displayed on the sub-screen. In this case, the controller 170 adjusts the size of the connection guide 620 based on the received zoom-in request, and when the selection input of the third partial image 503 is received, the enlarged fourth partial image 506. You can also display immediately.
  • the partial image displayed on the main screen may be maintained until the partial image to be displayed on the subscreen is selected or the zoom-in request is received.
  • FIG. 8 are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • the controller 170 may display the second partial image 502 displayed on the sub-screen on an area opposite to the second partial image 502.
  • the display may be changed to the corresponding third partial image 511. That is, the controller 170 may move the viewpoint of the partial image currently displayed on the sub-screen to the viewpoint of the opposite image through the second function button 623.
  • the controller 170 may automatically change the first partial image 501 displayed on the main screen to the fourth partial image 510 included in the third partial image 511.
  • the controller 170 may display the first partial image 501 displayed on the main screen as the fourth partial image ( 510 may not be automatically changed.
  • the controller 170 may change the first partial image 501 to the fourth partial image 510.
  • the controller 170 may enlarge or reduce the fourth partial image 510 based on the zoom-in request or the zoom-out request for the fourth partial image 510.
  • the remote controller 200 is continuously input for a plurality of times or for a predetermined time to change and display the image displayed on the current main screen and the sub-screen as the opposite image. Discomfort of the user should be eliminated.
  • 12A to 12B are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 8.
  • the controller 170 may display the omnidirectional image 500 corresponding to the entire area through the sub-screen. At this time, the sub-screen may be displayed in a flat form.
  • the controller 170 may receive a request for moving the area guide 620 displayed on the sub-screen, and move the position of the area guide 620 based on the received request. In response to the position of the area guide 620, the first partial image 501 displayed on the main screen may be changed.
  • the controller 170 may receive a zoom-out request for the first partial image 501. In response to the received zoom-out request, the controller 170 may display the reduced first partial image 507 on the main screen. In addition, the controller 170 may adjust the size of the area guide 620 in response to the reduced first partial image 507. For example, when the reduced first partial image 507 is displayed in response to the zoom-out request, the size of the area guide 620 may increase.
  • FIG. 13 is a flowchart for describing a method of displaying an omnidirectional image of a display apparatus according to another exemplary embodiment.
  • the display apparatus 100 may display the first partial image of the omnidirectional image through the main screen (S300).
  • Step S300 is substantially the same as step S100 described above with reference to FIG. 5, and a description thereof will be omitted.
  • the display apparatus 100 may receive a zoom command for a portion of the omnidirectional image (S310).
  • the controller 170 may receive a zoom command for a portion of the first partial image displayed on the main screen.
  • the partial area may correspond to the location of the pointer 205 and have a predetermined size.
  • the zoom command may be a zoom-in command for enlarging an image included in the partial region or a zoom-out command for reducing an image included in the partial region.
  • the display apparatus 100 may display an enlarged or reduced image of the partial region on the sub-screen (S320).
  • the enlarged or reduced image displayed through the sub-screen may be an enlarged or reduced image corresponding to the partial region among the partial images displayed on the main screen.
  • the enlarged or reduced image displayed through the sub-screen may include an enlarged or reduced image displayed at a position corresponding to the partial region among partial images corresponding to the opposite side of the partial image displayed on the main screen. It may be.
  • Embodiments related to the omnidirectional image display method illustrated in FIG. 13 will be described with reference to FIGS. 14A to 16B.
  • FIG. 14A to 14D are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • the controller 170 may receive a zoom-in command for a partial region of the first partial image 501 displayed on the main screen.
  • the partial region may correspond to the position of the pointer 205 and may have a predetermined size.
  • the controller 170 enlarges an image of the partial region 430 in the region 401 corresponding to the first partial image 501 of the entire region 400 of the omnidirectional image.
  • the acquired image can be obtained.
  • the controller 170 may extract an image corresponding to the partial region 430 from the original data of the omnidirectional image stored in the storage 140, that is, the omnidirectional image without distortion.
  • the controller 170 may obtain the enlarged image by enlarging the extracted image. Accordingly, even if the distortion exists in the partial image of the omnidirectional image currently displayed on the main screen of the display unit 180, the distortion may not exist in the enlarged image.
  • the partial region 430 is illustrated as having a circular shape, but the shape of the partial region 430 may be variously implemented.
  • the controller 170 may display the image 530 enlarged with respect to the partial region on the first partial image 501 displayed on the main screen through the sub screen.
  • the enlarged image 530 may be displayed at a position corresponding to the partial region.
  • control unit 170 may receive a movement request for moving the display position of the sub-screen from the remote control apparatus 200.
  • the movement request may be generated based on the input of a direction button included in the remote control apparatus 200 or the movement of the remote control apparatus 200.
  • the controller 170 may move and display the position of the sub-screen based on the received movement request.
  • the enlarged image 530 displayed through the sub-screen may be changed to an enlarged image of an area corresponding to the position of the sub-screen.
  • the controller 170 may receive a zoom-in command or a zoom-out command for the first partial image 501 displayed on the main screen. For example, when the controller 170 receives the zoom-out command, the controller 170 may reduce the size of the first partial image 501 displayed on the main screen while maintaining the enlarged image 530 displayed on the sub-screen. The image can be displayed. As illustrated in FIG. 14D, when the first partial image 501 is reduced to the maximum, the omnidirectional image 500 corresponding to the entire area may be displayed on the main screen.
  • 15A to 15D are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • the controller 170 when the controller 170 receives a zoom-in command for a partial area of the main screen, the controller 170 corresponds to the opposite side of the first partial image 501 displayed on the main screen, and the partial area. An enlarged image of the image included in the region 431 corresponding to the image may be obtained.
  • the controller 170 may display the obtained enlarged image 531 through a sub-screen.
  • the enlarged image 531 may be displayed at a position corresponding to the partial region.
  • the controller 170 may receive a movement request for moving the position of the sub-screen, and move the position of the sub-screen based on the received movement request.
  • the enlarged image 531 displayed on the sub-screen may also be changed based on the moved position.
  • the user may watch the enlarged image or the reduced image of a part of the image opposite to the partial image displayed on the main screen through the sub screen.
  • the controller 170 may fix the position of the sub screen to a predetermined position of the display 180. That is, unlike the exemplary embodiment illustrated in FIG. 15B, the controller 170 may display the enlarged image 531 at a fixed position without displaying the enlarged image 531 at the position corresponding to the partial region. Accordingly, the user can more smoothly watch the first partial image 501 displayed on the main screen.
  • the controller 170 may display a partial image corresponding to the opposite side of the first partial image 501 through the sub-screen. For example, based on the enlarged image 531 illustrated in FIG. 15C, the controller 170 may receive a display request for the partial image corresponding to the opposite side. Based on the received display request, the controller 170 may display the partial image 510 corresponding to the opposite side of the first partial image 501 through the sub-screen.
  • 16A to 16B are diagrams illustrating an example of the omnidirectional image display method illustrated in FIG. 13.
  • the controller 170 may display the omnidirectional image 500 corresponding to the entire area through the display 180.
  • distortion may exist in the omnidirectional image 500 displayed through the display unit 180 as described above.
  • the controller 170 may receive a zoom command (eg, a zoom-in command) for a portion of the displayed omnidirectional image 500. In response to the received zoom-in command, the controller 170 may display the enlarged image 532 on the sub-screen. The controller 170 may not acquire the enlarged image from the image displayed on the display unit 180 when the image included in the partial region is enlarged. That is, the controller 170 may extract an image corresponding to the partial region from the original data of the omnidirectional image stored in the storage 140, and obtain an enlarged image from the extracted image. Therefore, distortion may not exist in the enlarged image 532 displayed through the sub-screen.
  • a zoom command eg, a zoom-in command
  • the user may view the omnidirectional image more effectively by using a zoom function for a desired region of the omnidirectional image.
  • the user may watch an image of another area not displayed on the main screen through the sub screen.
  • the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded.
  • processor-readable media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the display device described above may not be limitedly applied to the configuration and method of the above-described embodiments, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications may be made. It may be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 실시 예에 따른 디스플레이 장치는, 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시하고, 상기 제1 부분 영상의 시점과 동일한 시점을 갖고, 상기 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시하는 디스플레이부, 상기 부화면에 대한 시점 이동 명령을 수신하는 사용자 입력 인터페이스부, 및 수신된 시점 이동 명령에 기초하여, 상기 제2 부분 영상의 시점으로부터 이동되는 시점에 대응하는 제3 부분 영상을 상기 부화면을 통해 표시하고, 상기 제3 부분 영상으로의 시점 이동시, 상기 주화면을 통해 표시되는 제1 부분 영상의 시점을 유지시키도록 제어하는 제어부를 포함한다.

Description

디스플레이 장치
본 발명은 PIP(picture-in-picture)와 같은 부화면을 이용하여 전방향 영상에 포함된 복수의 부분 영상들을 한 화면으로 제공하는 디스플레이 장치에 관한 것이다.
최근 전방향 촬영 카메라를 이용하여 전방향을 촬영한 후 사용자에게 제공하는 기술이 나타나고 있다. 360도 카메라라고 불리우는 촬영 장치와 360도 카메라에 의하여 촬영된 영상을 디스플레이하는 단말기 또는 디스플레이 장치가 그 대표적인 예이다.
전방향 촬영된 영상의 전체 영역을 하나의 화면에 디스플레이하는 경우, 심한 왜곡이 발생하게 된다. 따라서, 전방향 촬영된 영상은 전방향 촬영된 영상 중 특정 시점에 해당하는 일부 영역의 영상을 디스플레이 한 후, 사용자의 조작이 있으면 시점을 이동시켜 다른 영역의 영상을 디스플레이 하는 것이 일반적이다.
상술한 바와 같이 전방향 촬영된 영상 중 일부 영역의 영상을 디스플레이하는 경우, 사용자는 다른 영역의 영상을 함께 시청할 수 없다는 문제가 있다. 또한, 사용자가 다른 영역의 영상을 시청하기 위해 시점을 이동시키는 경우, 원하는 영역으로 시점이 이동되는 동안에는 영상을 원활히 시청하기 어려울 수 있다.
TV와 같은 대화면 디스플레이 장치를 통해 전방향 촬영된 영상을 시청하는 경우, 스마트폰과 같은 이동 단말기에 비해 대화면을 갖는 바 보다 효과적인 시청 환경을 제공할 수 있다. 또한, TV는 대화면을 갖는 바, 이러한 대화면을 활용하여 전방향 촬영된 영상을 사용자에게 보다 효과적으로 제공하기 위한 방법들이 구현될 수 있을 것이다.
한편, 디스플레이 장치는 디스플레이의 전체 영역에 영상을 출력하는 주화면 외에도, 디스플레이의 일부 영역을 활용하여 영상을 출력하는 부화면(예컨대, PIP(picture-in-picture) 등)을 제공할 수 있다. 이러한 부화면은 줌 기능의 실행시나 다중 채널 제공시 표시될 수 있다. 부화면은 주화면과 동일한 영상을 표시할 수도 있고, 다른 영상을 표시할 수도 있다. 이러한 부화면을 활용하여, 전방향 영상을 보다 효과적으로 사용자에게 제공하기 위한 방안이 요구될 수 있다.
본 발명이 이루고자 하는 기술적 과제는, 디스플레이부를 통해 표시되는 주화면과 부화면을 이용하여, 전방향 영상의 시청시 보다 효과적인 시청 환경을 제공할 수 있는 디스플레이 장치를 제공하는 것이다.
본 발명의 일 실시 예에 따른 디스플레이 장치는, 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시하고, 상기 제1 부분 영상의 시점과 동일한 시점을 갖고, 상기 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시하는 디스플레이부, 상기 부화면에 대한 시점 이동 명령을 수신하는 사용자 입력 인터페이스부, 및 수신된 시점 이동 명령에 기초하여, 상기 제2 부분 영상의 시점으로부터 이동되는 시점에 대응하는 제3 부분 영상을 상기 부화면을 통해 표시하고, 상기 제3 부분 영상으로의 시점 이동시, 상기 주화면을 통해 표시되는 제1 부분 영상의 시점을 유지시키도록 제어하는 제어부를 포함한다.
상기 제어부는, 상기 시점 이동 명령에 따라 상기 부화면을 통해 표시되는 상기 제3 부분 영상에 대한 선택 요청을 수신하고, 수신된 선택 요청에 응답하여, 상기 주화면을 통해 표시되는 상기 제1 부분 영상을, 상기 제3 부분 영상의 시점과 동일한 시점을 갖고 상기 제3 부분 영상에 포함되는 제4 부분 영상으로 변경하여 표시할 수 있다.
일 실시 예에 따라, 상기 디스플레이 장치는 상기 전방향 영상의 원본 영상을 저장하는 저장부를 더 포함하고, 상기 제어부는, 상기 전방향 영상의 전체 영역을 상기 디스플레이부를 통해 표시하기 위한 왜곡 영상을 생성하고, 상기 제1 부분 영상은, 상기 저장부에 저장된 원본 영상으로부터 획득되고, 상기 제2 부분 영상은 상기 왜곡 영상으로부터 획득될 수 있다.
상기 제어부는, 상기 전방향 영상에 대한 줌 기능 실행 요청에 응답하여, 상기 제2 부분 영상을 상기 부화면을 통해 표시하고, 상기 제2 부분 영상 중 상기 제1 부분 영상에 대응하는 영역을 나타내는 영역 가이드를 상기 제2 부분 영상 상에 표시할 수 있다.
상기 제어부는, 상기 주화면을 통해 표시되는 상기 제4 부분 영상에 대한 줌-인 요청 또는 줌-아웃 요청을 수신하고, 수신된 요청에 응답하여 상기 제4 부분 영상에 대한 확대 영상 또는 축소 영상을 상기 주화면을 통해 표시하고, 상기 확대 영상 또는 상기 축소 영상의 영역에 대응하여 상기 영역 가이드의 크기를 조절할 수 있다.
일 실시 예에 따라, 상기 제2 부분 영상은 상기 전방향 영상에 대응하고, 상기 제어부는, 상기 영역 가이드를 이동시키는 요청을 수신하고, 수신된 요청에 기초하여 상기 영역 가이드의 위치를 이동시켜 표시하고, 이동된 상기 영역 가이드의 위치에 대응하는 부분 영상을 상기 주화면을 통해 표시할 수 있다.
상기 제어부는, 상기 주화면을 통해 표시되는 상기 제1 부분 영상 중 일부 영역에 대한 줌 명령을 수신하고, 수신된 줌 명령에 응답하여, 상기 일부 영역의 영상에 대한 확대 또는 축소 영상을 획득하고, 획득된 영상을 포함하는 상기 부화면을 상기 일부 영역에 대응하는 위치에 표시할 수 있다.
상기 제어부는, 상기 부화면의 표시 위치를 이동시키기 위한 이동 요청을 수신하고, 수신된 이동 요청에 기초하여 상기 부화면의 위치를 이동시켜 표시하고, 상기 이동된 위치에 대응하는 영역에 대한 확대 또는 축소 영상을 상기 부화면을 통해 표시할 수 있다.
상기 제어부는, 상기 수신된 줌 명령에 응답하여, 상기 전방향 영상 중 상기 제1 부분 영상의 반대편 영상 중 상기 일부 영역에 대응하는 영역의 영상에 대한 확대 또는 축소 영상을 획득하고, 획득된 영상을 포함하는 상기 부화면을 상기 일부 영역에 대응하는 위치에 표시할 수 있다.
상기 일부 영역의 위치는, 원격제어장치의 움직임에 대응하는 포인터의 표시 위치와 대응될 수 있다.
본 발명의 일 실시 예에 따른 디스플레이 장치는, 전방향 영상의 원본 영상을 저장하는 저장부, 상기 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시하고, 상기 제1 부분 영상의 시점과 동일한 시점을 갖고, 상기 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시하는 디스플레이부, 및 상기 전방향 영상의 전체 영역을 상기 디스플레이부를 통해 하나의 화면으로 표시하기 위한 왜곡 영상을 생성하는 제어부를 포함하고, 상기 제1 부분 영상은 상기 원본 영상으로부터 획득되고, 상기 제2 부분 영상은 상기 왜곡 영상으로부터 획득된다.
본 발명의 다양한 실시 예에 따르면, 디스플레이 장치는 전방향 영상의 부분 영상을 주화면과 부화면을 통해 표시하고, 전방향 영상에 대한 시점 이동시 부화면의 부분 영상만을 이동시켜 표시할 수 있다. 이에 따라, 사용자는 전방향 영상에 대한 시점 이동 중에도 주화면에 표시되는 부분 영상을 통해 상기 전방향 영상을 원활히 시청할 수 있다.
또한, 부화면의 부분 영상만을 이동시켜 표시할 수 있으므로, 디스플레이 장치는 디스플레이부를 통해 전방향 영상에 대한 복수의 시점들 각각의 부분 영상들을 사용자에게 한 화면으로 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 2은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 5는 본 발명의 일 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
도 6a 내지 도 6b는 전방향 영상에 포함된 부분 영상들이 디스플레이 장치의 주화면과 부화면을 통해 표시되는 일례를 나타내는 도면들이다.
도 7a 내지 도 7d는 도 5에 도시된 전방향 영상 표시 방법을 나타내는 예시도들이다.
도 8은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
도 9a 내지 도 9c는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 10a 내지 도 10c는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 11a 내지 도 11b는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 12a 내지 도 12b는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 13은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
도 14a 내지 도 14d는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 15a 내지 도 15d는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 16a 내지 도 16b는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시 예에 따른 디스플레이 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 디스플레이 장치(100)는 TV, 모니터, 프로젝터 또는 이를 포함하는 장치 등으로 구현될 수 있다.
디스플레이 장치(100)는 방송 수신부(130), 외부기기 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 카메라(160), 제어부(170), 디스플레이부(180), 오디오 출력부(185), 및 전원공급부(190)를 포함할 수 있다.
방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부 (133)를 포함할 수 있다.
튜너(131)는 채널 선국 명령에 따라 특정 방송 채널을 선국할 수 있다. 튜너 (131)는 선국된 특정 방송 채널에 대한 방송 신호를 수신할 수 있다.
복조부(132)는 수신한 방송 신호를 비디오 신호, 오디오 신호, 방송 프로그램과 관련된 데이터 신호로 분리할 수 있고, 분리된 비디오 신호, 오디오 신호 및 데이터 신호를 출력이 가능한 형태로 복원할 수 있다.
네트워크 인터페이스부(133)는 디스플레이 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 디스플레이 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 디스플레이 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고, 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
외부기기 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부기기 인터페이스부(135)는 디스플레이 장치(100)와 외부장치 간의 연결 경로를 제공할 수 있다. 디스플레이 장치(100)는 외부기기 인터페이스부(135)를 통해 외부장치와 유선 또는 무선으로 연결될 수 있다.
외부기기 인터페이스부(135)는 외부장치로부터 출력된 영상, 오디오 중 하나 이상을 수신하여, 제어부(170)로 전달할 수 있다. 외부기기 인터페이스부(135)에 연결 가능한 외부장치는 셋톱박스, 블루레이 플레이어, DVD 플레이어, 게임기, 사운드 바, 스마트폰과 같은 단말기, PC, USB 메모리, 홈 씨어터 중 어느 하나일 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램을 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부기기 인터페이스부(135), 네트워크 인터페이스부 (133), 또는 카메라(160)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부기기 인터페이스부(135) 또는 네트워크 인터페이스부 (133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
디스플레이 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일 (동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), UWB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 디스플레이부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부기기 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부기기 인터페이스부 (135)를 통하여 외부 출력장치로 입력될 수 있다.
그 외, 제어부(170)는, 디스플레이 장치(100) 내의 전반적인 동작을 제어할 수 있다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 디스플레이 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 디스플레이 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부기기 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 디스플레이부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 디스플레이부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부기기 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 디스플레이부(180)에서 표시되도록 제어할 수 있다. 이 경우, 디스플레이부(180)에 표시되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 디스플레이 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로부터 입력되는 외부 입력 컨텐츠가 재생되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
디스플레이부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부기기 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 디스플레이 장치(100)는 본 발명의 일실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 디스플레이 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 디스플레이 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부기기 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 디스플레이 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 디스플레이 장치의 동작 방법은 도 1을 참조하여 설명한 바와 같은 디스플레이 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 디스플레이부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 2 내지 도 3을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 2는 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 3은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
먼저, 도 2를 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부 (220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부 (270), 제어부(280), 음성 획득부(290)를 포함할 수 있다.
도 2을 참조하면, 무선통신부(220)는 전술하여 설명한 본 발명의 실시 예에 따른 디스플레이 장치와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)을 구비할 수 있다. 또한, 원격제어장치 (200)는 NFC(Near Field Communication) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 디스플레이 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 디스플레이 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선 통신부(220)를 통해 전송한다.
한편, 원격제어장치(200)는 디스플레이 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있으며, 필요에 따라 IR 모듈(223)을 통하여 디스플레이 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 3을 참조하여 설명한다.
도 3을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), 라이브 버튼(233), 외부 입력 버튼(234), 음량 조절 버튼(235), 음성 인식 버튼(236), 채널 변경 버튼(237), 확인 버튼(238) 및 뒤로 가기 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다. 전원 버튼(231)은 디스플레이 장치(100)의 전원을 온/오프 하기 위한 버튼일 수 있다. 홈 버튼(232)은 디스플레이 장치(100)의 홈 화면으로 이동하기 위한 버튼일 수 있다. 라이브 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다. 외부 입력 버튼(234)은 디스플레이 장치(100)에 연결된 외부 입력을 수신하기 위한 버튼일 수 있다. 음량 조절 버튼(235)은 디스플레이 장치(100)가 출력하는 음량의 크기를 조절하기 위한 버튼일 수 있다. 음성 인식 버튼(236)은 사용자의 음성을 수신하고, 수신된 음성을 인식하기 위한 버튼일 수 있다. 채널 변경 버튼(237)은 특정 방송 채널의 방송 신호를 수신하기 위한 버튼일 수 있다. 확인 버튼(238)은 특정 기능을 선택하기 위한 버튼일 수 있고, 뒤로 가기 버튼(239)은 이전 화면으로 되돌아가기 위한 버튼일 수 있다.
다시 도 2를 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 디스플레이 장치(100)와 관련된 명령을 입력할 수 있다. 또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 디스플레이 장치(100)의 디스플레이부 (180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 디스플레이 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 디스플레이 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(235)가 조작되거나 무선 통신부(225)를 통하여 디스플레이 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)로 전원을 공급하며, 원격제어장치(200)가 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 디스플레이 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 디스플레이 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)와 페어링된 디스플레이 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(235)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 디스플레이 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크를 포함할 수 있고, 마이크를 통해 음성을 획득할 수 있다.
다음으로 도 4를 설명한다.
도 4는 본 발명의 실시 예에 따라 원격 제어 장치를 활용하는 예를 보여준다.
도 4의 (a)는 원격 제어 장치(200)에 대응하는 포인터(205)가 디스플레이부 (180)에 표시되는 것을 예시한다.
사용자는 원격 제어 장치(200)를 상하, 좌우로 움직이거나 회전할 수 있다. 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)는 원격 제어 장치(200)의 움직임에 대응한다. 이러한 원격 제어 장치(200)는, 도면과 같이, 3D 공간 상의 움직임에 따라 해당 포인터(205)가 이동되어 표시되므로, 공간 리모콘이라 명명할 수 있다.
도 4의 (b)는 사용자가 원격 제어 장치(200)를 왼쪽으로 이동하면, 디스플레이 장치(100)의 디스플레이부(180)에 표시된 포인터(205)도 이에 대응하여 왼쪽으로 이동하는 것을 예시한다.
원격 제어 장치(200)의 센서를 통하여 감지된 원격 제어 장치(200)의 움직임에 관한 정보는 디스플레이 장치(100)로 전송된다. 디스플레이 장치(100)는 원격 제어 장치(200)의 움직임에 관한 정보로부터 포인터(205)의 좌표를 산출할 수 있다. 디스플레이 장치(100)는 산출한 좌표에 대응하도록 포인터(205)를 표시할 수 있다.
도 4의 (c)는, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에서 멀어지도록 이동하는 경우를 예시한다. 이에 의해, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌인되어 확대 표시될 수 있다.
이와 반대로, 사용자가 원격 제어 장치(200)를 디스플레이부(180)에 가까워지도록 이동하는 경우, 포인터(205)에 대응하는 디스플레이부(180) 내의 선택 영역이 줌아웃되어 축소 표시될 수 있다.
한편, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지는 경우, 선택 영역이 줌아웃되고, 원격 제어 장치(200)가 디스플레이부(180)에 가까워지는 경우, 선택 영역이 줌인될 수도 있다.
또한, 원격 제어 장치(200) 내의 특정 버튼을 누른 상태에서는 상하, 좌우 이동의 인식이 배제될 수 있다. 즉, 원격 제어 장치(200)가 디스플레이부(180)에서 멀어지거나 접근하도록 이동하는 경우, 상, 하, 좌, 우 이동은 인식되지 않고, 앞뒤 이동만 인식되도록 할 수 있다. 원격 제어 장치(200) 내의 특정 버튼을 누르지 않은 상태에서는, 원격 제어 장치(200)의 상, 하, 좌, 우 이동에 따라 포인터(205)만 이동하게 된다.
한편, 포인터(205)의 이동속도나 이동방향은 원격 제어 장치(200)의 이동속도나 이동방향에 대응할 수 있다.
한편, 본 명세서에서의 포인터는, 원격 제어 장치(200)의 동작에 대응하여, 디스플레이부(180)에 표시되는 오브젝트를 의미한다. 따라서, 포인터(205)로 도면에 도시된 화살표 형상 외에 다양한 형상의 오브젝트가 가능하다. 예를 들어, 점, 커서, 프롬프트, 두꺼운 외곽선 등을 포함하는 개념일 수 있다. 그리고, 포인터(205)가 디스플레이부(180) 상의 가로축과 세로축 중 어느 한 지점(point)에 대응하여 표시되는 것은 물론, 선(line), 면(surface) 등 복수 지점에 대응하여 표시되는 것도 가능하다.
이하에서는, 본 발명의 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법에 대해 설명한다.
도 5는 본 발명의 일 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
본 명세서에서 전방향 영상은, 전방향 촬영 카메라(일례로, 360도 카메라)를 이용하여 촬영된 영상으로서 카메라를 중심으로 구 형태의 모든 영역이 촬영된 영상인 것으로 정의한다.
도 5를 참조하면, 디스플레이 장치(100)는 전방향 영상 중 제1 부분 영상을 디스플레이부(180)의 주화면을 통해 표시할 수 있다(S100). 주화면이란, 디스플레이부(180)의 전체 영역에 표시되는 화면을 의미할 수 있다. 반면, 부화면이란, 디스플레이부(180)의 일부 영역에 표시되는 화면을 의미할 수 있다. 예컨대, 부화면은 PIP(picture-in-picture)로 구현될 수 있으나, 이에 한정되는 것은 아니다.
제1 부분 영상은 전방향 영상 중 특정 시점에 대응하는 일부 영역에 대한 영상을 의미할 수 있다. 실시 예에 따라, 제1 부분 영상은 전방향 영상의 전체 영역에 대한 영상을 의미할 수도 있다. 전방향 영상은 구 형태의 모든 영역이 촬영된 영상이므로, 제1 부분 영상이 전방향 영상의 전체 영역에 대한 영상인 경우, 일반적으로 직사각형 형태를 갖는 디스플레이부(180)에 표시되는 제1 부분 영상에는 왜곡이 발생할 수 있다. 반면, 제1 부분 영상이 전방향 영상 중 일부 영역에 대한 영상인 경우, 디스플레이부(180)에 표시되는 제1 부분 영상에는 왜곡이 발생하지 않을 수도 있다.
디스플레이 장치(100)는 제1 부분 영상에 대응하는 제2 부분 영상을 부화면을 통해 표시할 수 있다(S110).
실시 예에 따라, 디스플레이 장치(100)의 제어부(170)는 현재 제공중인 영상이 전방향 영상임을 나타내기 위해, 부화면을 원형으로 표시할 수 있다. 즉, 원형의 부화면을 통해 왜곡이 발생한 제2 부분 영상이 표시됨으로써, 현재 표시되는 영상이 전방향 영상임을 보다 효과적으로 나타낼 수 있다.
S100 단계와 S110 단계에 대해서는 도 6a 내지 도 6b를 참조하여 설명하기로 한다.
도 6a 내지 도 6b는 전방향 영상에 포함된 부분 영상들이 디스플레이 장치의 주화면과 부화면을 통해 표시되는 일례를 나타내는 도면들이다.
도 6a와 도 6b를 참조하면, 전방향 촬영용 카메라는 구 형태의 전체 영역(400)을 촬영하고, 촬영 결과에 기초하여 전방향 영상을 생성할 수 있다. 제어부(170)는 전방향 영상의 전체 영역(400) 중, 특정 시점에 해당하는 일부 영역(401)을 포함하는 제1 부분 영상(501)을 디스플레이부(180)의 주화면에 표시할 수 있다.
또한, 제어부(170)는 제1 부분 영상(501)에 대응하는 제2 부분 영상(502)을 디스플레이부(180)의 부화면에 표시할 수 있다. 제2 부분 영상(502)은 제1 부분 영상(501)과 동일한 시점에 해당하고, 제1 부분 영상(501)을 포함할 수 있다. 상기 부화면은 원형으로 구현되고, 제2 부분 영상(502)에는 왜곡이 발생할 수 있다. 반면, 주화면을 통해 표시되는 제1 부분 영상(501)에는 왜곡이 발생하지 않을 수 있다.
부분 영상의 왜곡과 관련하여, 디스플레이 장치(100)의 저장부(140)에 저장된 전방향 영상의 원본 영상은 왜곡이 존재하지 않는 영상에 해당한다. 따라서, 제어부(170)는 저장부(140)에 저장된 전방향 영상의 원본 영상으로부터 일부 영역(401)에 해당하는 제1 부분 영상(501), 즉 왜곡이 존재하지 않는 영상을 추출하고, 추출된 제1 부분 영상(501)을 주화면을 통해 표시할 수 있다.
반면, 제어부(170)가 전방향 영상의 전체 영역(400)을 디스플레이부(180)를 통해 표시하는 경우, 평면 형태의 디스플레이부(180)에 전체 영역(400)을 표시함에 따라 디스플레이부(180)에 표시된 영상에는 왜곡이 발생할 수 있다. 이에 따라, 제어부(170)는 전방향 영상에 대한 왜곡 영상을 생성할 수도 있다. 즉, 상기 왜곡 영상은 전방향 영상의 전체 영역을 디스플레이부(180)의 한 화면을 통해 표시하기 위한 영상일 수 있다. 제2 부분 영상(502)은 상기 왜곡 영상으로부터 추출되어 표시됨에 따라, 제2 부분 영상(502)에는 왜곡이 존재할 수 있다.
즉, 왜곡된 제2 부분 영상(502)이 표시되는 부화면을 통해, 사용자는 현재 디스플레이부(180)를 통해 표시되는 영상이 전방향 영상임을 직관적으로 파악할 수 있다.
다시 도 5를 설명한다.
디스플레이 장치(100)는 제2 부분 영상의 시점을 이동시키기 위해, 부화면에 대한 시점 이동 명령을 수신할 수 있다(S120).
예컨대, 제어부(170)는 사용자 입력 인터페이스부(150)를 통해 원격제어장치(200)로부터 부화면에 대한 시점 이동 명령을 수신할 수 있다. 상기 시점 이동 명령은, 원격제어장치(200)에 포함된 방향 버튼의 입력 또는 원격제어장치(200)의 움직임에 대응하여 생성될 수 있다.
디스플레이 장치(100)는 수신된 시점 이동 명령에 따라 이동된 시점에 대응하는 제3 부분 영상을 부화면을 통해 표시할 수 있다(S130).
제어부(170)는 수신된 시점 이동 명령에 기초하여, 제2 부분 영상의 시점을 이동시킬 수 있다. 상기 시점이 이동됨에 따라, 부화면에 표시되는 부분 영상 또한 이동될 수 있다. 실시 예에 따라, 제어부(170)는 원형으로 구현된 부화면이 구(sphere)처럼 회전하는 형태의 효과를 이용하여, 시점 이동에 따라 전방향 영상에 포함된 부분 영상이 이동되는 모습을 보다 효과적으로 표시할 수 있다.
이 때, 상기 시점 이동 명령에 따라 부화면의 영상이 제2 부분 영상으로부터 제3 부분 영상으로 변경되더라도, 주화면에 표시되는 제1 부분 영상은 변경되지 않을 수 있다. 따라서, 사용자는 주화면에 표시되는 제1 부분 영상을 시청하면서 다른 부분 영상을 탐색할 수 있다.
디스플레이 장치(100)는 제3 부분 영상에 대응하는 제4 부분 영상을 주화면을 통해 표시할 수 있다(S140).
제어부(170)는 S130 단계에 따라 부화면에 표시되는 부분 영상을 제3 부분 영상으로 변경하여 표시하고, 사용자 입력 인터페이스부(150)를 통해 제3 부분 영상을 선택하는 요청을 수신할 수 있다. 수신된 선택 요청에 응답하여, 제어부(170)는 주화면에 표시되는 제1 부분 영상을, 제3 부분 영상에 대응하는 제4 부분 영상으로 변경하여 표시할 수 있다.
즉, S130 단계 내지 S140 단계에 도시된 실시 예에 따르면, 사용자는 전방향 영상 중 제1 부분 영상을 주화면을 통해 시청하면서, 동시에 부화면에 표시되는 부분 영상의 시점을 이동시키면서 다른 부분 영상을 탐색할 수 있다. 따라서, 사용자는 전방향 영상의 시점을 이동시키는 중에도, 주화면을 통해 부분 영상을 원활하게 시청할 수 있다.
도 5에 도시된 전방향 영상 표시 방법에 대한 구체적인 예에 대해서는 도 7a 내지 도 7d를 참조하여 설명하기로 한다.
도 7a 내지 도 7d는 도 5에 도시된 전방향 영상 표시 방법을 나타내는 예시도들이다.
도 7a를 참조하면, 제어부(170)는 전방향 영상 중 제1 부분 영상(501)을 디스플레이부(180)의 주화면에 표시하고, 제1 부분 영상(501)에 대응하는 제2 부분 영상(502)을 디스플레이부(180)의 부화면에 표시할 수 있다.
실시 예에 따라, 제어부(170)는 주화면에 표시되는 부분 영상의 시점을 이동시키기 위한 시점 이동 버튼(610)을 표시할 수 있다. 제어부(170)는 원격제어장치(200)의 포인터(205)에 의해 시점 이동 버튼(610)이 선택되면, 선택된 시점 이동 버튼(610)에 대응하여 주화면에 표시되는 부분 영상의 시점을 상, 하, 좌, 또는 우로 이동할 수 있다.
도 7b와 도 7c를 참조하면, 제어부(170)는 부화면에 표시되는 제2 부분 영상에 대한 시점 이동 명령을 수신할 수 있다.
제어부(170)는 원격제어장치(200)로부터 상기 시점 이동 명령을 수신할 수 있다. 도 5에서 상술한 바와 같이, 시점 이동 명령은 원격제어장치(200)에 포함된 방향 버튼의 입력 또는 원격제어장치(200)의 움직임에 대응하여 생성될 수 있다.
제어부(170)는 수신된 시점 이동 명령에 기초하여, 부화면에 표시되는 제2 부분 영상의 시점을 상, 하, 좌, 또는 우로 이동시킬 수 있다. 예컨대, 시점 이동 명령이 상기 시점을 좌측으로 이동시키는 명령인 경우, 제어부(170)는 전방향 영상의 전체 영역(400) 중 제1 부분 영상의 시점(제2 부분 영상의 시점 또한 동일)으로부터 좌측으로 이동시킬 수 있다. 제어부(170)는 이동된 시점을 중심으로 하는 영역(403)에 대응하는 제3 부분 영상(503)을 디스플레이부(180)의 부화면을 통해 표시할 수 있다. 제2 부분 영상(502)과 마찬가지로, 제3 부분 영상(503)제3 부분 영상(503)에는 왜곡이 발생할 수 있다. 표시된 제3 부분 영상(503)에 기초하여, 사용자는 제1 부분 영상(501)을 지속적으로 시청하면서, 다른 영역(403)에 해당하는 제3 부분 영상(503)을 탐색할 수 있다.
도 7d를 참조하면, 제어부(170)는 제3 부분 영상(503)에 대한 선택 입력을 수신할 수 있다. 상기 선택 입력 또한 원격제어장치(200)로부터 수신될 수 있다.
제어부(170)는 수신된 선택 입력에 응답하여, 주화면에 표시되는 제1 부분 영상(501)을, 제3 부분 영상(503)에 대응하는 제4 부분 영상(504)으로 변경하여 표시할 수 있다. 제4 부분 영상(504)은 제3 부분 영상(503)과 동일한 시점을 가질 수 있다. 또한, 제4 부분 영상(504)은 제3 부분 영상(503)과 동일한 영역을 나타내거나, 제3 부분 영상(503)에 포함되는 영역을 나타낼 수 있다. 제4 부분 영상(504)은 제1 부분 영상(501)과 마찬가지로 왜곡이 존재하지 않는 형태로 표시될 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
디스플레이 장치(100)는 줌 기능을 지원할 수 있다. 줌 기능은, 디스플레이부(180)의 주화면의 전체 영역에 확대 또는 축소된 영상을 표시하는 제1 줌 기능과, 주화면의 일부 영역에 대한 확대 또는 축소 영상을 표시하는 제2 줌 기능을 포함할 수 있다. 도 8을 통해 설명되는 줌 기능은 제1 줌 기능에 해당할 수 있다. 반면, 도 13에서 후술될 줌 기능은 제2 줌 기능에 해당할 수 있다.
도 8을 참조하면, 디스플레이 장치(100)는 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시할 수 있다(S200). S200 단계는 도 5의 S100 단계와 실질적으로 동일하므로, 이에 대한 설명은 생략하기로 한다.
디스플레이 장치(100)는 전방향 영상에 대한 줌 기능 실행 요청을 수신할 수 있다(S210). 디스플레이 장치(100)는 수신된 줌 기능 실행 요청에 응답하여, 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시할 수 있다(S220).
도 5에서 상술한 바와 유사하게, 제2 부분 영상은 제1 부분 영상을 포함하는 영상일 수 있고, 제2 부분 영상에는 왜곡이 존재할 수 있다. 이 때 표시되는 부화면은 도 5에서 상술한 바와 같이 원형으로 표시될 수도 있고, 직사각형 형태로 표시될 수도 있다. 부화면이 직사각형 형태로 표시되는 경우, 전방향 영상의 전체 영역을 포함하는 왜곡 영상이 부화면을 통해 표시될 수 있다.
또한, 부화면에 표시된 제2 부분 영상 상에는, 현재 주화면을 통해 표시되는 제1 부분 영상의 영역을 나타내는 영역 가이드가 더 표시될 수 있다. 영역 가이드는 전방향 영상에 대한 줌-인 또는 줌-아웃 요청에 따라 크기가 변경될 수 있다. 예컨대, 줌-인 요청 수신시에는 영역 가이드의 크기가 줄어들 수 있고, 줌-아웃 요청 수신시에는 영역 가이드의 크기가 증가할 수 있다.
디스플레이 장치(100)는 표시된 부화면에 기초하여, 줌 기능을 수행할 제3 부분 영상을 선택하고(S230), 선택된 제3 부분 영상에 포함된 제4 부분 영상을 주화면을 통해 표시할 수 있다(S240).
도 5의 S120 단계 및 S130 단계와 유사하게, 제어부(170)는 부화면에 대한 시점 이동 명령에 기초하여, 이동된 시점에 대응하는 부분 영상을 부화면을 통해 표시할 수 있다.
제어부(170)는 시점 이동 명령에 기초하여, 제2 부분 영상의 시점을 이동시킬 수 있다. 시점이 이동됨에 따라, 부화면에 표시되는 부분 영상이 변경될 수 있다. 도 5에서 상술한 바와 같이, 제어부(170)는 부화면이 회전하는 형태의 효과를 이용하여, 전방향 영상에 포함된 부분 영상이 변경되는 모습을 보다 효과적으로 표시할 수 있다.
제어부(170)는 부화면의 부분 영상이 변경되는 경우, 주화면에 표시되는 제1 부분 영상을 상기 부화면의 부분 영상에 대응하여 변경시킬 수도 있고, 실시 예에 따라 제1 부분 영상은 변경시키지 않을 수도 있다.
S230 단계 및 S240 단계와 관련된 다양한 실시 예들에 대해서는 추후 도 9a 내지 도 12b를 통해 설명하기로 한다.
디스플레이 장치(100)는, 주화면에 표시되는 제4 부분 영상에 대한 줌 기능을 수행하고, 줌 기능 수행 결과에 기초하여 제4 부분 영상을 변경하여 표시할 수 있다(S250).
제어부(170)는 원격제어장치(200) 등으로부터 줌-인 요청을 수신하는 경우, 제4 부분 영상을 보다 확대하여 표시할 수 있고, 줌-아웃 요청을 수신하는 경우, 제4 부분 영상을 보다 축소시켜 표시할 수 있다.
제4 부분 영상이 확대되는 경우, 기존 표시되던 제4 부분 영상의 가장자리 영역 일부의 영상은 주화면을 통해 표시되지 않을 수 있다. 반면, 제4 부분 영상이 축소되는 경우, 기존 표시되던 제4 부분 영상의 영역 및 제4 부분 영상의 가장자리 영역과 연속되는 일부 영역의 영상이 주화면을 통해 더 표시될 수 있다.
도 8에 도시된 전방향 영상 표시 방법에 대한 다양한 실시 예들에 대해서는 도 9a 내지 도 12b를 참조하여 설명하기로 한다.
도 9a 내지 도 9c는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 9a를 참조하면, 제어부(170)는 전방향 영상 중 제1 부분 영상(501)을 디스플레이부(180)를 통해 표시할 수 있다.
제어부(170)는 원격제어장치(200) 등을 통해 전방향 영상에 대한 줌 기능 실행 요청을 수신할 수 있다. 수신된 줌 기능 실행 요청에 응답하여, 제어부(170)는 제2 부분 영상(502)을 부화면을 통해 표시할 수 있다. 상술한 바와 같이, 상기 부화면은 PIP 형태로 표시될 수 있다.
제2 부분 영상(502)에 해당하는 영역은 제1 부분 영상(501)에 해당하는 영역을 포함할 수 있다. 또한, 도 6a 내지 도 6b에서 상술한 바와 같이, 제2 부분 영상(502)에는 왜곡이 존재할 수 있다.
제어부(170)는 부화면에 포함된 제2 부분 영상(502) 상에, 현재 주화면을 통해 표시된 제1 부분 영상(501)의 영역을 나타내는 영역 가이드(620)를 표시할 수 있다. 표시된 영역 가이드(620)에 기초하여, 사용자는 제2 부분 영상(502) 중 주화면에 표시된 제1 부분 영상(501)의 위치 및 크기를 파악할 수 잇다.
또한, 제어부(170)는 주화면에 표시된 제1 부분 영상(501)의 확대 또는 축소 정도를 나타내는 확대/축소 바(621)를 더 표시할 수 있다. 사용자는 확대/축소 바(621)에 기초하여 제1 부분 영상(501)의 확대 또는 축소 정도를 파악할 수 있다. 실시 예에 따라, 제어부(170)는 확대/축소 바(621)를 통해 제1 부분 영상(501)에 대한 줌-인 요청 또는 줌-아웃 요청을 수신하고, 수신된 요청에 기초하여 제1 부분 영상(501)에 대한 확대 또는 축소 동작을 수행할 수 있다.
도 9a와 도 9b를 참조하면, 제어부(170)는 부화면에 표시되는 제2 부분 영상(502)에 대한 시점 이동 명령을 수신할 수 있다. 수신된 시점 이동 명령에 기초하여, 제어부(170)는 부화면에 표시되는 부분 영상의 시점을 상, 하, 좌, 또는 우로 이동시킬 수 있다.
예컨대, 사용자가 제2 부분 영상(502)의 시점으로부터 반대편 시점(또는 180도 이동된 시점)의 부분 영상을 부화면에 나타내고자 하는 경우, 사용자는 원격제어장치(200)의 방향 버튼은 복수 회 입력하거나, 소정 시간동안 연속적으로 입력할 수 있다. 또는 원격제어장치(200)를 특정 방향으로 소정 시간동안 움직일 수도 있다. 이에 따라, 제어부(170)는 제2 부분 영상(502)의 반대편 영상에 해당하는 제3 부분 영상(511)을 부화면을 통해 표시할 수 있다.
또한, 도 9a 내지 도 9c에 도시된 실시 예의 경우, 부화면에 표시되는 부분 영상이 변경되는 경우, 주화면에 표시되는 부분 영상 또한 자동으로 변경될 수 있다. 즉, 제어부(170)는 주화면에 표시된 제1 부분 영상(501)을, 제3 부분 영상(511)에 포함된 제4 부분 영상(510)으로 자동으로 변경할 수 있다.
도 9c를 참조하면, 제어부(170)는 제4 부분 영상(510)에 대한 줌-인 요청을 수신할 수 있다. 예컨대, 제어부(170)는 원격제어장치(200)에 포함된 줌-인 버튼의 입력에 따라 상기 줌-인 요청을 원격제어장치(200)로부터 수신할 수 있다. 또는, 제어부(170)는 확대/축소 바(621)를 통해 줌-인 요청을 수신할 수도 있다.
제어부(170)는 수신된 줌-인 요청에 응답하여, 확대된 제4 부분 영상(512)을 주화면을 통해 표시할 수 있다. 확대된 제4 부분 영상(512)은, 도 9b에 도시된 제4 부분 영상(510)의 일부를 포함할 수 있다. 또한, 제어부(170)는 확대된 제4 부분 영상(512)의 영역에 대응하도록 영역 가이드(620)의 크기를 조절할 수 있다. 줌-인 요청에 의해 부분 영상이 확대되는 경우, 부화면에 표시되는 영역 가이드(620)의 크기는 작아질 수 있다.
도 10a 내지 도 10c는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 10a 내지 도 12b에 도시된 실시 예들과 관련하여, 제어부(170)는 줌 기능 실행 요청에 응답하여 부화면을 표시하고, 부화면의 시점 이동과 관련된 모드들을 제공하기 위한 기능 버튼들(622~624)을 표시할 수 있다. 예컨대, 도 10a 내지 도 10c에 도시된 실시 예는 제1 기능 버튼(622)이 선택된 경우에 해당하고, 도 11a 내지 도 11b에 도시된 실시 예는 제2 기능 버튼(623)이 선택된 경우에 해당할 수 있다. 또한, 도 12a 내지 도 12b에 도시된 실시 예는 제3 기능 버튼(624)이 선택된 경우에 해당할 수 있다.
도 10a와 도 10b를 참조하면, 제1 기능 버튼(622)이 선택된 경우, 제어부(170)는 부화면에 표시되는 제2 부분 영상(502)에 대한 시점 이동시, 주화면에 표시되는 제1 부분 영상(501)의 시점은 변경시키지 않을 수 있다. 즉, 시점 이동 명령에 따라 부화면에 표시되는 제2 부분 영상(502)이 제3 부분 영상(503)으로 변경되더라도, 주화면에 표시되는 제1 부분 영상(501)은 변경되지 않을 수 있다.
도 10b와 도 10c를 참조하면, 제어부(170)는 부화면에 표시할 제3 부분 영상(503)을 선택하는 입력을 수신하고, 수신된 입력에 응답하여 주화면에 표시되는 제1 부분 영상(501)을 제3 부분 영상(503)에 포함된 제4 부분 영상으로 변경하여 표시할 수 있다. 이 후, 제어부(170)는 제4 부분 영상에 대한 줌-인 요청에 응답하여 확대된 제4 부분 영상(506)을 표시할 수 있다. 확대된 제4 부분 영상(506)이 표시됨에 따라, 부화면에 표시되는 연결 가이드(620)의 크기는 작아질 수 있다.
실시 예에 따라, 제어부(170)는 부화면에 표시할 제3 부분 영상(503)의 선택 입력을 수신하기 이전에, 줌-인 요청을 먼저 수신할 수도 있다. 이 경우, 제어부(170)는 수신된 줌-인 요청에 기초하여 연결 가이드(620)의 크기를 조절하고, 제3 부분 영상(503)의 선택 입력이 수신되면 확대된 제4 부분 영상(506)을 곧바로 표시할 수도 있다.
즉, 도 10a 내지 도 10c에 도시된 실시 예의 경우, 부화면에 표시할 부분 영상을 선택하거나 줌-인 요청을 수신하기 전까지는 주화면에 표시된 부분 영상이 유지될 수 있다.
도 11a 내지 도 11b는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 11a와 도 11b를 참조하면, 제어부(170)는 제2 기능 버튼(623)이 선택되는 경우, 부화면에 표시된 제2 부분 영상(502)을, 제2 부분 영상(502)의 반대편 영역에 해당하는 제3 부분 영상(511)으로 변경하여 표시할 수 있다. 즉, 제어부(170)는 제2 기능 버튼(623)을 통해, 현재 부화면에 표시되는 부분 영상의 시점을 반대편 영상의 시점으로 한번에 이동시킬 수 있다.
또한, 제어부(170)는 주화면에 표시되는 제1 부분 영상(501)을, 제3 부분 영상(511)에 포함되는 제4 부분 영상(510)으로 자동으로 변경할 수 있다. 실시 예에 따라, 제1 기능 버튼(622)과 제2 기능 버튼(623)이 모두 선택되는 경우에는, 제어부(170)는 주화면에 표시되는 제1 부분 영상(501)을 제4 부분 영상(510)으로 자동으로 변경하지 않을 수도 있다. 제어부(170)는 부화면에 표시된 제3 부분 영상(511)을 선택하는 입력을 수신하는 경우, 제1 부분 영상(501)을 제4 부분 영상(510)으로 변경할 수 있다.
제어부(170)는 제4 부분 영상(510)에 대한 줌-인 요청 또는 줌-아웃 요청에 기초하여 제4 부분 영상(510)을 확대 또는 축소하여 표시할 수 있다.
즉, 도 11a 내지 도 11b에 도시된 실시 예에 따르면, 현재 주화면 및 부화면에 표시되는 영상을 반대편 영상으로 변경시켜 표시하기 위해 원격제어장치(200)를 복수 회 또는 소정 시간 동안 지속적으로 입력하여야 하는 사용자의 불편함이 해소될 수 있다.
도 12a 내지 도 12b는 도 8에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 12a 내지 도 12b를 참조하면, 제어부(170)는 제3 기능 버튼(624)이 선택되는 경우, 전체 영역에 해당하는 전방향 영상(500)을 부화면을 통해 표시할 수 있다. 이 때, 부화면은 평면 형태로 표시될 수 있다.
제어부(170)는 부화면에 표시된 영역 가이드(620)를 이동시키는 요청을 수신하고, 수신된 요청에 기초하여 영역 가이드(620)의 위치를 이동시킬 수 있다. 영역 가이드(620)의 위치에 대응하여, 주화면에 표시되는 제1 부분 영상(501)이 변경될 수 있다.
제어부(170)는 제1 부분 영상(501)에 대한 줌-아웃 요청을 수신할 수 있다. 수신된 줌-아웃 요청에 응답하여, 제어부(170)는 축소된 제1 부분 영상(507)을 주화면을 통해 표시할 수 있다. 또한, 제어부(170)는 축소된 제1 부분 영상(507)에 대응하여 영역 가이드(620)의 크기를 조절할 수 있다. 예컨대, 줌-아웃 요청에 응답하여 축소된 제1 부분 영상(507)이 표시되는 경우, 영역 가이드(620)의 크기는 증가할 것이다.
도 13은 본 발명의 또 다른 실시 예에 따른 디스플레이 장치의 전방향 영상 표시 방법을 설명하기 위한 플로우차트이다.
도 13을 참조하면, 디스플레이 장치(100)는 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시할 수 있다(S300). S300 단계는 도 5에서 상술한 S100 단계와 실질적으로 동일한 바, 이에 대한 설명은 생략하기로 한다.
디스플레이 장치(100)는, 전방향 영상 중 일부 영역에 대한 줌 명령을 수신할 수 있다(S310).
예컨대, 제어부(170)는 주화면에 표시된 제1 부분 영상 중 일부 영역에 대한 줌 명령을 수신할 수 있다. 상기 일부 영역은 포인터(205)의 위치와 대응되고 소정 크기를 가질 수 있다.
상기 줌 명령은 상기 일부 영역에 포함된 영상을 확대하는 줌-인 명령이거나, 상기 일부 영역에 포함된 영상을 축소하는 줌-아웃 명령일 수 있다.
디스플레이 장치(100)는, 수신된 줌 명령에 응답하여, 상기 일부 영역에 대해 확대 또는 축소된 영상을 부화면을 통해 표시할 수 있다(S320).
예컨대, 부화면을 통해 표시되는 확대 또는 축소된 영상은, 주화면에 표시된 부분 영상 중 상기 일부 영역에 대응하는 영상이 확대 또는 축소된 것일 수 있다. 실시 예에 따라, 상기 부화면을 통해 표시되는 확대 또는 축소된 영상은, 주화면에 표시된 부분 영상의 반대편에 해당하는 부분 영상 중, 상기 일부 영역에 대응하는 위치에 표시되는 영상이 확대 또는 축소된 것일 수도 있다.
도 13에 도시된 전방향 영상 표시 방법과 관련된 실시 예들에 대해서는 도 14a 내지 도 16b를 통해 설명하기로 한다.
도 14a 내지 도 14d는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 14a 내지 도 14c를 참조하면, 제어부(170)는 주화면에 표시된 제1 부분 영상(501)의 일부 영역에 대한 줌-인 명령을 수신할 수 있다. 상기 일부 영역은 포인터(205)의 위치에 대응하고 소정 크기를 가질 수 있다.
수신된 줌-인 명령에 응답하여, 제어부(170)는 전방향 영상의 전체 영역(400) 중, 제1 부분 영상(501)에 해당하는 영역(401) 내의 일부 영역(430)의 영상의 확대된 영상을 획득할 수 있다. 예컨대, 제어부(170)는 저장부(140)에 저장된 전방향 영상의 원본 데이터, 즉 왜곡이 존재하지 않는 전방향 영상의 데이터로부터 일부 영역(430)에 해당하는 영상을 추출할 수 있다. 제어부(170)는 추출된 영상을 확대함으로써 확대된 영상을 획득할 수 있다. 이에 따라, 현재 디스플레이부(180)의 주화면에 표시되는 전방향 영상의 부분 영상에 왜곡이 존재하더라도, 확대된 영상에는 왜곡이 존재하지 않을 수 있다.
도 14a 내지 도 14c에서는 일부 영역(430)이 원형을 갖는 것으로 도시되어 있으나, 일부 영역(430)의 형태는 다양하게 구현될 수 있다.
제어부(170)는, 주화면을 통해 표시되는 제1 부분 영상(501) 상에, 상기 일부 영역에 대해 확대된 영상(530)을 부화면을 통해 표시할 수 있다. 이 경우, 확대된 영상(530)은 상기 일부 영역에 대응하는 위치에 표시될 수 있다.
비록 도시되지는 않았으나, 제어부(170)는 원격제어장치(200)로부터 부화면의 표시 위치를 이동시키기 위한 이동 요청을 수신할 수 있다. 상기 이동 요청은 원격제어장치(200)에 포함된 방향 버튼의 입력 또는 원격제어장치(200)의 움직임에 기초하여 생성될 수 있다. 제어부(170)는 수신된 이동 요청에 기초하여 부화면의 위치를 이동시켜 표시할 수 있다. 이 경우, 부화면을 통해 표시되는 확대된 영상(530)은, 부화면의 위치에 대응하는 영역의 확대된 영상으로 변경될 수 있다.
도 14d를 참조하면, 실시 예에 따라 제어부(170)는 주화면에 표시된 제1 부분 영상(501)에 대한 줌-인 명령 또는 줌-아웃 명령을 수신할 수 있다. 예컨대, 제어부(170)가 줌-아웃 명령을 수신한 경우, 제어부(170)는 부화면에 표시된 확대된 영상(530)은 유지한 채, 주화면에 표시된 제1 부분 영상(501)의 축소된 영상을 표시할 수 있다. 도 14d에 도시된 바와 같이, 제1 부분 영상(501)이 최대로 축소되는 경우, 전체 영역에 해당하는 전방향 영상(500)이 주화면을 통해 표시될 수 있다.
도 15a 내지 도 15d는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 15a 내지 도 15b를 참조하면, 제어부(170)는 주화면의 일부 영역에 대한 줌-인 명령을 수신하는 경우, 주화면에 표시된 제1 부분 영상(501)의 반대편에 해당하고, 상기 일부 영역에 대응하는 영역(431)에 포함된 영상의 확대된 영상을 획득할 수 있다.
제어부(170)는 획득한 확대된 영상(531)을 부화면을 통해 표시할 수 있다. 확대된 영상(531)은 상기 일부 영역에 대응하는 위치에 표시될 수 있다.
제어부(170)는 부화면의 위치를 이동시키기 위한 이동 요청을 수신하고, 수신된 이동 요청에 기초하여 부화면의 위치를 이동시킬 수 있다. 이 경우, 부화면에 표시되는 확대된 영상(531) 또한, 이동된 위치에 기초하여 변경될 수 있다.
즉, 사용자는 주화면에 표시되는 부분 영상의 반대편 영상 중 일부에 대한 확대 영상 또는 축소 영상을 부화면을 통해 시청할 수 있다.
도 15c와 도 15d를 참조하면, 제어부(170)는 부화면의 위치를 디스플레이부(180)의 일정 위치로 고정시킬 수 있다. 즉, 도 15b에 도시된 실시 예와 달리, 제어부(170)는 확대된 영상(531)을 상기 일부 영역에 대응하는 위치에 표시하지 않고, 고정된 위치에 표시할 수 있다. 이에 따라, 사용자는 주화면에 표시되는 제1 부분 영상(501)을 보다 원활하게 시청할 수 있다.
또한, 제어부(170)는 제1 부분 영상(501)의 반대편에 해당하는 부분 영상을 부화면을 통해 표시할 수도 있다. 예컨대, 도 15c에 도시된 확대된 영상(531)에 기초하여, 제어부(170)는 상기 반대편에 해당하는 부분 영상에 대한 표시 요청을 수신할 수 있다. 수신된 표시 요청에 기초하여, 제어부(170)는 제1 부분 영상(501)의 반대편에 해당하는 부분 영상(510)을 부화면을 통해 표시할 수 있다.
도 16a 내지 도 16b는 도 13에 도시된 전방향 영상 표시 방법의 일례를 나타내는 도면들이다.
도 16a와 도 16b를 참조하면, 제어부(170)는 전체 영역에 해당하는 전방향 영상(500)을 디스플레이부(180)를 통해 표시할 수 있다. 이 경우, 상술한 바와 같이 디스플레이부(180)를 통해 표시되는 전방향 영상(500)에는 왜곡이 존재할 수 있다.
제어부(170)는 표시된 전방향 영상(500) 중 일부 영역에 대한 줌 명령(예컨대, 줌-인 명령)을 수신할 수 있다. 수신된 줌-인 명령에 응답하여, 제어부(170)는 확대된 영상(532)을 부화면을 통해 표시할 수 있다. 제어부(170)는 상기 일부 영역에 포함된 영상의 확대시, 디스플레이부(180)에 표시된 영상으로부터 확대된 영상을 획득하지 않을 수 있다. 즉, 제어부(170)는 저장부(140)에 저장된 전방향 영상의 원본 데이터로부터 상기 일부 영역에 해당하는 영상을 추출하고, 추출된 영상으로부터 확대된 영상을 획득할 수 있다. 따라서, 부화면을 통해 표시되는 확대된 영상(532)에는 왜곡이 존재하지 않을 수 있다.
도 13 내지 도 16b에 도시된 실시 예에 따르면, 사용자는 전방향 영상 중 원하는 일부 영역에 대한 줌 기능을 이용하여 전방향 영상을 보다 효과적으로 시청할 수 있다. 특히, 상기 줌 기능을 이용하여, 사용자는 주화면에 표시되지 않는 다른 영역의 영상을 부화면을 통해 시청할 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (20)

  1. 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시하고, 상기 제1 부분 영상의 시점과 동일한 시점을 갖고, 상기 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시하는 디스플레이부;
    상기 부화면에 대한 시점 이동 명령을 수신하는 사용자 입력 인터페이스부; 및
    수신된 시점 이동 명령에 기초하여, 상기 제2 부분 영상의 시점으로부터 이동되는 시점에 대응하는 제3 부분 영상을 상기 부화면을 통해 표시하고,
    상기 제3 부분 영상으로의 시점 이동시, 상기 주화면을 통해 표시되는 제1 부분 영상의 시점을 유지시키도록 제어하는 제어부를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 시점 이동 명령에 따라 상기 부화면을 통해 표시되는 상기 제3 부분 영상에 대한 선택 요청을 수신하고,
    수신된 선택 요청에 응답하여, 상기 주화면을 통해 표시되는 상기 제1 부분 영상을, 상기 제3 부분 영상의 시점과 동일한 시점을 갖고 상기 제3 부분 영상에 포함되는 제4 부분 영상으로 변경하여 표시하는 디스플레이 장치.
  3. 제1항에 있어서,
    상기 전방향 영상의 원본 영상을 저장하는 저장부를 더 포함하고,
    상기 제어부는,
    상기 전방향 영상의 전체 영역을 상기 디스플레이부를 통해 표시하기 위한 왜곡 영상을 생성하고,
    상기 제1 부분 영상은,
    상기 저장부에 저장된 원본 영상으로부터 획득되고,
    상기 제2 부분 영상은 상기 왜곡 영상으로부터 획득되는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 전방향 영상에 대한 줌 기능 실행 요청에 응답하여, 상기 제2 부분 영상을 상기 부화면을 통해 표시하고,
    상기 제2 부분 영상 중 상기 제1 부분 영상에 대응하는 영역을 나타내는 영역 가이드를 상기 제2 부분 영상 상에 표시하는 디스플레이 장치.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 주화면을 통해 표시되는 상기 제4 부분 영상에 대한 줌-인 요청 또는 줌-아웃 요청을 수신하고,
    수신된 요청에 응답하여 상기 제4 부분 영상에 대한 확대 영상 또는 축소 영상을 상기 주화면을 통해 표시하고,
    상기 확대 영상 또는 상기 축소 영상의 영역에 대응하여 상기 영역 가이드의 크기를 조절하는 디스플레이 장치.
  6. 제4항에 있어서,
    상기 제2 부분 영상은 상기 전방향 영상에 대응하고,
    상기 제어부는,
    상기 영역 가이드를 이동시키는 요청을 수신하고, 수신된 요청에 기초하여 상기 영역 가이드의 위치를 이동시켜 표시하고,
    이동된 상기 영역 가이드의 위치에 대응하는 부분 영상을 상기 주화면을 통해 표시하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제어부는,
    상기 주화면을 통해 표시되는 상기 제1 부분 영상 중 일부 영역에 대한 줌 명령을 수신하고,
    수신된 줌 명령에 응답하여, 상기 일부 영역의 영상에 대한 확대 또는 축소 영상을 획득하고,
    획득된 영상을 포함하는 상기 부화면을 상기 일부 영역에 대응하는 위치에 표시하는 디스플레이 장치.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 부화면의 표시 위치를 이동시키기 위한 이동 요청을 수신하고,
    수신된 이동 요청에 기초하여 상기 부화면의 위치를 이동시켜 표시하고,
    상기 이동된 위치에 대응하는 영역에 대한 확대 또는 축소 영상을 상기 부화면을 통해 표시하는 디스플레이 장치.
  9. 제7항에 있어서,
    상기 제어부는,
    상기 수신된 줌 명령에 응답하여, 상기 전방향 영상 중 상기 제1 부분 영상의 반대편 영상 중 상기 일부 영역에 대응하는 영역의 영상에 대한 확대 또는 축소 영상을 획득하고,
    획득된 영상을 포함하는 상기 부화면을 상기 일부 영역에 대응하는 위치에 표시하는 디스플레이 장치.
  10. 제7항에 있어서,
    상기 일부 영역의 위치는,
    원격제어장치의 움직임에 대응하는 포인터의 표시 위치와 대응되는 디스플레이 장치.
  11. 디스플레이 장치에 있어서,
    전방향 영상의 원본 영상을 저장하는 저장부;
    상기 전방향 영상 중 제1 부분 영상을 주화면을 통해 표시하고, 상기 제1 부분 영상의 시점과 동일한 시점을 갖고, 상기 제1 부분 영상을 포함하는 제2 부분 영상을 부화면을 통해 표시하는 디스플레이부; 및
    상기 전방향 영상의 전체 영역을 상기 디스플레이부를 통해 하나의 화면으로 표시하기 위한 왜곡 영상을 생성하는 제어부를 포함하고,
    상기 제1 부분 영상은 상기 원본 영상으로부터 획득되고, 상기 제2 부분 영상은 상기 왜곡 영상으로부터 획득되는 디스플레이 장치.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 부화면에 대한 시점 이동 명령을 수신하고,
    수신된 시점 이동 명령에 기초하여, 상기 제2 부분 영상의 시점으로부터 이동되는 시점에 대응하는 제3 부분 영상을 상기 부화면을 통해 표시하는 디스플레이 장치.
  13. 제12항에 있어서,
    상기 제3 부분 영상에 대한 선택 요청을 수신하고,
    수신된 선택 요청에 응답하여, 상기 주화면을 통해 표시되는 상기 제1 부분 영상을, 상기 제3 부분 영상의 시점과 동일한 시점을 갖고 상기 제3 부분 영상에 포함되는 제4 부분 영상으로 변경하여 표시하고,
    상기 제3 부분 영상은 상기 왜곡 영상으로부터 획득되고, 상기 제4 부분 영상은 상기 원본 영상으로부터 획득되는 디스플레이 장치.
  14. 제11항에 있어서,
    상기 제어부는,
    상기 전방향 영상에 대한 줌 기능 실행 요청에 응답하여, 상기 제2 부분 영상을 상기 부화면을 통해 표시하고,
    상기 제2 부분 영상 중 상기 제1 부분 영상에 대응하는 영역을 나타내는 영역 가이드를 상기 제2 부분 영상 상에 표시하는 디스플레이 장치.
  15. 제14항에 있어서,
    상기 제어부는,
    상기 주화면을 통해 표시되는 상기 제1 부분 영상에 대한 줌-인 요청 또는 줌-아웃 요청을 수신하고,
    수신된 요청에 응답하여 상기 제1 부분 영상에 대한 확대 영상 또는 축소 영상을 상기 주화면을 통해 표시하고,
    상기 확대 영상 또는 상기 축소 영상의 영역에 대응하여 상기 영역 가이드의 크기를 조절하는 디스플레이 장치.
  16. 제14항에 있어서,
    상기 제2 부분 영상은 상기 왜곡 영상에 대응하고,
    상기 제어부는,
    상기 영역 가이드를 이동시키는 요청을 수신하고, 수신된 요청에 응답하여 상기 영역 가이드의 위치를 이동시켜 표시하고,
    이동된 상기 영역 가이드의 위치에 대응하는 부분 영상을 상기 원본 영상으로부터 획득하고, 획득된 부분 영상을 상기 주화면을 통해 표시하는 디스플레이 장치.
  17. 제14항에 있어서,
    상기 제어부는,
    상기 제1 부분 영상의 확대 또는 축소 정도를 나타내는 확대/축소 바를 표시하고,
    상기 확대/축소 바를 통해 상기 제1 부분 영상에 대한 줌-인 요청 또는 줌-아웃 요청을 수신하는 디스플레이 장치.
  18. 제11항에 있어서,
    상기 제어부는,
    상기 주화면을 통해 표시되는 상기 제1 부분 영상 중 일부 영역에 대한 줌 명령을 수신하고,
    수신된 줌 명령에 응답하여, 상기 일부 영역에 대한 확대 또는 축소 영상을 획득하고,
    획득된 영상을 포함하는 상기 부화면을 상기 일부 영역에 대응하는 위치에 표시하는 디스플레이 장치.
  19. 제18항에 있어서,
    상기 제어부는,
    상기 부화면의 표시 위치를 이동시키기 위한 이동 요청을 수신하고,
    수신된 이동 요청에 기초하여 상기 부화면의 위치를 이동시켜 표시하고,
    상기 이동된 위치에 대응하는 영역에 대한 확대 또는 축소 영상을 상기 부화면을 통해 표시하는 디스플레이 장치.
  20. 제18항에 있어서,
    상기 일부 영역의 위치는,
    원격제어장치의 움직임에 대응하는 포인터의 표시 위치와 대응되는 디스플레이 장치.
PCT/KR2017/006620 2016-10-05 2017-06-23 디스플레이 장치 WO2018066788A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/339,696 US20190286318A1 (en) 2016-10-05 2017-06-23 Display device
EP17858583.2A EP3525453A4 (en) 2016-10-05 2017-06-23 DISPLAY DEVICE
CN201780068224.8A CN109937569A (zh) 2016-10-05 2017-06-23 显示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0128265 2016-10-05
KR1020160128265A KR20180037725A (ko) 2016-10-05 2016-10-05 디스플레이 장치

Publications (1)

Publication Number Publication Date
WO2018066788A1 true WO2018066788A1 (ko) 2018-04-12

Family

ID=61832034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/006620 WO2018066788A1 (ko) 2016-10-05 2017-06-23 디스플레이 장치

Country Status (5)

Country Link
US (1) US20190286318A1 (ko)
EP (1) EP3525453A4 (ko)
KR (1) KR20180037725A (ko)
CN (1) CN109937569A (ko)
WO (1) WO2018066788A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
EP3576413A1 (en) * 2018-05-31 2019-12-04 InterDigital CE Patent Holdings Encoder and method for encoding a tile-based immersive video
CN112533021B (zh) * 2019-09-19 2023-04-11 Vidaa(荷兰)国际控股有限公司 一种显示方法及显示设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100854714B1 (ko) * 2007-03-29 2008-08-27 주식회사 알티캐스트 수신기의 멀티비디오 재생장치
WO2010143820A2 (ko) * 2009-06-08 2010-12-16 엘지전자 주식회사 3차원 pip 영상 제공 장치 및 그 방법
KR101076610B1 (ko) * 2011-06-24 2011-10-27 (주)나인정보시스템 Ptz 카메라를 이용한 다시점 물체 탐지 및 확대 정렬 방법
US20140002439A1 (en) * 2012-06-28 2014-01-02 James D. Lynch Alternate Viewpoint Image Enhancement
KR101492980B1 (ko) * 2008-10-20 2015-02-12 동부대우전자 주식회사 다시점 화상 처리 장치 및 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034247A (ja) * 1999-07-19 2001-02-09 Minolta Co Ltd 映像表示装置
JP5223318B2 (ja) * 2007-12-07 2013-06-26 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
EP2207342B1 (en) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobile terminal and camera image control method thereof
US10440329B2 (en) * 2009-05-22 2019-10-08 Immersive Media Company Hybrid media viewing application including a region of interest within a wide field of view
JP5675141B2 (ja) * 2010-03-29 2015-02-25 キヤノン株式会社 再生装置及び再生方法
US20130127984A1 (en) * 2011-11-11 2013-05-23 Tudor Alexandru GRECU System and Method for Fast Tracking and Visualisation of Video and Augmenting Content for Mobile Devices
US9256983B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. On demand image overlay
JP2014165841A (ja) * 2013-02-27 2014-09-08 Brother Ind Ltd 情報処理装置及び情報処理方法
JP5825279B2 (ja) * 2013-02-27 2015-12-02 ブラザー工業株式会社 端末装置及びプログラム
JP6167703B2 (ja) * 2013-07-08 2017-07-26 株式会社リコー 表示制御装置、プログラム及び記録媒体
US10015551B2 (en) * 2014-12-25 2018-07-03 Panasonic Intellectual Property Management Co., Ltd. Video delivery method for delivering videos captured from a plurality of viewpoints, video reception method, server, and terminal device
CN105808046B (zh) * 2014-12-31 2019-06-11 宇龙计算机通信科技(深圳)有限公司 一种局部放大查看屏幕的方法、装置及移动终端
KR102499349B1 (ko) * 2016-03-21 2023-02-14 삼성전자주식회사 전방위 영상을 제공하는 전자 장치 및 방법
KR102542515B1 (ko) * 2016-07-28 2023-06-12 삼성전자주식회사 영상 표시 장치 및 영상 표시 방법
KR102519592B1 (ko) * 2016-09-02 2023-04-10 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100854714B1 (ko) * 2007-03-29 2008-08-27 주식회사 알티캐스트 수신기의 멀티비디오 재생장치
KR101492980B1 (ko) * 2008-10-20 2015-02-12 동부대우전자 주식회사 다시점 화상 처리 장치 및 방법
WO2010143820A2 (ko) * 2009-06-08 2010-12-16 엘지전자 주식회사 3차원 pip 영상 제공 장치 및 그 방법
KR101076610B1 (ko) * 2011-06-24 2011-10-27 (주)나인정보시스템 Ptz 카메라를 이용한 다시점 물체 탐지 및 확대 정렬 방법
US20140002439A1 (en) * 2012-06-28 2014-01-02 James D. Lynch Alternate Viewpoint Image Enhancement

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3525453A4 *

Also Published As

Publication number Publication date
EP3525453A4 (en) 2020-05-06
KR20180037725A (ko) 2018-04-13
EP3525453A1 (en) 2019-08-14
US20190286318A1 (en) 2019-09-19
CN109937569A (zh) 2019-06-25

Similar Documents

Publication Publication Date Title
WO2017142151A1 (en) Display device and operating method thereof
WO2018216865A1 (en) Display device and operating method thereof
WO2021070992A1 (ko) 디스플레이 장치
WO2016204520A1 (en) Display device and operating method thereof
WO2017159941A1 (en) Display device and method of operating the same
WO2019135433A1 (ko) 디스플레이 장치 및 디스플레이 장치를 포함하는 시스템
WO2018066788A1 (ko) 디스플레이 장치
WO2020235699A1 (ko) 디스플레이 장치
WO2015186857A1 (ko) 영상 표시 기기 및 그의 동작 방법
WO2019172472A1 (ko) 디스플레이 장치
WO2021251519A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2021010511A1 (ko) 디스플레이 장치
WO2022149650A1 (en) Display device and display system
WO2022034935A1 (ko) 맞춤 광고를 제공하는 디스플레이 장치 및 그의 동작 방법
WO2020230923A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
WO2021015319A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2020222322A1 (ko) 음성 인식 서비스를 제공하기 위한 디스플레이 장치
WO2023149590A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2023210843A1 (ko) 디스플레이 장치
WO2024135871A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2023195556A1 (ko) 디스플레이 장치
WO2024117306A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2023182624A1 (ko) 디스플레이 장치
WO2024010110A1 (ko) 디스플레이 장치 및 그의 동작 방법
WO2022255519A1 (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17858583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017858583

Country of ref document: EP

Effective date: 20190506