WO2008062586A1 - Display, display method, display program, and recording medium - Google Patents

Display, display method, display program, and recording medium Download PDF

Info

Publication number
WO2008062586A1
WO2008062586A1 PCT/JP2007/064565 JP2007064565W WO2008062586A1 WO 2008062586 A1 WO2008062586 A1 WO 2008062586A1 JP 2007064565 W JP2007064565 W JP 2007064565W WO 2008062586 A1 WO2008062586 A1 WO 2008062586A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display device
touch panel
determination
input
Prior art date
Application number
PCT/JP2007/064565
Other languages
French (fr)
Japanese (ja)
Inventor
Akizumi Fujioka
Toshihiro Yanagi
Masami Ozaki
Keiichi Yamamoto
Asahi Yamato
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Publication of WO2008062586A1 publication Critical patent/WO2008062586A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • Display device display method, display program, and recording medium
  • the present invention relates to a display device, a display method, a display program, and a recording medium that display an image (object) three-dimensionally.
  • 3D display is used to display a selection object such as a button in a three-dimensional manner to improve the reality of the user interface.
  • selection object such as a button
  • several techniques have been proposed to improve operability when selecting objects displayed in 3D.
  • Patent Document 1 discloses a display unit that displays an image for operation, and a touch panel that is formed on the display unit so as to be superimposed on the display unit and that is pressed by a pressing unit to perform input for operation. And a sensor which is disposed at a predetermined distance from the operation surface of the touch panel and detects the approach to the operation surface before the pressing means touches the touch panel, and a stereoscopic parallax image and a planar image.
  • an operation panel device that includes a control unit that is configured to switch an image displayed on the display unit between a stereoscopic parallax image and a planar image in response to detection by the sensor.
  • Patent Document 2 a 3D stereoscopic image displayed on a 3D display device can be displayed in front of the touch panel as viewed from the viewer's power, and the touch panel can be displayed with a fingertip or the like.
  • An image display system is disclosed in which an object other than the object pointed to is moved forward when touching.
  • Patent Document 1 Japanese Published Patent Publication “Japanese Unexamined Patent Publication No. 2004-280496 (Publication Date: 10th 07th 2004)”
  • Patent Document 2 Japanese Patent Publication “JP-2006-293878 (Publication Date: 26th Jan. 2006)”
  • a stereoscopic image is switched to a planar image before the user's finger touches the touch panel.
  • it gives the user an uncomfortable feeling that an object that has not been touched appears to be retracted.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to display a display that gives a natural impression to the user when the user selects a three-dimensionally displayed object. And a display method, a display program, and a recording medium.
  • a display device According to the present invention, provides
  • a display device comprising a display means for three-dimensionally displaying an object on a three-dimensional display arranged at a certain distance from the input device!
  • Determination means for determining whether or not the object is displayed at a position on the three-dimensional display corresponding to the detected input position
  • the display means is characterized in that, when the determination result by the determination means is true, the display state of the object is changed to a lower one.
  • the display means displays the object three-dimensionally on the three-dimensional display arranged at a certain distance from the input device.
  • the object here is an operation object for accepting a selection by the user, such as a button or a switch. It is a project.
  • the input device is a contact or non-contact type touch panel, for example, arranged with the input detection surface parallel to the 3D display.
  • the display means for example, based on the principle of binocular parallax, does not require so-called 3D glasses, and three-dimensionally displays an object on a three-dimensional display so that a stereoscopic view can be obtained simply by viewing it as it is.
  • an input device is arranged at a fixed distance from the 3D display.
  • the input device is disposed on the near side as viewed from the user.
  • the detection means detects an input position in the input device. Specifically, if the input device is a touch-type touch panel, for example, the position where the user touched with a finger is specified by coordinates. In accordance with this detection process, the determination unit determines whether or not the object is displayed at the position on the three-dimensional display corresponding to the detection position on the input device detected by the detection unit. In other words, it is determined whether or not the user selects an object displayed in 3D through the input device.
  • the display unit changes the display state of the selected object to a lower one. For example, if the object is a button, the display state is changed so that it is retracted to the display device (3D display) side as seen from the user.
  • a plane object may be displayed instead of a three-dimensional object.
  • the display device has an effect of enabling display that gives a natural impression to the user when the user selects an object displayed in three dimensions.
  • a display method according to the present invention provides
  • the input device is a contact type touch panel.
  • the input device is a non-contact touch panel
  • a panel made of, for example, an acrylic plate is arranged at the input position detected by the non-contact touch panel. Therefore, when the user touches the panel, the non-contact touch panel detects the input by the user, and the height of the corresponding object is lowered. As a result, the user can feel the force as well as the force of feeling as if the user actually touched the object.
  • the display means is
  • the display unit approximately matches the height of the object with the distance between the input device and the three-dimensional display before the determination result by the determination unit becomes true.
  • the object is displayed in 3D so that the foreground of the object substantially matches the display surface of the 3D display.
  • the user can feel as if he / she actually touched the object when inputting to the input device.
  • the display device has an effect of further improving the operability when selecting an object.
  • the display means is
  • the determination means Before the determination result by the determination means becomes true, it is preferable to display only the active object among the plurality of objects in a three-dimensional display! /.
  • the display unit three-dimensionally displays only active ones of the plurality of objects before the determination result by the determination unit becomes true.
  • the active object is an object that is set to perform a specific process on the display device after being selected!
  • the object is a key for inputting a predetermined number, and if the user selects this key, the number assigned to the key is set to be input!
  • the object corresponds to an active object.
  • the display device displays only the active object in three dimensions, and is not active! / ⁇ In other words, the display device does not perform any processing even if selected! / , Do not display 3D. This allows the user to easily distinguish selectable objects from others. In addition, you can prevent accidental selection of objects that cannot be selected. Accordingly, the display device has an effect that the operability at the time of object selection by the user can be further improved.
  • the display means is
  • the determination means Before the determination result by the determination means becomes true, it is preferable to display the object with a shadow.
  • the object can be displayed more three-dimensionally. Therefore, the object can be identified more easily.
  • the display means is
  • the display state of the object is preferably changed to a height corresponding to the input area of the input device.
  • the display unit changes the display state of the object with a height corresponding to the input area of the input device.
  • the input area here is the contact area in the touch panel when the input device is a contact-type touch panel.
  • the input device when the input device is a non-contact type touch panel, it is the area of the input position detected by the touch panel.
  • the object when the object is a button, the height of the object is changed to be lower as the input area is larger.
  • the input area is regarded as pressing pressure, and the dent of the button is proportional to the pressure.
  • the display device has an effect of giving the user a stronger impression that the object has been selected.
  • the display means is
  • the display state of the object is preferably changed to a shape corresponding to the input area of the input device.
  • the display unit changes the display state of the object to a shape corresponding to the input area of the input device.
  • the input area here is a contact area in the touch panel when the input device is a contact type touch panel.
  • the input device is a non-contact type touch panel, it is the area of the input position detected by the touch panel. For example, if the object is a sphere, the input area is regarded as a pressing pressure, and the object is displayed in a deformed shape corresponding to the pressure, that is, an elliptical sphere.
  • the display device has an effect of giving the user a stronger impression that the object has been selected.
  • the display device may be realized by a computer.
  • a display program for realizing the display device in a computer by operating the computer as each of the above means, and a computer-readable recording medium recording the display program also fall within the scope of the present invention.
  • FIG. 1 is a block diagram showing a main configuration of a display device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing a positional relationship between a 3D display and a touch panel.
  • FIG. 3 is a diagram showing a display state of a plurality of 3D buttons. (A) shows how multiple 3D buttons are displayed, and (b) shows how one of these 3D buttons is selected with a finger.
  • FIG. 4 is a diagram showing a display state of a plurality of 3D buttons. (A) shows a 3D display of only the active 3D buttons, and (b) shows a 3D object shaded and displayed!
  • FIG. 5 is a diagram showing a display state of a 3D object.
  • A shows a display example of a 3D object before the finger touches the touch panel, and
  • (b) shows after the finger touches the touch panel. The state of the 3D object whose shape has changed is shown.
  • FIG. 1 is a block diagram showing a main configuration of a display device 1 according to an embodiment of the present invention.
  • the display device 1 includes a 3D display 2 (3D display), a touch panel 3 (input device, contact-type touch panel), a memory 4, and a control unit 10.
  • the 3D display 2 is hardware that displays information and presents it to the user.
  • it is realized as a liquid crystal display or plasma display.
  • the 3D display 2 provided in the display device 1 can display an image (object) in a three-dimensional manner. Specifically, based on the principle of binocular parallax, a so-called 3D negative is not required, and a display that allows a stereoscopic view to be obtained by just looking at the screen is possible.
  • the touch panel 3 is hardware used by the user to select a 3D object displayed on the 3D display 2.
  • the touch panel 3 is arranged at a fixed distance from the 3D display 2! /. This point will be described later.
  • the memory 4 is hardware that stores various data used when the control unit 10 executes processing. This corresponds to a so-called nonvolatile memory or volatile memory.
  • the display image data is stored in the memory 4.
  • the control unit 10 is responsible for processing that the display device 1 executes internally. More specifically, the control unit 10 includes a detection unit 12 (detection unit), a display unit 11 (display unit), a touch determination unit 13 (determination unit), and a touch area calculation unit 14.
  • FIG. 2 is a diagram showing a positional relationship between the 3D display 2 and the touch panel 3.
  • a backlight 21 is provided on the back side of the 3D display 2.
  • the touch panel 3 includes a protection panel 23 and a touch sensor 22.
  • the touch sensor 22 outputs an electrical signal indicating the contact position on the touch panel 3 to the control unit 10.
  • the touch panel 3 shown in FIG. 2 is a so-called capacitive touch panel.
  • the touch panel 3 is not limited to the capacitance type, and may be a so-called resistance film type. In this case, the positions of the touch sensor and the protection panel are opposite to those of the capacitive type.
  • the 3D display 2 is arranged at a certain distance a from the touch panel 3. More specifically, the display surface of the 3D display 2 and the contact surface of the touch panel 3 are separated by a distance a.
  • the touch panel 3 is arranged on the front side as viewed from the user. That is, the 3D display 2 is arranged on the depth side as viewed from the user.
  • the 3D display 2 displays a 3D button 24 as shown in FIG. At this time, the height of the 3D button 24 is made substantially equal to the distance a. As a result, the foremost force of the 3D button 24 substantially matches the contact surface of the 3D display 2.
  • the user touches the touch panel 3 with the finger 25. At this time, since the forefront of the 3D button 24 and the contact surface of the touch panel 3 are substantially coincident, when the user touches the touch panel 3, the user feels as if he / she touched the 3D button 24 itself. Touch with force S.
  • FIG. 3 is a diagram showing a display state of a plurality of 3D buttons.
  • (A) is a diagram showing a state in which 3D button 3;! To 33 is displayed, and
  • (b) is a diagram showing a state in which one of these 3D buttons is selected with the finger 25.
  • FIG. 3 is a diagram showing a display state of a plurality of 3D buttons.
  • the display unit 11 reads display data from the memory 4. Then, the object included in the read data is displayed on the 3D display 2 as a three-dimensional object as shown in FIG. In the example of Fig. 3 (a), 3D button 3;! -33 is displayed. At this time, the height of each 3D button is made to substantially coincide with the distance a between the touch panel 3 and the 3D display 2. In other words, before the object is selected by the user (that is, before the determination result by the touch detection unit 13 becomes true), the object is placed so that the foremost surface of the object substantially matches the display surface of the 3D display 2. 3D display. As a result, when the user touches the touch panel 3, the user can feel as if he / she actually touched the object. Accordingly, the display device 1 can improve operability when selecting an object.
  • the display unit 11 can freely change the height of the 3D object as appropriate. In other words, the height of the displayed object does not necessarily match the distance a.
  • the user can select each 3D button 3;! To 33 displayed in three dimensions by touching the touch panel 3. Specifically, the user presses finger 25 Touch the touch panel 3 in place.
  • the detection unit 12 outputs a scan signal to the touch panel 3 at a predetermined cycle. In response to this scan signal, the touch sensor 22 of the touch panel 3 outputs an electrical signal indicating the position of contact to the control unit 10.
  • the contact position on the touch panel 3 is detected by the detection unit 12 analyzing this electrical signal. For example, the X and y coordinates of touch panel 3 are calculated.
  • the detection unit 12 outputs the calculated X coordinate and y coordinate to the touch determination unit 13.
  • the touch determination unit 13 determines whether or not the user has selected the 3D button based on the input X coordinate and y coordinate.
  • the display data stored in the memory 4 includes coordinate data for specifying the display position on the 3D display 2 of the 3D button 3;! Therefore, the touch determination unit 13 collates the coordinates indicating the detection position on the touch panel 3 calculated by the detection unit 12 with the display coordinates of each 3D button, thereby detecting the detected contact position 1S 3D button display position. It is determined whether or not they match.
  • the contact position of the touch panel 3 touched by the finger 25 corresponds to the display position of the 3D button 33.
  • the touch determination unit 13 determines that the user has selected the 3D button 33.
  • the touch determination unit 13 outputs the determination result to the display unit 11.
  • the touch determination unit 13 performs this determination, for example, at the predetermined cycle described above. Therefore, if the predetermined period is 100 milliseconds, every time 100 milliseconds elapse, it is determined whether or not the user has pressed the 3D button, and the result is output to the display unit 11.
  • the display unit 11 changes the display state of each 3D button based on the determination result of the touch determination unit 13. Specifically, the display state of the 3D button whose determination result by the touch determination unit 13 is “true” is changed to a lower one. In the example of FIG. 3B, the display state of the 3D button 33 is changed to a 2D object 34 having a height of zero. That is, the display state is changed so that it is retracted to the display device 1 (3D display 2) side as seen from the user.
  • 3D button 33 when the user selects the 3D button 33, it appears that the 3D button 33 is retracted in accordance with the selection operation. In other words, you will witness the same phenomenon as when you press a real button or switch. As a result, 3D button 33 to 2D button 34 The ability to receive changes in the display as natural.
  • the display device 1 can perform display that gives a natural impression to the user when the user selects an object displayed in three dimensions.
  • the display unit 11 may three-dimensionally display only active objects among a plurality of objects (buttons) before the determination result by the touch determination unit 13 becomes true. This situation will be described below with reference to FIG.
  • FIG. 4 is a diagram showing a display state of a plurality of 3D buttons, and (a) shows a state in which only active ones of the plurality of buttons are three-dimensionally displayed.
  • the display unit 11 displays a three-dimensional display on the 3D display only of the active objects among the plurality of objects before the determination result by the touch determination unit 13 becomes true.
  • the active object here is an object that is set to be subjected to a specific process in the display device 1 after being selected. For example, an object is a button for inputting a predetermined number, and if the user selects this button, the number assigned to the button is set to be input! Objects correspond to active objects.
  • buttons 31 and the 3D button 32 force are active buttons. Therefore, the display unit 11 displays these buttons three-dimensionally. On the other hand, 2D button 34 is not active. Therefore, 2D display.
  • the display unit 11 displays only the active object in a three-dimensional manner.
  • the display device 1 is not active, that is, the display device 1 does not perform any processing! /, The setting is made! /, Or the object is! Regardless of the judgment result, 3D display is not always performed. This allows the user to easily distinguish selectable objects from others. Furthermore, it is possible to prevent an object that cannot be selected from being selected by mistake.
  • the display device 1 can improve the operability at the time of object selection by the user more and more. [0069] (shadows the 3D display object)
  • the display unit 11 may display the 3D object with a shadow before the determination result by the touch determination unit 13 becomes true. This situation is explained below with reference to Fig. 4 (b).
  • FIG. 4 is a diagram showing a display state of a plurality of 3D buttons
  • (b) is a diagram showing a state in which the 3D buttons are shaded and displayed.
  • the display unit 11 displays a shadow 41 at a position where the active 3D button 31 projects onto the display surface of the 3D display 2.
  • a shadow 42 is displayed at a position where the active 3D button 32 projects onto the display surface of the 3D display 2.
  • the display unit 11 can change the display state of the object to a shape corresponding to the contact area on the touch panel 3 when the determination result by the touch determination unit 13 is true. An example of this is shown in FIG.
  • FIG. 5 is a diagram showing a display state of the 3D object.
  • (A) shows a display example of a 3D object before the finger 25 touches the touch panel 3
  • the display unit 11 displays a 3D object 51 that is a sphere having a radius a on the 3D display 2.
  • This 3D object 51 is preliminarily set in the display data in the memory 4 and is subject to shape change.
  • Touch panel 3 is a panel that can detect multiple points. That is, an electrical signal indicating a plurality of coordinates corresponding to each position where contact has occurred is output to the control unit 10.
  • the detection unit 12 detects all coordinates corresponding to the position where the touch panel 3 is in contact. Thereby, all the coordinate information indicating the detected coordinates is output to both the touch determination unit 13 and the touch area calculation unit 14.
  • the detection unit 12 receives the input coordinate information, the coordinate information of the display position of the 3D object 51, and Compare In the example of (b) of FIG. 5, the result of determination by the touch determination unit 13 becomes true by this comparison. Therefore, the touch determination unit 13 outputs to the touch area calculation unit 14 that the 3D object to be changed is in contact.
  • the touch area calculation unit 14 calculates the area where the finger 25 touches the touch panel 3. At this time, the coordinate information input from the detection unit 12 is used. As a method for calculating the area, a known technique can be appropriately used.
  • the touch area calculation unit 14 outputs the calculated area to the display unit 11 and notifies the display unit 11 to change the display state of the 3D object 51 to a display corresponding to the area.
  • the display unit 11 changes the display state of the 3D object 51 to a shape corresponding to the contact area of the finger 25 on the touch panel 3.
  • the contact area is regarded as a pressing pressure
  • the 3D object 51 is displayed in a deformed shape corresponding to the pressure, that is, an elliptical sphere.
  • the 3D object 51 is a spherical force having a radial force and a volume of S.
  • the display unit 11 changes the shape of the 3D object 51 to a low shape while keeping the volume S of the 3D object constant. Further, according to the lowered height, the shape of the 3D object 51 is changed to an elliptical spherical shape, that is, a shape spreading in the plane direction. As a result, as shown in FIG. 5 (b), the display unit 11 replaces the spherical 3D object 51 with an elliptical spherical shape having a height of a ⁇ 2, a planar radius of ⁇ 2a, and a volume of S.
  • the 3D object 52 is displayed on the 3D display 2.
  • the display device 1 can give the user a stronger impression that the object has been selected.
  • the display unit 11 changes the display state of the 3D object to a height corresponding to the contact area on the touch panel 3 when the determination result by the touch determination unit 13 is true.
  • the display unit 11 changes the 3D object display state with a height corresponding to the contact area on the touch panel 3. For example, if the 3D object is a 3D button, the larger the contact area, Change the button height to a lower one. In other words, considering the contact area as pressing pressure,
  • the display device 1 gives the impression that the object is surely selected.
  • the above-mentioned “before the determination result by the touch determination unit 13 becomes true” more strictly means that the determination result becomes true after a certain time after the determination result by the touch determination unit 13 becomes false.
  • Means the period until. This period is a period when the user does not select the 3D object, and the display device 1 makes the height of the 3D object substantially coincide with the distance a between the touch panel 3 and the 3D display 2 during this period. Only the active 3D object is displayed in 3D, or the shadow is displayed on the 3D object.
  • the touch panel 3 is a so-called non-contact type touch panel, and may detect an input position by a user using an optical sensor or electromagnetic induction. Further, when a non-contact type touch panel is used as the touch panel 3, a panel arranged in parallel with the 3D display 2 may be further provided at a position spaced apart from the 3D display 2.
  • the panel is arranged at the input position detected by the non-contact touch panel. Therefore, when the user touches the panel, the non-contact touch panel detects the input by the user, and the height of the corresponding object becomes lower. As a result, the user can feel as if he / she actually touched the object. In the non-contact type touch panel, the input area when the user's input process is accepted can be obtained.
  • the display unit 11 may change the display state of the 3D object, and at the same time, a sound processing unit (not shown) may output a specific sound through a speaker (not shown). This allows the user to hear through the hearing that the 3D object has been selected. The ability to endure and confirm S
  • the vibration processing unit may vibrate the display device 1 by vibrating a vibrator (not shown). This allows the user to confirm through tactile sense that the 3D object has been selected.
  • a specific scent may be emitted from a scent processing unit (not shown) or a scent storage (not shown). For example, break the smell ball. This allows the user to confirm through the olfaction that the 3D object has been selected.
  • each block included in the display device 1 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.
  • CPU Central Processing Unit
  • the display device 1 is a CPU that executes instructions of a control program that realizes each function.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • storage devices such as the memory that stores the control program and various data (Recording media).
  • the object of the present invention can also be achieved by a predetermined recording medium.
  • This recording medium records the program code (execution format program, intermediate code program, source program) of the control program of the display device 1 which is software that realizes the above-mentioned functions so that it can be read by a computer! / Yo! /
  • This recording medium is supplied to the display device 1. This allows the display device 1 (or CPU or MPU) as a computer to read and execute the program code recorded on the supplied recording medium! /.
  • the recording medium that supplies the program code to the display device 1 is not limited to a specific structure or type. That is, this recording medium is, for example, a magnetic tape or a cassette tape. Tape system such as floppy disk, disk system including magnetic disk such as floppy disk / hard disk and optical disk such as CD—ROM / MO / MD / DVD / CD—R, IC card (including memory card) / Card system such as optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
  • Tape system such as floppy disk, disk system including magnetic disk such as floppy disk / hard disk and optical disk such as CD—ROM / MO / MD / DVD / CD—R, IC card (including memory card) / Card system such as optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
  • the display device 1 is configured to be connectable to a communication network, the object of the present invention can be achieved.
  • the program code is supplied to the display device 1 via the communication network.
  • the communication network is not limited to a specific type or form as long as it can supply the program code to the display device 1.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, etc. may be used.
  • the transmission medium constituting the communication network is not limited to a specific configuration or type as long as it is an arbitrary medium capable of transmitting the program code.
  • IEEE1 394 Universal Serial Bus
  • power line carrier for example, IEEE1 394, USB (Universal Serial Bus), power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc., infrared such as IrD A remote control, Bluetooth (registered trademark) 802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, etc.
  • the present invention can also be realized in the form of a converter data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the display device includes a determination unit that determines whether an object is displayed at a position on the three-dimensional display corresponding to the input position on the input device, and the determination.
  • the display means for changing the display state of the object to a lower one is provided, so when the user selects an object displayed in three dimensions, There is an effect that a display that gives a natural impression to the user can be performed.
  • the present invention can be used as a display device capable of selecting an object displayed three-dimensionally through a touch panel.
  • a display device capable of selecting an object displayed three-dimensionally through a touch panel.
  • it can be applied to various uses such as bank ATMs and home game machines.

Abstract

A display (1) three-dimensionally displays an object on a 3D display (2) arranged at a certain distance from a touch panel (3). In the display (1), a detection section (12) detects a contact position in the touch panel (3). A touch judging section (13) judges whether or not the 3D object is displayed in the position in the 3D display (2) corresponding to the contact position detected by the detection section (12). When the result of the judgment by the touch judging section (13) is true, a display section (11) lowers the height of the display of the 3D object. This results in the display of giving the user a natural impression when the user selects the three-dimensionally displayed object

Description

明 細 書  Specification
表示装置、表示方法、表示プログラム、および記録媒体  Display device, display method, display program, and recording medium
技術分野  Technical field
[0001] 本発明は、画像 (オブジェクト)を 3次元表示する表示装置、表示方法、表示プログ ラム、および記録媒体に関する。  The present invention relates to a display device, a display method, a display program, and a recording medium that display an image (object) three-dimensionally.
背景技術  Background art
[0002] ディスプレイ技術の革新に伴い、画像を 2次元ではなく 3次元表示できるディスプレ ィが登場してきた。特に昨今、両眼視差の原理に基づき、いわゆる 3Dネガネの装着 を必要とせず、そのまま画面を見るだけで立体視が得られるような表示を可能にした 、 3次元表示ディスプレイが開発されている。  [0002] With the innovation of display technology, displays that can display 3D images instead of 2D have appeared. In particular, based on the principle of binocular parallax, a 3D display has been developed that does not require wearing a so-called 3D negative and enables a display that allows stereoscopic viewing by simply looking at the screen.
[0003] 従来、このような 3次元表示ディスプレイを用いて、ボタンなどの選択用オブジェクト を立体表示し、ユーザインターフェースのリアリティを高める工夫がなされている。さら に従来、立体表示したオブジェクトを選択するときの操作性を向上させる技術力 いく つか提案されている。  [0003] Conventionally, such a 3D display is used to display a selection object such as a button in a three-dimensional manner to improve the reality of the user interface. In addition, several techniques have been proposed to improve operability when selecting objects displayed in 3D.
[0004] たとえば特許文献 1には、操作のための画像を表示する表示部と、前記表示部上 に重ね合わせて形成され、押圧手段によって押圧されることにより操作のための入力 が行われるタツチパネルと、前記タツチパネルの操作面と所定の距離離間して配設さ れ、前記押圧手段が前記タツチパネルに触れる以前に該操作面への接近を検知す るセンサと、立体視差画像と平面画像とを形成し、前記センサの検知に応じて前記表 示部に表示される画像を立体視差画像と平面画像との間で切り替える制御手段とを 備えた操作パネル装置が開示されている。  [0004] For example, Patent Document 1 discloses a display unit that displays an image for operation, and a touch panel that is formed on the display unit so as to be superimposed on the display unit and that is pressed by a pressing unit to perform input for operation. And a sensor which is disposed at a predetermined distance from the operation surface of the touch panel and detects the approach to the operation surface before the pressing means touches the touch panel, and a stereoscopic parallax image and a planar image. There is disclosed an operation panel device that includes a control unit that is configured to switch an image displayed on the display unit between a stereoscopic parallax image and a planar image in response to detection by the sensor.
[0005] 一方で特許文献 2には、 3次元表示装置で表示される 3次元立体画像を、観察者 力、ら見て前記タツチパネルよりも手前に表示できるようにし、そして、指先などで前記 タツチパネルに触れたときに、指し示しているオブジェクト以外のオブジェクトを手前 に移動させる画像表示システムが開示されている。  On the other hand, in Patent Document 2, a 3D stereoscopic image displayed on a 3D display device can be displayed in front of the touch panel as viewed from the viewer's power, and the touch panel can be displayed with a fingertip or the like. An image display system is disclosed in which an object other than the object pointed to is moved forward when touching.
特許文献 1 :日本国公開特許公報「特開 2004— 280496号公報 (公開日: 2004年 1 0月 07日)」 特許文献 2 :日本国公開特許公報「特開 2006— 293878号公報 (公開日: 2006年 1 0月 26日)」 Patent Document 1: Japanese Published Patent Publication “Japanese Unexamined Patent Publication No. 2004-280496 (Publication Date: 10th 07th 2004)” Patent Document 2: Japanese Patent Publication “JP-2006-293878 (Publication Date: 26th Jan. 2006)”
発明の開示  Disclosure of the invention
[0006] しかし、上述した従来技術には、立体表示されたオブジェクトを選択しょうとするュ 一ザに、表示に関する違和感を与えるという問題がある。  [0006] However, the above-described prior art has a problem in that a user trying to select a three-dimensionally displayed object gives an uncomfortable feeling regarding display.
[0007] たとえば特許文献 1の技術では、ユーザの指がタツチパネルに触る前に、立体画像 が平面画像に切り替わってしまう。つまり、触れてもいないオブジェクトが奥に引っ込 んで見える違和感を、ユーザに与えてしまう。 For example, in the technique of Patent Document 1, a stereoscopic image is switched to a planar image before the user's finger touches the touch panel. In other words, it gives the user an uncomfortable feeling that an object that has not been touched appears to be retracted.
[0008] 一方、特許文献 2の技術では、操作対象以外のオブジェクトが手前に浮き上がって 表示される。このようなことは、通常、現実のボタン (オブジェクト)を押下する際には起 こりえない。つまり、予測し得ない表示がなされるという違和感を、ユーザに与えてし まう。 [0008] On the other hand, in the technique of Patent Document 2, objects other than the operation target float up and are displayed. This usually does not happen when pressing a real button (object). In other words, it gives the user an uncomfortable feeling that the display is unpredictable.
[0009] 本発明は上記の課題を解決するためになされたものであり、その目的は、 3次元表 示されたオブジェクトをユーザが選択したとき、ユーザに自然な印象を与える表示を 行う表示装置、表示方法、表示プログラム、および記録媒体を提供することにある。  [0009] The present invention has been made to solve the above-described problems, and an object of the present invention is to display a display that gives a natural impression to the user when the user selects a three-dimensionally displayed object. And a display method, a display program, and a recording medium.
[0010] (表示装置の基本構成)  [0010] (Basic configuration of display device)
本発明に係る表示装置は、上記の課題を解決するために、  In order to solve the above problems, a display device according to the present invention provides
入力デバイスから一定距離を置!/、て配置された 3次元表示ディスプレイに、ォブジ ェクトを 3次元表示する表示手段を備えている表示装置であって、  A display device comprising a display means for three-dimensionally displaying an object on a three-dimensional display arranged at a certain distance from the input device!
上記入力デバイスにおける接触位置を検出する検出手段と、  Detecting means for detecting a contact position in the input device;
上記検出された入力位置に対応する、上記 3次元表示ディスプレイにおける位置 に、上記オブジェクトが表示されているか否かを判定する判定手段とをさらに備えて おり、  Determination means for determining whether or not the object is displayed at a position on the three-dimensional display corresponding to the detected input position;
上記表示手段は、上記判定手段による判定結果が真であるとき、上記オブジェクト の表示状態を、より高さの低いものに変更することを特徴としている。  The display means is characterized in that, when the determination result by the determination means is true, the display state of the object is changed to a lower one.
[0011] 上記の構成によれば、表示手段は、入力デバイスから一定距離を置いて配置され た 3次元表示ディスプレイに、オブジェクトを 3次元表示する。ここでいうオブジェクトは 、たとえばボタンやスィッチなど、ユーザによる選択を受け付けるための操作用ォブジ ェクトである。また入力デバイスは、接触型あるいは非接触型のタツチパネルであり、 たとえば入力の検出面が 3次元ディスプレイと平行になった状態で配置されている。 さらに表示手段は、たとえば両眼視差の原理に基づき、いわゆる 3Dメガネを必要と せず、そのまま見るだけで立体視が得られるように、オブジェクトを 3次元ディスプレイ に 3次元表示する。 [0011] According to the above configuration, the display means displays the object three-dimensionally on the three-dimensional display arranged at a certain distance from the input device. The object here is an operation object for accepting a selection by the user, such as a button or a switch. It is a project. The input device is a contact or non-contact type touch panel, for example, arranged with the input detection surface parallel to the 3D display. Furthermore, the display means, for example, based on the principle of binocular parallax, does not require so-called 3D glasses, and three-dimensionally displays an object on a three-dimensional display so that a stereoscopic view can be obtained simply by viewing it as it is.
[0012] ここで、 3次元表示ディスプレイから一定距離を置!/、て、入力デバイスが配置されて いる。たとえば入力デバイスは、ユーザから見てより手前側に配置される。これにより ユーザは、 3次元表示されたオブジェクトを選択するとき、もし入力デバイスが接触型 タツチパネルであれば、指ゃタツチペンで触れればよぐ非接触型タツチパネルであ れば、指ゃタツチペンをオブジェクトに向かって近づければよい。  [0012] Here, an input device is arranged at a fixed distance from the 3D display. For example, the input device is disposed on the near side as viewed from the user. As a result, when the user selects an object displayed in 3D, if the input device is a touch-type touch panel, the user can touch the touch-pen with an object. You just need to get closer to
[0013] 表示装置において、検出手段が、入力デバイスにおける入力位置を検出する。具 体的には、入力デバイスが接触型タツチパネルなら、たとえばユーザが指で触った位 置を、座標によって特定する。この検出処理に応じて、判定手段が、検出手段によつ て検出された、入力デバイスにおける検出位置に対応する、 3次元表示ディスプレイ における位置に、オブジェクトが表示されているか否かを判定する。言い換えれば、 3 次元表示されてレ、るオブジェクトを、ユーザが入力デバイスを通じて選択したか否か を判定する。  [0013] In the display device, the detection means detects an input position in the input device. Specifically, if the input device is a touch-type touch panel, for example, the position where the user touched with a finger is specified by coordinates. In accordance with this detection process, the determination unit determines whether or not the object is displayed at the position on the three-dimensional display corresponding to the detection position on the input device detected by the detection unit. In other words, it is determined whether or not the user selects an object displayed in 3D through the input device.
[0014] 判定手段による判定結果が真であるとき、表示手段は、選択されたオブジェクトの 表示状態を、より高さの低いものに変更する。たとえばオブジェクトがボタンなら、ユー ザから見て表示装置(3次元表示ディスプレイ)側に引っ込んだように、表示状態を変 更する。また、立体のオブジェクトの代わりに、平面のオブジェクトを表示するようにし てもよい。  [0014] When the determination result by the determination unit is true, the display unit changes the display state of the selected object to a lower one. For example, if the object is a button, the display state is changed so that it is retracted to the display device (3D display) side as seen from the user. In addition, a plane object may be displayed instead of a three-dimensional object.
[0015] これによりユーザは、立体オブジェクトを選択したとき、当該オブジェクトがその選択 動作に応じて奥に引っ込んだように見える。つまり、現実のボタンやスィッチを押下し たときと同じような事象を、 目の当たりにする。これにより、オブジェクトの表示変化を 自然なあのとして受け取ること力 Sでさる。  [0015] With this, when the user selects a three-dimensional object, it appears that the object is retracted in the back according to the selection operation. In other words, you will witness the same phenomenon as when you press a real button or switch. As a result, it is possible to receive the change in the display of the object as if it were natural.
[0016] このように表示装置は、 3次元表示されたオブジェクトをユーザが選択したとき、ュ 一ザに自然な印象を与える表示を行うことができる効果を奏する。 [0017] (表示方法) As described above, the display device has an effect of enabling display that gives a natural impression to the user when the user selects an object displayed in three dimensions. [0017] (Display method)
本発明に係る表示方法は、上記の課題を解決するために、  In order to solve the above problems, a display method according to the present invention provides
入力デバイスから一定距離を置いて配置された 3次元表示ディスプレイにオブジェ タトを 3次元表示する表示装置が実行する表示方法であって、  A display method executed by a display device that three-dimensionally displays an object on a three-dimensional display arranged at a certain distance from an input device,
上記入力デバイスにおける入力位置を検出する検出ステップと、  A detection step of detecting an input position in the input device;
上記検出された入力位置に対応する、上記 3次元表示ディスプレイにおける位置 に、上記オブジェクトが表示されて!/、るか否かを判定する判定ステップと、  A determination step of determining whether or not the object is displayed at a position on the 3D display corresponding to the detected input position! /,
上記判定ステップにおける判定結果が真であるとき、上記オブジェクトの表示状態 を、より高さの低いものに変更する表示変更ステップとを含んでいることを特徴として いる。  A display change step for changing the display state of the object to a lower one when the determination result in the determination step is true.
[0018] 上記の構成によれば、本発明に係る表示装置と同様の作用効果を奏する。  [0018] According to the above configuration, the same operational effects as the display device according to the present invention can be obtained.
[0019] (接触型タツチパネル) [0019] (Contact type touch panel)
また、本発明に係る表示装置では、さらに、上記入力デバイスは接触型タツチパネ ルであることが好ましい。  Further, in the display device according to the present invention, it is preferable that the input device is a contact type touch panel.
[0020] 上記の構成によれば、ユーザが接触型タツチパネルに接触したとき、対応するォブ ジェタトの高さがより低くなる。これにより、ユーザがあた力、もオブジェクトに実際に触 れたかのように感じること力 Sできる効果を奏する。 [0020] According to the above configuration, when the user touches the contact-type touch panel, the height of the corresponding object becomes lower. As a result, there is an effect that the user can feel the force as well as the force S as if the object was actually touched.
[0021] (非接触型タツチパネル) [0021] (Non-contact type touch panel)
また、本発明に係る表示装置では、さらに、  In the display device according to the present invention,
上記入力デバイスは非接触型タツチパネルであり、  The input device is a non-contact touch panel,
上記 3次元表示ディスプレイから上記一定距離を置!/、た位置に、上記 3次元表示 ディスプレイと平行に配置されるパネルをさらに備えていることが好ましい。  It is preferable to further include a panel arranged in parallel with the three-dimensional display at a position at a certain distance from the three-dimensional display.
[0022] 上記の構成によれば、非接触型タツチパネルが検知する入力位置に、たとえばァク リル板からなるパネルが配置されている。したがって、ユーザがパネルに触れたときに 、非接触型タツチパネルがユーザによる入力を検出し、対応するオブジェクトの高さ 力 り低くなる。これにより、ユーザがあた力、もオブジェクトに実際に触れたかのように 感じること力 Sできる ¾]果を奏する。  [0022] According to the above configuration, a panel made of, for example, an acrylic plate is arranged at the input position detected by the non-contact touch panel. Therefore, when the user touches the panel, the non-contact touch panel detects the input by the user, and the height of the corresponding object is lowered. As a result, the user can feel the force as well as the force of feeling as if the user actually touched the object.
[0023] (オブジェクトの高さを限定) また、本発明に係る表示装置では、さらに、 [0023] (Limit object height) In the display device according to the present invention,
上記表示手段は、  The display means is
上記判定手段による判定結果が真になる前において、上記オブジェクトの高さを、 上記一定距離に略一致させることが好まし!/、。  It is preferable to make the height of the object substantially coincide with the certain distance before the determination result by the determination means becomes true! /.
[0024] 上記の構成によれば、表示手段は、判定手段による判定結果が真になる前におい て、オブジェクトの高さを、入力デバイスと 3次元表示ディスプレイとの間にある距離に 略一致させる。言い換えれば、ユーザによるオブジェクトの選択が行われる前におい て、オブジェクトの最前面が 3次元表示ディスプレイの表示面に略一致するように、当 該オブジェクトを 3次元表示する。これによりユーザは、入力デバイスに入力したとき に、あた力、もオブジェクトに実際に触れたかのように感じることができる。  [0024] According to the above configuration, the display unit approximately matches the height of the object with the distance between the input device and the three-dimensional display before the determination result by the determination unit becomes true. . In other words, before the object is selected by the user, the object is displayed in 3D so that the foreground of the object substantially matches the display surface of the 3D display. As a result, the user can feel as if he / she actually touched the object when inputting to the input device.
[0025] これにより表示装置は、オブジェクトを選択する際の操作性をさらに向上できる効果 を奏する。  Thus, the display device has an effect of further improving the operability when selecting an object.
[0026] (アクティブなオブジェクトだけを 3次元表示)  [0026] (3D display of only active objects)
また、本発明に係る表示装置では、さらに、  In the display device according to the present invention,
上記表示手段は、  The display means is
上記判定手段による判定結果が真になる前において、複数の上記オブジェクトのう ち、アクティブな上記オブジェクトだけを 3次元表示することが好まし!/、。  Before the determination result by the determination means becomes true, it is preferable to display only the active object among the plurality of objects in a three-dimensional display! /.
[0027] 上記の構成によれば、表示手段は、判定手段による判定結果が真になる前におい て、複数のオブジェクトのうち、アクティブなものだけを 3次元表示する。ここでいぅァク ティブなオブジェクトとは、選択された後、表示装置において特定の処理が行われる ことが設定されて!/、るオブジェクトのことである。たとえばオブジェクトが所定の数字を 入力するためのキーであり、このキーをユーザが選択すれば、当該キーに割り当てら れてレ、る数字が入力されることが設定されて!/、るようなオブジェクトが、アクティブなォ ブジエタトに該当する。 [0027] According to the above configuration, the display unit three-dimensionally displays only active ones of the plurality of objects before the determination result by the determination unit becomes true. Here, the active object is an object that is set to perform a specific process on the display device after being selected! For example, the object is a key for inputting a predetermined number, and if the user selects this key, the number assigned to the key is set to be input! The object corresponds to an active object.
[0028] 以上のように、表示装置は、アクティブなオブジェクトだけを 3次元表示し、ァクティ ブでな!/ \すなわち選択されても表示装置が何の処理も行わな!/、ようなオブジェクト は、 3次元表示しない。これによりユーザは、選択可能なオブジェクトを、他のものと容 易に識別できる。さらに、選択できないオブジェクトを誤って選択することを防止でき [0029] これにより表示装置は、ユーザによってオブジェクト選択の際の操作性を、よりいつ そう向上できる効果を奏する。 [0028] As described above, the display device displays only the active object in three dimensions, and is not active! / \ In other words, the display device does not perform any processing even if selected! / , Do not display 3D. This allows the user to easily distinguish selectable objects from others. In addition, you can prevent accidental selection of objects that cannot be selected. Accordingly, the display device has an effect that the operability at the time of object selection by the user can be further improved.
[0030] (3次元オブジェクトに影をつける) [0030] (Shades a 3D object)
また、本発明に係る表示装置では、さらに、  In the display device according to the present invention,
上記表示手段は、  The display means is
上記判定手段による判定結果が真になる前において、上記オブジェクトに影をつけ て表示することが好ましい。  Before the determination result by the determination means becomes true, it is preferable to display the object with a shadow.
[0031] 上記の構成によれば、オブジェクトをより立体的に表示できる。したがって、ォブジ ェタトの識別をより容易に行える効果を奏する。 [0031] According to the above configuration, the object can be displayed more three-dimensionally. Therefore, the object can be identified more easily.
[0032] (入力面積に応じてオブジェクトの高さを変更) [0032] (Change the height of the object according to the input area)
上記表示手段は、  The display means is
上記判定手段による判定結果が真であるとき、上記オブジェクトの表示状態を、上 記入力デバイスにおける入力面積に応じた高さのものに変化させることが好ましい。  When the determination result by the determination means is true, the display state of the object is preferably changed to a height corresponding to the input area of the input device.
[0033] 上記の構成によれば、表示手段は、判定手段による判定結果が真であるとき、ォブ ジェタトの表示状態を、入力デバイスにおける入力面積に応じた高さのもの変化させ る。ここでいう入力面積とは、入力デバイスが接触型タツチパネルの場合は、当該タツ チパネルにおける接触面積である。一方、入力デバイスが非接触型タツチパネルの 場合は、当該タツチパネルによって検出された入力位置の面積である。ここで、たと えば、オブジェクトがボタンであるとき、当該オブジェクトの高さを、入力面積が多いほ どより低いものに変更する。つまり入力面積を押下の圧力だとみなして、ボタンの凹 み具合を圧力に比例したものにする。  [0033] According to the above configuration, when the determination result by the determination unit is true, the display unit changes the display state of the object with a height corresponding to the input area of the input device. The input area here is the contact area in the touch panel when the input device is a contact-type touch panel. On the other hand, when the input device is a non-contact type touch panel, it is the area of the input position detected by the touch panel. Here, for example, when the object is a button, the height of the object is changed to be lower as the input area is larger. In other words, the input area is regarded as pressing pressure, and the dent of the button is proportional to the pressure.
[0034] これにより表示装置は、オブジェクトが確かに選択されたのだという印象を、ユーザ により強く与えることができる効果を奏する。  Thus, the display device has an effect of giving the user a stronger impression that the object has been selected.
[0035] (入力面積に応じてオブジェクトの形状を変化)  [0035] (The shape of the object changes according to the input area)
上記表示手段は、  The display means is
上記判定手段による判定結果が真であるとき、上記オブジェクトの表示状態を、上 記入力デバイスにおける入力面積に応じた形状のものに変化させることが好ましい。 [0036] 上記の構成によれば、表示手段は、判定手段による判定結果が真であるとき、ォブ ジェタトの表示状態を、入力デバイスにおける入力面積に応じた形状に変化させる。 ここでいう入力面積とは、入力デバイスが接触型タツチパネルの場合は、当該タツチ パネルにおける接触面積である。一方、入力デバイスが非接触型タツチパネルの場 合は、当該タツチパネルによって検出された入力位置の面積である。ここで、たとえ ばオブジェクトが球形なら、入力面積を押下の圧力だとみなして、当該オブジェクトを 、圧力に応じて潰れた形、すなわち楕円球形に変形して表示する。 When the determination result by the determination means is true, the display state of the object is preferably changed to a shape corresponding to the input area of the input device. [0036] According to the above configuration, when the determination result by the determination unit is true, the display unit changes the display state of the object to a shape corresponding to the input area of the input device. The input area here is a contact area in the touch panel when the input device is a contact type touch panel. On the other hand, when the input device is a non-contact type touch panel, it is the area of the input position detected by the touch panel. For example, if the object is a sphere, the input area is regarded as a pressing pressure, and the object is displayed in a deformed shape corresponding to the pressure, that is, an elliptical sphere.
[0037] これにより表示装置は、オブジェクトが確かに選択されたのだという印象を、ユーザ により強く与えることができる効果を奏する。  Thus, the display device has an effect of giving the user a stronger impression that the object has been selected.
[0038] (表示プログラム、記録媒体)  [0038] (Display program, recording medium)
なお、上記表示装置は、コンピュータによって実現してもよい。この場合、コンビユー タを上記各手段として動作させることにより上記表示装置をコンピュータにおいて実 現する表示プログラム、およびその表示プログラムを記録したコンピュータ読み取り可 能な記録媒体も、本発明の範疇に入る。  The display device may be realized by a computer. In this case, a display program for realizing the display device in a computer by operating the computer as each of the above means, and a computer-readable recording medium recording the display program also fall within the scope of the present invention.
[0039] 本発明の他の目的、特徴、および優れた点は、以下に示す記載によって十分分か るであろう。また、本発明の利点は、添付図面を参照した次の説明で明白になるであ ろう。  [0039] Other objects, features, and advantages of the present invention will be fully understood from the following description. The advantages of the present invention will be apparent from the following description with reference to the accompanying drawings.
図面の簡単な説明  Brief Description of Drawings
[0040] [図 1]本発明の一実施形態に係る表示装置の要部構成を示すブロック図である。  [0040] FIG. 1 is a block diagram showing a main configuration of a display device according to an embodiment of the present invention.
[図 2]3Dディスプレイとタツチパネルとの位置関係を示す図である。  FIG. 2 is a diagram showing a positional relationship between a 3D display and a touch panel.
[図 3]複数の 3Dボタンの表示状態を示す図である。 (a)は、複数の 3Dボタンを表示し ている様子を示し、(b)は、これらの 3Dボタンのうち 1つを指によって選択した様子を 示す。  FIG. 3 is a diagram showing a display state of a plurality of 3D buttons. (A) shows how multiple 3D buttons are displayed, and (b) shows how one of these 3D buttons is selected with a finger.
[図 4]複数の 3Dボタンの表示状態を示す図である。 (a)は、複数の 3Dボタンのうちァ クティブなものだけを 3次元表示している様子を示し、(b)は、 3Dオブジェクトに影を つけて表示して!/、る様子を示す。  FIG. 4 is a diagram showing a display state of a plurality of 3D buttons. (A) shows a 3D display of only the active 3D buttons, and (b) shows a 3D object shaded and displayed!
[図 5]3Dオブジェクトの表示状態を示す図である。 (a)は、指がタツチパネルに触れる 前における 3Dオブジェクトの表示例を示し、(b)は、指がタツチパネルに触れたあと における、形状が変化した 3Dオブジェクトの様子を示す。 FIG. 5 is a diagram showing a display state of a 3D object. (A) shows a display example of a 3D object before the finger touches the touch panel, and (b) shows after the finger touches the touch panel. The state of the 3D object whose shape has changed is shown.
符号の説明  Explanation of symbols
[0041] 1 表示装置 [0041] 1 display device
2 3Dディスプレイ(3次元表示ディスプレイ)  2 3D display (3D display)
3 タツチパネル (入力デバイス、接触型タツチパネル)  3 Touch panel (input device, contact-type touch panel)
4 メモリ  4 memory
10 制御部  10 Control unit
11 表示部 (表示手段)  11 Display section (display means)
12 検出部 (検出手段)  12 Detection part (Detection means)
13 タツチ判定部 (判定手段)  13 Touch determination unit (determination means)
14 タツチ面積算出部  14 Touch area calculator
21 ノ ックライト  21 knock light
22 タツチセンサ  22 Touch sensor
23 保護パネル  23 Protection panel
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
[0042] 本発明の一実施形態について、図 1〜図 5を参照して以下に説明する。  One embodiment of the present invention will be described below with reference to FIGS. 1 to 5.
[0043] (表示装置 1の構成)  [0043] (Configuration of display device 1)
まず、本実施形態に係る表示装置 1について、図 1を参照にして以下に説明する。 図 1は、本発明の一実施形態に係る表示装置 1の要部構成を示すブロック図である。 この図に示すように、表示装置 1は、 3Dディスプレイ 2 (3次元表示ディスプレイ)、タツ チパネル 3 (入力デバイス、接触型タツチパネル)、メモリ 4、制御部 10を備えている。  First, the display device 1 according to the present embodiment will be described below with reference to FIG. FIG. 1 is a block diagram showing a main configuration of a display device 1 according to an embodiment of the present invention. As shown in this figure, the display device 1 includes a 3D display 2 (3D display), a touch panel 3 (input device, contact-type touch panel), a memory 4, and a control unit 10.
[0044] (3Dディスプレイ 2)  [0044] (3D display 2)
3Dディスプレイ 2は、情報を表示しユーザに提示するハードウェアである。たとえば 液晶ディスプレイやプラズマディスプレイとして実現される。表示装置 1が備える 3Dデ イスプレイ 2は、画像 (オブジェクト)を 3次元表示できるものである。具体的には、両眼 視差の原理に基づき、いわゆる 3Dネガネの装着を必要とせず、そのまま画面を見る だけで立体視が得られるような表示を可能としている。  The 3D display 2 is hardware that displays information and presents it to the user. For example, it is realized as a liquid crystal display or plasma display. The 3D display 2 provided in the display device 1 can display an image (object) in a three-dimensional manner. Specifically, based on the principle of binocular parallax, a so-called 3D negative is not required, and a display that allows a stereoscopic view to be obtained by just looking at the screen is possible.
[0045] (タツチパネル 3) タツチパネル 3は、 3Dディスプレイ 2に表示されている 3Dオブジェクトを選択するた めにユーザが用いるハードウェアである。表示装置 1において、タツチパネル 3は、 3 Dディスプレイ 2から一定距離を置!/、て配置されて!/、る。この点は後述する。 [0045] (Touch panel 3) The touch panel 3 is hardware used by the user to select a 3D object displayed on the 3D display 2. In the display device 1, the touch panel 3 is arranged at a fixed distance from the 3D display 2! /. This point will be described later.
[0046] (メモリ 4) [0046] (Memory 4)
メモリ 4は、制御部 10が処理を実行する際に用いる各種のデータを記憶するハード ウェアである。いわゆる不揮発性メモリや揮発性メモリに相当する。表示用の画像デ ータは、このメモリ 4に記憶されている。  The memory 4 is hardware that stores various data used when the control unit 10 executes processing. This corresponds to a so-called nonvolatile memory or volatile memory. The display image data is stored in the memory 4.
[0047] (制御部 10) [0047] (Control unit 10)
制御部 10は、表示装置 1が内部において実行する処理を受け持つ。制御部 10は 、より詳しくは、検出部 12 (検出手段)、表示部 11 (表示手段)、タツチ判定部 13 (判 定手段)、およびタツチ面積算出部 14を備えている。  The control unit 10 is responsible for processing that the display device 1 executes internally. More specifically, the control unit 10 includes a detection unit 12 (detection unit), a display unit 11 (display unit), a touch determination unit 13 (determination unit), and a touch area calculation unit 14.
[0048] これらの各部材がどのような機能を持ち、どのような処理を実行するのかについて は、後述する。 [0048] The functions of these members and the processing to be executed will be described later.
[0049] (3Dディスプレイ 2とタツチパネル 3との位置関係)  [0049] (Positional relationship between 3D display 2 and touch panel 3)
3Dディスプレイ 2とタツチパネル 3との位置関係について、図 2を参照して以下に説 明する。図 2は、 3Dディスプレイ 2とタツチパネル 3との位置関係を示す図である。  The positional relationship between the 3D display 2 and the touch panel 3 will be described below with reference to FIG. FIG. 2 is a diagram showing a positional relationship between the 3D display 2 and the touch panel 3.
[0050] この図に示すように、 3Dディスプレイ 2の裏側には、バックライト 21が備えられてい る。一方、タツチパネル 3は、保護パネル 23と、タツチセンサ 22とを備えている。タツチ センサ 22は、タツチパネル 3における接触位置を示す電気信号を制御部 10に出力 する。なお、図 2に示すタツチパネル 3は、いわゆる静電容量方式のタツチパネルで ある。しかし、タツチパネル 3は静電容量方式に限定されず、いわゆる抵抗膜方式の ものであってもよい。この場合、タツチセンサと保護パネルとの位置が、静電容量方式 の場合の反対になる。  As shown in this figure, a backlight 21 is provided on the back side of the 3D display 2. On the other hand, the touch panel 3 includes a protection panel 23 and a touch sensor 22. The touch sensor 22 outputs an electrical signal indicating the contact position on the touch panel 3 to the control unit 10. The touch panel 3 shown in FIG. 2 is a so-called capacitive touch panel. However, the touch panel 3 is not limited to the capacitance type, and may be a so-called resistance film type. In this case, the positions of the touch sensor and the protection panel are opposite to those of the capacitive type.
[0051] また、図 2に示すように、 3Dディスプレイ 2は、タツチパネル 3から一定距離 aを置い て配置されている。より具体的には、 3Dディスプレイ 2の表示面と、タツチパネル 3の 接触面とは、距離 aだけ離れている。なお、タツチパネル 3は、ユーザから見てより手 前側に配置されている。すなわち 3Dディスプレイ 2は、ユーザから見てより奥行き側 に配置されている。 [0052] 3Dディスプレイ 2は、図 2に示すように、 3Dボタン 24を表示する。このとき、 3Dボタ ン 24の高さを、距離 aと略等しくする。これにより、 3Dボタン 24の最前面力 3Dディス プレイ 2の接触面に略一致する。ユーザは、指 25によってタツチパネル 3を触る。この とき、 3Dボタン 24の最前面と、タツチパネル 3の接触面が略一致しているので、ユー ザは、タツチパネル 3に触れるとき、あた力、も 3Dボタン 24そのものに触れたかのように 感じること力 Sでさる。 Further, as shown in FIG. 2, the 3D display 2 is arranged at a certain distance a from the touch panel 3. More specifically, the display surface of the 3D display 2 and the contact surface of the touch panel 3 are separated by a distance a. The touch panel 3 is arranged on the front side as viewed from the user. That is, the 3D display 2 is arranged on the depth side as viewed from the user. [0052] The 3D display 2 displays a 3D button 24 as shown in FIG. At this time, the height of the 3D button 24 is made substantially equal to the distance a. As a result, the foremost force of the 3D button 24 substantially matches the contact surface of the 3D display 2. The user touches the touch panel 3 with the finger 25. At this time, since the forefront of the 3D button 24 and the contact surface of the touch panel 3 are substantially coincident, when the user touches the touch panel 3, the user feels as if he / she touched the 3D button 24 itself. Touch with force S.
[0053] (オブジェクトの表示と選択の詳細)  [0053] (Details of object display and selection)
表示装置 1における、オブジェクトの立体表示と、立体表示されたオブジェクトの選 択処理の詳細について、図 3を参照して以下に説明する。図 3は、複数の 3Dボタン の表示状態を示す図である。 (a)は、 3Dボタン 3;!〜 33を表示している様子を示す図 であり、(b)は、これらの 3Dボタンのうち 1つを指 25によって選択した様子を示す図で ある。  Details of the stereoscopic display of the object and the selection process of the stereoscopically displayed object in the display device 1 will be described below with reference to FIG. FIG. 3 is a diagram showing a display state of a plurality of 3D buttons. (A) is a diagram showing a state in which 3D button 3;! To 33 is displayed, and (b) is a diagram showing a state in which one of these 3D buttons is selected with the finger 25. FIG.
[0054] 表示装置 1において、表示部 11が、メモリ 4から表示用データを読み出す。そして、 読み出したデータに含まれるオブジェクトを、図 3 (a)に示すように、 3次元のオブジェ タトとして 3Dディスプレイ 2に表示する。図 3 (a)の例では、 3Dボタン 3;!〜 33を表示 している。このとき、各 3Dボタンの高さを、タツチパネル 3と 3Dディスプレイ 2との距離 aに略一致させている。言い換えれば、ユーザによるオブジェクトの選択が行われる 前 (すなわちタツチ検出部 13による判定結果が真になる前)において、オブジェクトの 最前面が 3Dディスプレイ 2の表示面に略一致するように、当該オブジェクトを 3次元 表示する。これによりユーザは、タツチパネル 3に触れたとき、あたかもオブジェクトに 実際に触れたかのように感じることができる。したがって表示装置 1は、オブジェクトを 選択する際の操作性を向上できる。  In the display device 1, the display unit 11 reads display data from the memory 4. Then, the object included in the read data is displayed on the 3D display 2 as a three-dimensional object as shown in FIG. In the example of Fig. 3 (a), 3D button 3;! -33 is displayed. At this time, the height of each 3D button is made to substantially coincide with the distance a between the touch panel 3 and the 3D display 2. In other words, before the object is selected by the user (that is, before the determination result by the touch detection unit 13 becomes true), the object is placed so that the foremost surface of the object substantially matches the display surface of the 3D display 2. 3D display. As a result, when the user touches the touch panel 3, the user can feel as if he / she actually touched the object. Accordingly, the display device 1 can improve operability when selecting an object.
[0055] なお、 3Dオブジェクトの立体的な見え方は、ユーザによってさまざまに異なる。つま り最適な高さは、必ずしも距離 aに一致するとは限らない。そこで表示装置 1では、表 示部 11は 3Dオブジェクトの高さを適宜自由に変更できる。つまり表示されるオブジェ タトの高さは、必ずしも距離 aに一致したものでなくてょレ、。  [0055] Note that the three-dimensional appearance of a 3D object varies depending on the user. In other words, the optimal height does not necessarily coincide with the distance a. Therefore, in the display device 1, the display unit 11 can freely change the height of the 3D object as appropriate. In other words, the height of the displayed object does not necessarily match the distance a.
[0056] 図 3の(b)に示すように、ユーザは、タツチパネル 3に触れることによって、 3次元表 示されている各 3Dボタン 3;!〜 33を選択できる。具体的には、ユーザは、指 25によつ て、タツチパネル 3の所定位置に触れる。検出部 12は、タツチパネル 3に、所定周期 でスキャン信号を出力している。このスキャン信号に応じて、タツチパネル 3のタツチセ ンサ 22が、接触のあった位置を示す電気信号を、制御部 10に出力する。この電気 信号を検出部 12が解析することによって、タツチパネル 3における接触位置を検出す る。たとえばタツチパネル 3の X座標と y座標とを算出する。 As shown in (b) of FIG. 3, the user can select each 3D button 3;! To 33 displayed in three dimensions by touching the touch panel 3. Specifically, the user presses finger 25 Touch the touch panel 3 in place. The detection unit 12 outputs a scan signal to the touch panel 3 at a predetermined cycle. In response to this scan signal, the touch sensor 22 of the touch panel 3 outputs an electrical signal indicating the position of contact to the control unit 10. The contact position on the touch panel 3 is detected by the detection unit 12 analyzing this electrical signal. For example, the X and y coordinates of touch panel 3 are calculated.
[0057] 検出部 12は、算出した X座標および y座標をタツチ判定部 13に出力する。タツチ判 定部 13は、入力された X座標および y座標に基づき、ユーザが、 3Dボタンを選択した か否力、を判定する。 The detection unit 12 outputs the calculated X coordinate and y coordinate to the touch determination unit 13. The touch determination unit 13 determines whether or not the user has selected the 3D button based on the input X coordinate and y coordinate.
[0058] 具体的には、メモリ 4に記憶されている表示用データには、 3Dボタン 3;!〜 33の、 3 Dディスプレイ 2における表示位置を特定する座標データが含まれている。そこでタツ チ判定部 13は、検出部 12が算出した、タツチパネル 3における検出位置を示す座標 と、各 3Dボタンの表示座標とをそれぞれ照合することによって、検出された接触位置 1S 3Dボタンの表示位置に一致するか否かを判定する。  Specifically, the display data stored in the memory 4 includes coordinate data for specifying the display position on the 3D display 2 of the 3D button 3;! Therefore, the touch determination unit 13 collates the coordinates indicating the detection position on the touch panel 3 calculated by the detection unit 12 with the display coordinates of each 3D button, thereby detecting the detected contact position 1S 3D button display position. It is determined whether or not they match.
[0059] 図 3の(b)の例では、指 25が触れたタツチパネル 3の接触位置は、 3Dボタン 33の 表示位置に対応する。これによりタツチ判定部 13は、ユーザが 3Dボタン 33を選択し たと判定する。この判定結果を、タツチ判定部 13は表示部 11に出力する。  In the example of FIG. 3B, the contact position of the touch panel 3 touched by the finger 25 corresponds to the display position of the 3D button 33. Thereby, the touch determination unit 13 determines that the user has selected the 3D button 33. The touch determination unit 13 outputs the determination result to the display unit 11.
[0060] なお、タツチ判定部 13は、たとえば上記した所定周期でこの判定を実行する。した がって、もし所定周期が 100ミリ秒なら、 100ミリ秒が経過するごとに、ユーザが 3Dボ タンを押下したか否かを判定し、その結果を表示部 11に出力する。  It should be noted that the touch determination unit 13 performs this determination, for example, at the predetermined cycle described above. Therefore, if the predetermined period is 100 milliseconds, every time 100 milliseconds elapse, it is determined whether or not the user has pressed the 3D button, and the result is output to the display unit 11.
[0061] 表示部 11は、タツチ判定部 13の判定結果に基づき、各 3Dボタンの表示状態を変 更する。具体的には、タツチ判定部 13による判定結果が「真」となった 3Dボタンにつ いて、その表示状態を、より高さの低いものに変更する。図 3の(b)の例では、 3Dボタ ン 33の表示状態を、高さがゼロである 2Dオブジェクト 34に変更している。つまり、ュ 一ザから見て表示装置 1 (3Dディスプレイ 2)側に引っ込んだように、表示状態を変更 する。  The display unit 11 changes the display state of each 3D button based on the determination result of the touch determination unit 13. Specifically, the display state of the 3D button whose determination result by the touch determination unit 13 is “true” is changed to a lower one. In the example of FIG. 3B, the display state of the 3D button 33 is changed to a 2D object 34 having a height of zero. That is, the display state is changed so that it is retracted to the display device 1 (3D display 2) side as seen from the user.
[0062] これによりユーザは、 3Dボタン 33を選択したとき、当該 3Dボタン 33がその選択動 作に応じて奥に引っ込んだように見える。つまり、現実のボタンやスィッチを押下した ときと同じような事象を目の当たりにする。これにより、 3Dボタン 33から 2Dボタン 34 への表示変化を、自然なものとして受け取ること力 Sできる。 [0062] Thus, when the user selects the 3D button 33, it appears that the 3D button 33 is retracted in accordance with the selection operation. In other words, you will witness the same phenomenon as when you press a real button or switch. As a result, 3D button 33 to 2D button 34 The ability to receive changes in the display as natural.
[0063] このように表示装置 1は、 3次元表示されたオブジェクトをユーザが選択したとき、ュ 一ザに自然な印象を与える表示を行うことができる。  [0063] Thus, the display device 1 can perform display that gives a natural impression to the user when the user selects an object displayed in three dimensions.
[0064] (アクティブなオブジェクトだけを 3次元表示)  [0064] (3D display of only active objects)
なお、表示装置 1では、表示部 11は、タツチ判定部 13による判定結果が真になる 前において、複数のオブジェクト(ボタン)のうち、アクティブなオブジェクトだけを 3次 元表示してもよい。この様子を、図 4の(a)を参照して以下に説明する。  In the display device 1, the display unit 11 may three-dimensionally display only active objects among a plurality of objects (buttons) before the determination result by the touch determination unit 13 becomes true. This situation will be described below with reference to FIG.
[0065] 図 4は、複数の 3Dボタンの表示状態を示す図であり、 (a)は、複数のボタンのうちァ クティブなものだけを 3次元表示している様子を示す。この図の(a)に示すように、表 示部 11は、タツチ判定部 13による判定結果が真になる前において、複数のオブジェ タトのうち、アクティブなものだけを 3D表示ディスプレイに 3次元表示する。ここでいう アクティブなオブジェクトとは、選択された後、表示装置 1において特定の処理が行わ れることが設定されているオブジェクトのことである。たとえばオブジェクトが所定の数 字を入力するためのボタンであり、このボタンをユーザが選択すれば、当該ボタンに 割り当てられて!/、る数字が入力されることが設定されて!/、るようなオブジェクトが、ァク ティブなオブジェクトに該当する。  FIG. 4 is a diagram showing a display state of a plurality of 3D buttons, and (a) shows a state in which only active ones of the plurality of buttons are three-dimensionally displayed. As shown in (a) of this figure, the display unit 11 displays a three-dimensional display on the 3D display only of the active objects among the plurality of objects before the determination result by the touch determination unit 13 becomes true. To do. The active object here is an object that is set to be subjected to a specific process in the display device 1 after being selected. For example, an object is a button for inputting a predetermined number, and if the user selects this button, the number assigned to the button is set to be input! Objects correspond to active objects.
[0066] 図 4の(a)では、 3Dボタン 31および 3Dボタン 32力 アクティブなボタンである。そ のため表示部 11は、これらのボタンを 3次元表示する。一方、 2Dボタン 34は、ァクテ イブではない。そのため、 2次元表示する。  [0066] In Fig. 4 (a), the 3D button 31 and the 3D button 32 force are active buttons. Therefore, the display unit 11 displays these buttons three-dimensionally. On the other hand, 2D button 34 is not active. Therefore, 2D display.
[0067] 以上のように、ユーザによるオブジェクトの選択前 (すなわちタツチ判定部 13による 判定結果が真になる前)において、表示部 11は、アクティブなオブジェクトだけを 3次 元表示する。一方、アクティブでない、すなわち選択されても表示装置 1が何の処理 も行わな!/、設定がなされて!/、るオブジェクトにつ!/、ては、アクティブなオブジェクトに 関するタツチ判定部 13の判定結果に関わらず、常に 3次元表示しない。これによりュ 一ザは、選択可能なオブジェクトを、他のものと容易に識別できる。さらに、選択でき ないオブジェクトを誤って選択することを防止できる。  As described above, before the object is selected by the user (that is, before the determination result by the touch determination unit 13 becomes true), the display unit 11 displays only the active object in a three-dimensional manner. On the other hand, even if the display device 1 is not active, that is, the display device 1 does not perform any processing! /, The setting is made! /, Or the object is! Regardless of the judgment result, 3D display is not always performed. This allows the user to easily distinguish selectable objects from others. Furthermore, it is possible to prevent an object that cannot be selected from being selected by mistake.
[0068] これにより表示装置 1は、ユーザによるオブジェクト選択の際の操作性を、よりいつそ う向上できる。 [0069] (3次元表示オブジェクトに影をつける) [0068] Thereby, the display device 1 can improve the operability at the time of object selection by the user more and more. [0069] (shadows the 3D display object)
また、表示部 11は、タツチ判定部 13による判定結果が真になる前において、 3Dォ ブジエタトに影をつけて表示してもよい。この様子を、図 4の (b)を参照して以下に説 明する。  Further, the display unit 11 may display the 3D object with a shadow before the determination result by the touch determination unit 13 becomes true. This situation is explained below with reference to Fig. 4 (b).
[0070] 図 4は、複数の 3Dボタンの表示状態を示す図であり、 (b)は、 3Dボタンに影をつけ て表示している様子を示す図である。図 4の(b)に示すように、表示部 11は、ァクティ ブな 3Dボタン 31が 3Dディスプレイ 2の表示面に射影する位置に、影 41を表示して いる。同様に、アクティブな 3Dボタン 32が 3Dディスプレイ 2の表示面に射影する位 置に、影 42を表示している。このように、表示装置 1がオブジェクトをより立体的に表 示するので、ユーザは、 3Dオブジェクトの識別をより容易に行える。  FIG. 4 is a diagram showing a display state of a plurality of 3D buttons, and (b) is a diagram showing a state in which the 3D buttons are shaded and displayed. As shown in (b) of FIG. 4, the display unit 11 displays a shadow 41 at a position where the active 3D button 31 projects onto the display surface of the 3D display 2. Similarly, a shadow 42 is displayed at a position where the active 3D button 32 projects onto the display surface of the 3D display 2. Thus, since the display device 1 displays the object in a more three-dimensional manner, the user can more easily identify the 3D object.
[0071] (接触面積に応じてオブジェ外の形状を変化)  [0071] (The shape outside the object changes according to the contact area)
また、表示部 11は、タツチ判定部 13による判定結果が真であるとき、オブジェクトの 表示状態を、タツチパネル 3における接触面積に応じた形状に変化させることもでき る。この例を、図 5に示す。  Further, the display unit 11 can change the display state of the object to a shape corresponding to the contact area on the touch panel 3 when the determination result by the touch determination unit 13 is true. An example of this is shown in FIG.
[0072] 図 5は、 3Dオブジェクトの表示状態を示す図である。 (a)は、指 25がタツチパネル 3 に触れる前における 3Dオブジェクトの表示例を示し、図 5 (b)は、指 25がタツチパネ ノレ 3に触れたあとにおける、形状が変化した 3Dオブジェクトの様子を示す。  FIG. 5 is a diagram showing a display state of the 3D object. (A) shows a display example of a 3D object before the finger 25 touches the touch panel 3, and FIG. 5 (b) shows a 3D object whose shape has changed after the finger 25 touches the touch panel 3. Show.
[0073] 図 5の(a)の例では、表示部 11は、 3Dディスプレイ 2に、半径 aの球形である 3Dォ ブジェクト 51を表示している。この 3Dオブジェクト 51は、メモリ 4内の表示用データに ぉレ、て、形状変更の対象であることが予め設定されて!/、る。  In the example of FIG. 5A, the display unit 11 displays a 3D object 51 that is a sphere having a radius a on the 3D display 2. This 3D object 51 is preliminarily set in the display data in the memory 4 and is subject to shape change.
[0074] ここで図 5の(b)に示すように、ユーザの指 25が、 3Dオブジェクト 51の表示位置に 対応する、タツチパネル 3の位置に触れたとする。タツチパネル 3は、多点検出が可能 なパネルである。すなわち、接触があった各位置にそれぞれ対応する複数の座標を 示す電気信号を、制御部 10に出力する。  Here, as shown in FIG. 5B, it is assumed that the user's finger 25 touches the position of the touch panel 3 corresponding to the display position of the 3D object 51. Touch panel 3 is a panel that can detect multiple points. That is, an electrical signal indicating a plurality of coordinates corresponding to each position where contact has occurred is output to the control unit 10.
[0075] これにより検出部 12は、タツチパネル 3において接触があった位置に対応する、す ベての座標を検出する。これにより、検出した座標を示す座標情報を、すべて、タツ チ判定部 13およびタツチ面積算出部 14の両方に出力する。  Accordingly, the detection unit 12 detects all coordinates corresponding to the position where the touch panel 3 is in contact. Thereby, all the coordinate information indicating the detected coordinates is output to both the touch determination unit 13 and the touch area calculation unit 14.
[0076] 検出部 12は、入力された座標情報と、 3Dオブジェクト 51の表示位置の座標情報と を比較する。図 5の(b)の例では、この比較によって、タツチ判定部 13による判定結 果が真になる。そこで、タツチ判定部 13は、形状変更対象の 3Dオブジェクトに接触 があったことを、タツチ面積算出部 14に出力する。 The detection unit 12 receives the input coordinate information, the coordinate information of the display position of the 3D object 51, and Compare In the example of (b) of FIG. 5, the result of determination by the touch determination unit 13 becomes true by this comparison. Therefore, the touch determination unit 13 outputs to the touch area calculation unit 14 that the 3D object to be changed is in contact.
[0077] 検出部 12による通知を受けて、タツチ面積算出部 14は、指 25がタツチパネル 3に 触れた面積を算出する。このとき、検出部 12から入力された座標情報を利用する。 面積の算出方法として、公知技術のものを適宜利用できる。タツチ面積算出部 14は 、算出した面積を表示部 11に出力するとともに、表示部 11に、 3Dオブジェクト 51の 表示状態を、面積に応じたものに変化させるように、表示部 11に通知する。  In response to the notification from the detection unit 12, the touch area calculation unit 14 calculates the area where the finger 25 touches the touch panel 3. At this time, the coordinate information input from the detection unit 12 is used. As a method for calculating the area, a known technique can be appropriately used. The touch area calculation unit 14 outputs the calculated area to the display unit 11 and notifies the display unit 11 to change the display state of the 3D object 51 to a display corresponding to the area.
[0078] タツチ面積算出部 14からの通知を受けて、表示部 11は、 3Dオブジェクト 51の表示 状態を、タツチパネル 3における指 25の接触面積に応じた形状に変化させる。このと き、接触面積を押下の圧力だとみなして、 3Dオブジェクト 51を、圧力に応じて潰れた 形、すなわち楕円球形に変形して表示する。  In response to the notification from the touch area calculation unit 14, the display unit 11 changes the display state of the 3D object 51 to a shape corresponding to the contact area of the finger 25 on the touch panel 3. At this time, the contact area is regarded as a pressing pressure, and the 3D object 51 is displayed in a deformed shape corresponding to the pressure, that is, an elliptical sphere.
[0079] 具体的には、図 5の(a)に示すように、 3Dオブジェクト 51は半径力 であり、体積が Sの球形である。表示部 11は、 3Dオブジェクト 51の体積 Sを一定に保ったまま、高さ 力はり低い形状に変化させて表示する。さらに、低くした高さに応じて、 3Dオブジェク ト 51の形状を楕円球形のもの、すなわち平面方向に広がったものに変更する。これ により表示部 11は、図 5の(b)に示すように、球形の 3Dオブジェクト 51に代えて、高 さが a÷ 2、平面方向の半径が^ 2a、体積が Sである楕円球形の 3Dオブジェクト 52を 、 3Dディスプレイ 2に表示する。  Specifically, as shown in (a) of FIG. 5, the 3D object 51 is a spherical force having a radial force and a volume of S. The display unit 11 changes the shape of the 3D object 51 to a low shape while keeping the volume S of the 3D object constant. Further, according to the lowered height, the shape of the 3D object 51 is changed to an elliptical spherical shape, that is, a shape spreading in the plane direction. As a result, as shown in FIG. 5 (b), the display unit 11 replaces the spherical 3D object 51 with an elliptical spherical shape having a height of a ÷ 2, a planar radius of ^ 2a, and a volume of S. The 3D object 52 is displayed on the 3D display 2.
[0080] これにより表示装置 1は、オブジェクトが確かに選択されたのだという印象を、ユー ザにより強く与えることができる。  [0080] Thus, the display device 1 can give the user a stronger impression that the object has been selected.
[0081] (接触面積に応じてオブジェクトの高さを変更)  [0081] (Change object height according to contact area)
また、表示部 11は、タツチ判定部 13による判定結果が真であるとき、 3Dオブジェク トの表示状態を、タツチパネル 3における接触面積に応じた高さのものに変化させる ことあでさる。  Further, the display unit 11 changes the display state of the 3D object to a height corresponding to the contact area on the touch panel 3 when the determination result by the touch determination unit 13 is true.
[0082] 具体的には、表示部 11は、タツチ判定部 13による判定結果が真であるとき、 3Dォ ブジエタトの表示状態を、タツチパネル 3における接触面積に応じた高さのもの変化さ せる。たとえば 3Dオブジェクトが 3Dボタンであるとき、接触面積が多いほど、当該 3D ボタンの高さをより低いものに変更する。つまり接触面積を押下の圧力だとみなして、Specifically, when the determination result by the touch determination unit 13 is true, the display unit 11 changes the 3D object display state with a height corresponding to the contact area on the touch panel 3. For example, if the 3D object is a 3D button, the larger the contact area, Change the button height to a lower one. In other words, considering the contact area as pressing pressure,
3Dボタンの凹み具合を圧力に比例したものにする。 Make the dent of the 3D button proportional to the pressure.
[0083] このようにしても、表示装置 1は、オブジェクトが確かに選択されたのだという印象を[0083] Even in this way, the display device 1 gives the impression that the object is surely selected.
、ユーザにより強く与えることができる。 , Can be given more strongly to the user.
[0084] なお、本発明は上述した実施形態に限定されるものではなぐ請求項に示した範囲 で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的 手段を組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれ Note that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.
[0085] たとえば上述した「タツチ判定部 13による判定結果が真になる前」とは、より厳密に は、タツチ判定部 13による判定結果が偽になつてから、一定時間後に当該判定結果 が真になるまでの期間を意味する。この期間は、ユーザが 3Dオブジェクトを選択して いない期間であり、表示装置 1はこの期間中に、 3Dオブジェクトの高さを、タツチパネ ノレ 3と 3Dディスプレイ 2との距離 aに略一致させたり、アクティブな 3Dオブジェクトだけ を 3D表示したり、 3Dオブジェクトに影をつけて表示したりする。 For example, the above-mentioned “before the determination result by the touch determination unit 13 becomes true” more strictly means that the determination result becomes true after a certain time after the determination result by the touch determination unit 13 becomes false. Means the period until. This period is a period when the user does not select the 3D object, and the display device 1 makes the height of the 3D object substantially coincide with the distance a between the touch panel 3 and the 3D display 2 during this period. Only the active 3D object is displayed in 3D, or the shadow is displayed on the 3D object.
[0086] タツチパネル 3は、いわゆる非接触型タツチパネルであり、光センサや電磁誘導によ つて、ユーザによる入力位置を検出するものであってもよい。また、タツチパネル 3とし て非接触型タツチパネルを用いるとき、 3Dディスプレイ 2から一定距離を置いた位置 に、 3Dディスプレイ 2と平行に配置されるパネルをさらに備えていてもよい。  [0086] The touch panel 3 is a so-called non-contact type touch panel, and may detect an input position by a user using an optical sensor or electromagnetic induction. Further, when a non-contact type touch panel is used as the touch panel 3, a panel arranged in parallel with the 3D display 2 may be further provided at a position spaced apart from the 3D display 2.
[0087] 上記の構成によれば、非接触型タツチパネルが検知する入力位置に、パネルが配 置されている。したがって、ユーザがパネルに触れたときに、非接触型タツチパネル がユーザによる入力を検出し、対応するオブジェクトの高さがより低くなる。これにより 、ユーザがあた力、もオブジェクトに実際に触れたかのように感じることができる。なお、 非接触型タツチパネルにおいても、ユーザの入力処理を受け付けたときの、入力面 積を求めることができる。  [0087] According to the above configuration, the panel is arranged at the input position detected by the non-contact touch panel. Therefore, when the user touches the panel, the non-contact touch panel detects the input by the user, and the height of the corresponding object becomes lower. As a result, the user can feel as if he / she actually touched the object. In the non-contact type touch panel, the input area when the user's input process is accepted can be obtained.
[0088] (表示変更と同時に音声出力)  [0088] (Sound output simultaneously with display change)
たとえば、表示装置 1において、表示部 11が 3Dオブジェクトの表示状態を変更す ると同時に、図示しない音声処理部が、図示しないスピーカを通じて、特定の音声を 出力してもよい。これによりユーザは、 3Dオブジェクトを選択できたことを聴覚を通じ て確言忍すること力 Sできる。 For example, in the display device 1, the display unit 11 may change the display state of the 3D object, and at the same time, a sound processing unit (not shown) may output a specific sound through a speaker (not shown). This allows the user to hear through the hearing that the 3D object has been selected. The ability to endure and confirm S
[0089] (表示変更と同時に振動) [0089] (Vibrates simultaneously with display change)
また、表示装置 1において、表示部 11が 3Dオブジェクトの表示状態を変更すると 同時に、図示しない振動処理部が、図示しない振動子を振るわせることによって、表 示装置 1を振動させてもよい。これによりユーザは、 3Dオブジェクトを選択できたこと を、触覚を通じて確認することができる。  In the display device 1, when the display unit 11 changes the display state of the 3D object, the vibration processing unit (not shown) may vibrate the display device 1 by vibrating a vibrator (not shown). This allows the user to confirm through tactile sense that the 3D object has been selected.
[0090] (表示変更と同時に香りの放出) [0090] (Smell released at the same time as the display change)
また、表示装置 1において、表示部 11が 3Dオブジェクトの表示状態を変更すると 同時に、図示しない香り処理部力 図示しない香り格納庫から、特定の香りを放出す るようにしてもよい。たとえば匂い玉を割るなどする。これによりユーザは、 3Dオブジェ タトを選択できたことを、嗅覚を通じて確認することができる。  Further, in the display device 1, when the display unit 11 changes the display state of the 3D object, a specific scent may be emitted from a scent processing unit (not shown) or a scent storage (not shown). For example, break the smell ball. This allows the user to confirm through the olfaction that the 3D object has been selected.
[0091] (表示プログラムおよび記録媒体) [0091] (Display program and recording medium)
最後に、表示装置 1に含まれている各ブロックは、ハードウェアロジックによって構 成すればよい。または、次のように、 CPU (Central Processing Unit)を用いてソ フトウェアによって実現してもよレ、。  Finally, each block included in the display device 1 may be configured by hardware logic. Alternatively, it may be realized by software using a CPU (Central Processing Unit) as follows.
[0092] すなわち表示装置 1は、各機能を実現する制御プログラムの命令を実行する CPUThat is, the display device 1 is a CPU that executes instructions of a control program that realizes each function.
、この制御プログラムを格納した ROM (Read Only Memory)、上記制御プログラ ムを実行可能な形式に展開する RAM (Random Access Memory)、および、上 記制御プログラムおよび各種データを格納するメモリ等の記憶装置 (記録媒体)を備 えている。 ROM (Read Only Memory) that stores this control program, RAM (Random Access Memory) that expands the control program into an executable format, and storage devices such as the memory that stores the control program and various data (Recording media).
[0093] この構成により、本発明の目的は、所定の記録媒体によっても達成できる。この記 録媒体は、上述した機能を実現するソフトウェアである表示装置 1の制御プログラム のプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を コンピュータで読み取り可能に記録して!/、ればよ!/、。表示装置 1にこの記録媒体を供 給する。これにより、コンピュータとしての表示装置 1 (または CPUや MPU)が、供給 された記録媒体に記録されて!/、るプログラムコードを読み出し、実行すればよ!/、。  With this configuration, the object of the present invention can also be achieved by a predetermined recording medium. This recording medium records the program code (execution format program, intermediate code program, source program) of the control program of the display device 1 which is software that realizes the above-mentioned functions so that it can be read by a computer! / Yo! / This recording medium is supplied to the display device 1. This allows the display device 1 (or CPU or MPU) as a computer to read and execute the program code recorded on the supplied recording medium! /.
[0094] プログラムコードを表示装置 1に供給する記録媒体は、特定の構造または種類のも のに限定されない。すなわちこの記録媒体は、たとえば、磁気テープやカセットテー プ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクや CD— ROM/MO/MD/DVD/CD— R等の光ディスクを含むディスク系、 IC力 ード(メモリカードを含む)/光カード等のカード系、あるいはマスク ROM/EPROM /EEPROM/フラッシュ ROM等の半導体メモリ系などとすることができる。 The recording medium that supplies the program code to the display device 1 is not limited to a specific structure or type. That is, this recording medium is, for example, a magnetic tape or a cassette tape. Tape system such as floppy disk, disk system including magnetic disk such as floppy disk / hard disk and optical disk such as CD—ROM / MO / MD / DVD / CD—R, IC card (including memory card) / Card system such as optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
[0095] また表示装置 1は、通信ネットワークと接続可能に構成しても、本発明の目的を達 成できる。この場合、上記のプログラムコードを、通信ネットワークを介して表示装置 1 に供給する。この通信ネットワークは、表示装置 1にプログラムコードを供給できるもの であればよぐ特定の種類または形態に限定されない。たとえば、インターネット、イン トラネット、エキストラネット、 LAN, ISDN, VAN, CATV通信網、仮想専用網(Virt ual Private Network)、電話回線網、移動体通信網、衛星通信網等であればよ い。 [0095] Even if the display device 1 is configured to be connectable to a communication network, the object of the present invention can be achieved. In this case, the program code is supplied to the display device 1 via the communication network. The communication network is not limited to a specific type or form as long as it can supply the program code to the display device 1. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, etc. may be used.
[0096] この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な任意の 媒体であればよぐ特定の構成または種類のものに限定されない。たとえば、 IEEE1 394、 USB (Universal Serial Bus)、電力線搬送、ケーブル TV回線、電話線、 ADSL (Asymmetric Digital Subscriber Line)回線等の有線でも、 IrD Aゃリ モコンのような赤外線、 Bluetooth (登録商標)、 802. 11無線、 HDR、携帯電話網 、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上 記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンビュ ータデータ信号の形態でも実現され得る。  [0096] The transmission medium constituting the communication network is not limited to a specific configuration or type as long as it is an arbitrary medium capable of transmitting the program code. For example, IEEE1 394, USB (Universal Serial Bus), power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, etc., infrared such as IrD A remote control, Bluetooth (registered trademark) 802.11 radio, HDR, mobile phone network, satellite line, terrestrial digital network, etc. can also be used. The present invention can also be realized in the form of a converter data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
[0097] 以上のように、本発明に係る表示装置は、入力デバイスにおける入力位置に対応 する、 3次元表示ディスプレイにおける位置に、オブジェクトが表示されているか否か を判定する判定手段と、当該判定手段による判定結果が真であるとき、上記オブジェ タトの表示状態を、より高さの低いものに変更する表示手段とを備えているため、 3次 元表示されたオブジェクトをユーザが選択したとき、ユーザに自然な印象を与える表 示を行うことができる効果を奏する。  [0097] As described above, the display device according to the present invention includes a determination unit that determines whether an object is displayed at a position on the three-dimensional display corresponding to the input position on the input device, and the determination. When the result of the determination by the means is true, the display means for changing the display state of the object to a lower one is provided, so when the user selects an object displayed in three dimensions, There is an effect that a display that gives a natural impression to the user can be performed.
[0098] 発明の詳細な説明の項にお!/、てなされた具体的な実施形態または実施例は、あく までも、本発明の技術内容を明らかにするものであって、そのような具体例にのみ限 定して狭義に解釈されるべきものではなぐ本発明の精神と次に記載する請求の範 囲内で、レ、ろ!/、ろと変更して実施することができるものである。 [0098] The specific embodiments or examples made in the detailed description section of the invention have so far clarified the technical contents of the present invention. The spirit of the invention, which is not to be construed in a narrow sense, but only by way of example, and the scope of the claims set forth below. It is possible to carry out the change in the box.
産業上の利用可能性 Industrial applicability
本発明は、 3次元表示したオブジェクトの選択をタツチパネルを通じて行える表示装 置として利用できる。たとえば、銀行の ATMや家庭用ゲーム機など、各種の用途に 応用できる。  The present invention can be used as a display device capable of selecting an object displayed three-dimensionally through a touch panel. For example, it can be applied to various uses such as bank ATMs and home game machines.

Claims

請求の範囲 The scope of the claims
[1] 入力デバイスから一定距離を置いて配置された 3次元表示ディスプレイに、ォブジ ェクトを 3次元表示する表示手段を備えている表示装置であって、  [1] A display device comprising a display means for three-dimensionally displaying an object on a three-dimensional display arranged at a certain distance from an input device,
上記入力デバイスにおける入力位置を検出する検出手段と、  Detecting means for detecting an input position in the input device;
上記検出された入力位置に対応する、上記 3次元表示ディスプレイにおける位置 に、上記オブジェクトが表示されているか否かを判定する判定手段とをさらに備えて おり、  Determination means for determining whether or not the object is displayed at a position on the three-dimensional display corresponding to the detected input position;
上記表示手段は、上記判定手段による判定結果が真であるとき、上記オブジェクト の表示状態を、より高さの低いものに変更することを特徴とする表示装置。  The display device, wherein when the determination result by the determination device is true, the display state of the object is changed to a lower one.
[2] 上記入力デバイスは接触型タツチパネルであることを特徴とする請求の範囲第 1項 に記載の表示装置。 [2] The display device according to claim 1, wherein the input device is a contact type touch panel.
[3] 上記入力デバイスは非接触型タツチパネルであり、 [3] The input device is a non-contact touch panel,
上記 3次元表示ディスプレイから上記一定距離を置!/、た位置に、上記 3次元表示 ディスプレイと平行に配置されるパネルをさらに備えていることを特徴とする請求の範 囲第 1項に記載の表示装置。  The panel according to claim 1, further comprising a panel arranged in parallel with the 3D display at a position at a certain distance from the 3D display. Display device.
[4] 上記表示手段は、 [4] The display means is:
上記判定手段による判定結果が真になる前において、上記オブジェクトの高さを、 上記一定距離に略一致させることを特徴とする請求の範囲第 1項に記載の表示装置  2. The display device according to claim 1, wherein the height of the object is made to substantially coincide with the certain distance before the determination result by the determination means becomes true.
[5] 上記表示手段は、 [5] The display means is
上記判定手段による判定結果が真になる前において、複数の上記オブジェクトのう ち、アクティブな上記オブジェクトだけを 3次元表示することを特徴とする請求の範囲 第 1項に記載の表示装置。  2. The display device according to claim 1, wherein only the active object among the plurality of objects is three-dimensionally displayed before the determination result by the determination means becomes true.
[6] 上記表示手段は、 [6] The display means is:
上記判定手段による判定結果が真になる前において、上記オブジェクトに影をつけ て表示することを特徴とする請求の範囲第 1項に記載の表示装置。  2. The display device according to claim 1, wherein the object is displayed with a shadow before the determination result by the determination means becomes true.
[7] 上記表示手段は、 [7] The display means is
上記判定手段による判定結果が真であるとき、上記オブジェクトの表示状態を、上 記入力デバイスにおける入力面積に応じた高さのものに変化させることを特徴とする 請求の範囲第 1項に記載の表示装置。 When the determination result by the determination means is true, the display state of the object is The display device according to claim 1, wherein the display device is changed to a height corresponding to an input area of the input device.
[8] 上記表示手段は、 [8] The display means is
上記判定手段による判定結果が真であるとき、上記オブジェクトの表示状態を、上 記入力デバイスにおける入力面積に応じた形状のものに変化させることを特徴とする 請求の範囲第 1項に記載の表示装置。  The display according to claim 1, wherein when the determination result by the determination means is true, the display state of the object is changed to a shape corresponding to the input area of the input device. apparatus.
[9] 入力デバイスから一定距離を置!/、て配置された 3次元表示ディスプレイにオブジェ タトを 3次元表示する表示装置が実行する表示方法であって、 [9] A display method executed by a display device that three-dimensionally displays an object on a three-dimensional display arranged at a certain distance from an input device!
上記入力デバイスにおける入力位置を検出する検出ステップと、  A detection step of detecting an input position in the input device;
上記検出された入力位置に対応する、上記 3次元表示ディスプレイにおける位置 に、上記オブジェクトが表示されて!/、るか否かを判定する判定ステップと、  A determination step of determining whether or not the object is displayed at a position on the 3D display corresponding to the detected input position! /,
上記判定ステップにおける判定結果が真であるとき、上記オブジェクトの表示状態 を、より高さの低いものに変更する表示変更ステップとを含んでいることを特徴とする 表示方法。  And a display changing step of changing the display state of the object to a lower one when the determination result in the determination step is true.
[10] 請求の範囲第 1項から第 8項のいずれか 1項に記載の表示装置を動作させる表示 プログラムであって、コンピュータを上記の各手段として機能させるための表示プログ ラム。  [10] A display program for operating the display device according to any one of claims 1 to 8, which causes the computer to function as each of the above means.
[11] 請求の範囲第 10項に記載の表示プログラムを記録しているコンピュータ読み取り 可能な記録媒体。  [11] A computer-readable recording medium in which the display program according to claim 10 is recorded.
PCT/JP2007/064565 2006-11-22 2007-07-25 Display, display method, display program, and recording medium WO2008062586A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-316323 2006-11-22
JP2006316323 2006-11-22

Publications (1)

Publication Number Publication Date
WO2008062586A1 true WO2008062586A1 (en) 2008-05-29

Family

ID=39429527

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/064565 WO2008062586A1 (en) 2006-11-22 2007-07-25 Display, display method, display program, and recording medium

Country Status (1)

Country Link
WO (1) WO2008062586A1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus
JP2011118907A (en) * 2010-12-20 2011-06-16 Fujifilm Corp Device and method for setting indicated position in three-dimensional display, and program
EP2339435A1 (en) * 2008-08-27 2011-06-29 FUJIFILM Corporation Device and method for setting instruction position during three-dimensional display, and program
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
WO2012105703A1 (en) * 2011-02-04 2012-08-09 シャープ株式会社 Display device, display image generating method, program, and recording medium
WO2012132749A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Stereoscopic display device, method for accepting instruction, program, and medium for recording same
JP2012194760A (en) * 2011-03-16 2012-10-11 Canon Inc Image processing apparatus and method of controlling the same, and program
JP2012252386A (en) * 2011-05-31 2012-12-20 Ntt Docomo Inc Display device
EP2175351A3 (en) * 2008-10-10 2013-07-10 Sony Corporation Apparatus, system, method, and program for processing information
CN103294387A (en) * 2012-02-23 2013-09-11 宏达国际电子股份有限公司 Stereoscopic imaging system and method thereof
JP5781080B2 (en) * 2010-10-20 2015-09-16 三菱電機株式会社 3D stereoscopic display device and 3D stereoscopic display processing device
JP2016042391A (en) * 2015-12-24 2016-03-31 京セラ株式会社 Display device
EP2585900A4 (en) * 2010-06-24 2016-07-06 Nokia Technologies Oy Apparatus and method for proximity based input

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08511365A (en) * 1993-04-28 1996-11-26 マクフェターズ,アール.,ダグラス Holographic operator interface
JPH10171600A (en) * 1996-12-06 1998-06-26 Brother Ind Ltd Input device
JP2002351352A (en) * 2001-05-28 2002-12-06 Hitachi Electronics Service Co Ltd Thin display device
JP2005316790A (en) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> Information input method, informed input/output device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08511365A (en) * 1993-04-28 1996-11-26 マクフェターズ,アール.,ダグラス Holographic operator interface
JPH10171600A (en) * 1996-12-06 1998-06-26 Brother Ind Ltd Input device
JP2002351352A (en) * 2001-05-28 2002-12-06 Hitachi Electronics Service Co Ltd Thin display device
JP2005316790A (en) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> Information input method, informed input/output device, and program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482557B2 (en) 2008-08-27 2013-07-09 Fujifilm Corporation Device and method for setting instructed position during three-dimensional display, as well as program
EP2339435A1 (en) * 2008-08-27 2011-06-29 FUJIFILM Corporation Device and method for setting instruction position during three-dimensional display, and program
EP2339435A4 (en) * 2008-08-27 2012-06-06 Fujifilm Corp Device and method for setting instruction position during three-dimensional display, and program
EP2175351A3 (en) * 2008-10-10 2013-07-10 Sony Corporation Apparatus, system, method, and program for processing information
JP2011013778A (en) * 2009-06-30 2011-01-20 Sony Corp Stereoscopic image display device, object proximity detection device and electronic apparatus
EP2585900A4 (en) * 2010-06-24 2016-07-06 Nokia Technologies Oy Apparatus and method for proximity based input
JP5781080B2 (en) * 2010-10-20 2015-09-16 三菱電機株式会社 3D stereoscopic display device and 3D stereoscopic display processing device
JP2012098929A (en) * 2010-11-02 2012-05-24 Canon Inc Display control device and display control method
JP2011118907A (en) * 2010-12-20 2011-06-16 Fujifilm Corp Device and method for setting indicated position in three-dimensional display, and program
WO2012105703A1 (en) * 2011-02-04 2012-08-09 シャープ株式会社 Display device, display image generating method, program, and recording medium
JP2012194760A (en) * 2011-03-16 2012-10-11 Canon Inc Image processing apparatus and method of controlling the same, and program
CN103460257A (en) * 2011-03-31 2013-12-18 富士胶片株式会社 Stereoscopic display device, method for accepting instruction, program, and medium for recording same
EP2693405A1 (en) * 2011-03-31 2014-02-05 FUJIFILM Corporation Stereoscopic display device, method for accepting instruction, program, and medium for recording same
JPWO2012132749A1 (en) * 2011-03-31 2014-07-24 富士フイルム株式会社 Stereoscopic display device, instruction receiving method and program, and recording medium therefor
EP2693405A4 (en) * 2011-03-31 2014-09-03 Fujifilm Corp Stereoscopic display device, method for accepting instruction, program, and medium for recording same
JP5693708B2 (en) * 2011-03-31 2015-04-01 富士フイルム株式会社 Stereoscopic display device, instruction receiving method and program, and recording medium therefor
WO2012132749A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Stereoscopic display device, method for accepting instruction, program, and medium for recording same
CN106896952A (en) * 2011-03-31 2017-06-27 富士胶片株式会社 Stereoscopic display device and the method for receiving instruction
US9727229B2 (en) 2011-03-31 2017-08-08 Fujifilm Corporation Stereoscopic display device, method for accepting instruction, and non-transitory computer-readable medium for recording program
JP2012252386A (en) * 2011-05-31 2012-12-20 Ntt Docomo Inc Display device
CN103294387A (en) * 2012-02-23 2013-09-11 宏达国际电子股份有限公司 Stereoscopic imaging system and method thereof
JP2016042391A (en) * 2015-12-24 2016-03-31 京セラ株式会社 Display device

Similar Documents

Publication Publication Date Title
WO2008062586A1 (en) Display, display method, display program, and recording medium
US20200409529A1 (en) Touch-free gesture recognition system and method
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP6463795B2 (en) System and method for using textures in a graphical user interface device
JP5446769B2 (en) 3D input display device
TWI360071B (en) Hand-held device with touchscreen and digital tact
US9015584B2 (en) Mobile device and method for controlling the same
US11656711B2 (en) Method and apparatus for configuring a plurality of virtual buttons on a device
CN105589594B (en) Electronic device and operation control method of electronic device
CN103502923B (en) User and equipment based on touching and non-tactile reciprocation
JP2018063700A (en) Contextual pressure sensing haptic responses
KR20140126129A (en) Apparatus for controlling lock and unlock and method therefor
JP6012068B2 (en) Electronic device, control method thereof, and program
KR101019254B1 (en) apparatus having function of space projection and space touch and the controlling method thereof
EP2075671A1 (en) User interface of portable device and operating method thereof
CN102981743A (en) Method for controlling operation object and electronic device
JP2017111462A (en) Feeling presentation device and feeling presentation method
US20140320440A1 (en) Tactile sensation providing device
JP2018113025A (en) Systems and methods for compliance illusions with haptics
EP2423786B1 (en) Information processing apparatus, stereoscopic display method, and program
CN102760004B (en) Method and device for controlling data display state
EP3652613B1 (en) Improved transmission of haptic input
JP2014074988A (en) Display device, and display method
EP2608000A1 (en) Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity
US20130162624A1 (en) Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07791281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07791281

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP