WO2018155127A1 - 表示装置、表示方法、制御装置および車両 - Google Patents

表示装置、表示方法、制御装置および車両 Download PDF

Info

Publication number
WO2018155127A1
WO2018155127A1 PCT/JP2018/003500 JP2018003500W WO2018155127A1 WO 2018155127 A1 WO2018155127 A1 WO 2018155127A1 JP 2018003500 W JP2018003500 W JP 2018003500W WO 2018155127 A1 WO2018155127 A1 WO 2018155127A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
movement amount
display
vibration
unit
Prior art date
Application number
PCT/JP2018/003500
Other languages
English (en)
French (fr)
Inventor
堀井 省次
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2018155127A1 publication Critical patent/WO2018155127A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers

Definitions

  • the present invention relates to a display device.
  • a technique for controlling an image so that the image looks stationary in the air when the main body shakes.
  • One embodiment is a display device that includes a display unit, a detection unit, a movement amount calculation unit, a storage unit, a movement amount prediction unit, and a display control unit.
  • the display unit detects the vibration of the display device, the movement amount calculation unit calculates the movement amount that the display device has moved due to the vibration of the display device, and the storage unit is defined by the time change of the movement amount of the display device.
  • the vibration pattern satisfies a predetermined condition
  • the vibration pattern is stored as a basic pattern
  • the movement amount prediction unit uses the basic pattern to calculate the movement amount of the display device when a new vibration is applied to the display device.
  • the display control unit moves the display position of the image displayed on the display unit based on the predicted movement amount predicted by the movement amount prediction unit.
  • ⁇ Appearance of display device> 1 and 2 are a perspective view and a rear view showing an example of the appearance of the display device 1, respectively.
  • the display device 1 includes a plate-like device case 10 that is substantially rectangular in plan view.
  • the device case 10 constitutes the exterior of the display device 1.
  • a display area 11 on which various information such as characters, symbols, and figures are displayed is located on the front surface 1a of the device case 10.
  • a touch panel 140 (FIG. 3) to be described later is located on the back side of the display area 11.
  • the user can input various information to the display device 1 by operating the display area 11 on the front surface of the display device 1 with a finger or the like.
  • the user can also input various types of information to the display device 1 by operating the display area 11 with a touch panel pen such as a stylus pen other than a finger.
  • the receiver hole 12 is located at the upper end of the front surface 1a of the device case 10.
  • a speaker hole 13 is located at the lower end of the front surface 1a.
  • a microphone hole 14 is located on the lower side surface 1 c of the device case 10.
  • a lens 191 included in a first camera 190 (FIG. 3) described later is visible.
  • a lens 201 included in a second camera 200 (FIG. 3) to be described later is visible from the upper end of the back surface 1 b of the device case 10.
  • the display device 1 includes an operation button group 18 having operation buttons 15, 16 and 17.
  • Each of the operation buttons 15 to 17 is a hardware button.
  • each of the operation buttons 15 to 17 is a push button.
  • at least one operation button included in the operation button group 18 may be a software button displayed in the display area 11.
  • the operation button group 18 may include a power button and a volume button.
  • FIG. 3 is a block diagram mainly showing an example of the electrical configuration of the display device 1.
  • the display device 1 includes a control unit 100, a wireless communication unit 110, a display unit 120, a touch panel 140, and an operation button group 18.
  • the display device 1 further includes a receiver 160, a speaker 170, a microphone 180, a first camera 190, and a second camera 200.
  • the display device 1 further includes an acceleration sensor 150 (detection unit) and a battery 210. These components included in the display device 1 are housed in a device case 10.
  • the control unit 100 can comprehensively manage the operation of the display device 1 by controlling other components of the display device 1.
  • the control unit 100 can also be said to be a control device.
  • the controller 100 includes at least one processor to provide control and processing capabilities to perform various functions, as described in further detail below.
  • At least one processor may be implemented as a single integrated circuit (IC) or as a plurality of communicatively connected integrated circuit ICs and / or discrete circuits. Good.
  • the at least one processor can be implemented according to various known techniques.
  • the processor includes one or more circuits or units configured to perform one or more data computation procedures or processes, for example, by executing instructions stored in associated memory.
  • the processor may be firmware (eg, a discrete logic component) configured to perform one or more data computation procedures or processes.
  • the processor may include one or more processors, controllers, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processors, programmable logic devices, field programmable gate arrays, or the like.
  • ASICs application specific integrated circuits
  • digital signal processors programmable logic devices
  • field programmable gate arrays or the like.
  • the control unit 100 includes a CPU (Central Processing Unit) 101, a DSP (Digital Signal Processor) 102, and a storage unit 103.
  • the storage unit 103 includes a non-transitory recording medium that can be read by the CPU 101 and the DSP 102, such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the ROM included in the storage unit 103 is, for example, a flash ROM (flash memory) that is a nonvolatile memory.
  • the storage unit 103 stores a plurality of control programs 103 a for controlling the display device 1.
  • Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various control programs 103 a in the storage unit 103.
  • control unit 100 may include a plurality of CPUs 101.
  • the control unit 100 may include a main CPU that performs relatively complicated processing and a sub CPU that performs relatively simple processing.
  • control unit 100 may not include the DSP 102 or may include a plurality of DSPs 102.
  • all the functions of the control unit 100 or a part of the functions of the control unit 100 may be realized by a hardware circuit that does not require software to realize the function.
  • the storage unit 103 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 103 may include, for example, a small hard disk drive and an SSD (Solid State Drive).
  • the plurality of control programs 103a in the storage unit 103 include various applications (application programs).
  • the storage unit 103 stores, for example, a call application for making a voice call and a video call, a browser for displaying a website, and a mail application for creating, browsing, and transmitting / receiving an e-mail.
  • the storage unit 103 also has a camera application for photographing a subject using the first camera 190 and the second camera 200, and a recorded image display application for displaying still images and moving images recorded in the storage unit 103.
  • a music reproduction control application for performing reproduction control of music data stored in the storage unit 103 is stored.
  • At least one application in the storage unit 103 may be stored in advance in the storage unit 103.
  • the at least one application in the storage unit 103 may be one that the display device 1 has downloaded from another device and stored in the storage unit 103.
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 can use the antenna 111 to perform wireless communication using a plurality of types of communication methods, for example. Wireless communication of the wireless communication unit 110 is controlled by the control unit 100. It can be said that the wireless communication unit 110 is a communication circuit.
  • the wireless communication unit 110 can wirelessly communicate with a base station of a mobile phone system.
  • the wireless communication unit 110 can communicate with a mobile phone and a web server other than the display device 1 through the base station and a network such as the Internet.
  • the display device 1 can perform data communication, voice call, video call, and the like with other mobile phones and the like.
  • the wireless communication unit 110 performs various processing such as amplification processing on the signal received by the antenna 111 and outputs the processed received signal to the control unit 100.
  • the control unit 100 performs various processes on the input received signal and acquires information included in the received signal.
  • the control unit 100 outputs a transmission signal including information to the wireless communication unit 110.
  • the wireless communication unit 110 performs various processing such as amplification processing on the input transmission signal, and wirelessly transmits the processed transmission signal from the antenna 111.
  • the display unit 120 includes a display area 11 located in front of the display device 1 and a display panel 130.
  • the display unit 120 can display various information in the display area 11.
  • the display panel 130 is, for example, a liquid crystal display panel or an organic EL panel.
  • the display panel 130 can display various types of information such as characters, symbols, and figures by being controlled by the control unit 100.
  • the display panel 130 faces the display area 11 in the device case 10. Information displayed on the display panel 130 is displayed in the display area 11.
  • the touch panel 140 can detect an operation with an operator such as a finger on the display area 11.
  • the touch panel 140 is, for example, a projected capacitive touch panel.
  • the touch panel 140 is located on the back side of the display area 11, for example.
  • the control unit 100 can specify the content of the operation performed on the display area 11 based on the electrical signal (output signal) from the touch panel 140. And the control part 100 can perform the process according to the specified operation content.
  • the microphone 180 can convert a sound input from the outside of the display device 1 into an electrical sound signal and output it to the control unit 100. Sound from the outside of the display device 1 is taken into the display device 1 from the microphone hole 14 and input to the microphone 180.
  • the speaker 170 is, for example, a dynamic speaker.
  • the speaker 170 can convert an electrical sound signal from the control unit 100 into a sound and output the sound. Sound output from the speaker 170 is output from the speaker hole 13 to the outside. The user can hear the sound output from the speaker hole 13 even at a location away from the display device 1.
  • the receiver 160 can output a received sound.
  • the receiver 160 is a dynamic speaker, for example.
  • the receiver 160 can convert an electrical sound signal from the control unit 100 into a sound and output the sound.
  • the sound output from the receiver 160 is output from the receiver hole 12 to the outside.
  • the volume of the sound output from the receiver hole 12 is smaller than the volume of the sound output from the speaker hole 13.
  • the user can hear the sound output from the receiver hole 12 by bringing his ear close to the receiver hole 12.
  • a vibration element such as a piezoelectric vibration element that vibrates the front portion of the device case 10 may be provided. In this case, the sound is transmitted to the user by the vibration of the front portion.
  • the first camera 190 includes a lens 191 and an image sensor.
  • the second camera 200 includes a lens 201 and an image sensor. Each of the first camera 190 and the second camera 200 can photograph a subject based on control by the control unit 100, generate a still image or a moving image indicating the photographed subject, and output the still image or moving image to the control unit 100. .
  • the lens 191 of the first camera 190 is visible from the front surface 1a of the device case 10. Accordingly, the first camera 190 can photograph a subject existing on the front side (display area 11 side) of the display device 1.
  • the first camera 190 is called an in camera.
  • the lens 201 of the second camera 200 is visible from the back surface 1 b of the device case 10. Therefore, the second camera 200 can photograph a subject existing on the back side of the display device 1.
  • the second camera 200 is called an out camera.
  • the acceleration sensor 150 can detect the acceleration of the display device 1.
  • the acceleration sensor 150 is, for example, a three-axis acceleration sensor.
  • the acceleration sensor 150 can detect the acceleration of the display device 1 in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the X-axis direction, the Y-axis direction, and the Z-axis direction of the acceleration sensor 150 are set in the longitudinal direction, the lateral direction, and the thickness direction of the display device 1, respectively.
  • the battery 210 can output the power source of the display device 1.
  • the battery 210 is, for example, a rechargeable battery.
  • the power output from the battery 210 is supplied to various components such as the control unit 100 and the wireless communication unit 110 included in the display device 1.
  • the display device 1 may include a sensor other than the acceleration sensor 150.
  • the display device 1 may include at least one of a geomagnetic sensor, a gyro sensor, an atmospheric pressure sensor, a temperature sensor, a proximity sensor, and an illuminance sensor.
  • FIG. 1 The technology of the display device 1 will be described with reference to FIGS. 1 to 3 and FIGS. 4 to 6.
  • FIG. 1 is a diagrammatic representation of the display device 1
  • FIG. 4 and 5 are flowcharts for explaining an example of the operation of the display device 1 for improving the visibility
  • FIG. 6 is a diagram schematically showing the operation.
  • the control unit 100 turns on a correction mode for moving the image displayed on the display unit 120 in response to the movement of the display device 1 when the display device 1 moves in a spatial position due to shaking or the like. Judge whether or not. Note that the correction mode is set to ON or OFF when the user performs an operation to set the correction mode on the menu screen of the display device 1, for example.
  • the control unit 100 confirms whether or not the correction mode of the display device 1 is ON in Step S401. If the correction mode is ON (Yes), the control unit 100 proceeds to Step S402. If the correction mode is not ON (No), the operation in step S401 is repeated.
  • step S402 the control unit 100 calculates the movement amount of the display device 1, that is, the movement amount of the image, based on the output of the acceleration sensor 150.
  • the image movement amount calculation operation in step S402 will be described with reference to FIG.
  • the control unit 100 turns on the acceleration sensor 150 when the correction mode is turned on (step S501).
  • the control unit 100 calculates an image movement amount that is a movement amount of the image displayed in the display area 11 of the display unit 120 based on the output of the acceleration sensor 150 (step S502).
  • the control unit 100 moves the image displayed in the display area 11 based on the calculated image movement amount (step S403).
  • the direction in which the image is moved is a direction in which the image appears to be fixed on the display screen. For example, when the display device 1 moves in the X axis positive direction, the display device 1 is moved in the direction to cancel the movement, that is, in the X axis negative direction.
  • the control unit 100 may display the image display position on the display unit 120 after step 403 described above so that the image display position is slightly closer to the position when the operation mode is OFF (standard display position). Thereby, the possibility that the display position of the image is greatly separated from the standard display position can be reduced.
  • control unit 100 determines whether or not the correction mode is turned off. When the correction mode is turned off (Yes), the operation is terminated. When the correction mode is not turned off (No), the operation after Step S402 is performed. Repeat (step S404). Note that the control unit 100 causes the display position of the image to be displayed so as to return to the standard display position after step 404 described above.
  • FIG. 6 An example of the operation of the display device 1 described with reference to FIGS. 4 and 5 will be described with reference to FIG.
  • directions are expressed using an XYZ orthogonal coordinate system, and the X-axis direction, the Y-axis direction, and the Z-axis direction correspond to the short side direction, the long side direction, and the thickness direction of the display device 1, respectively.
  • the display device 1 has moved by a movement amount L in the positive X-axis direction of the acceleration sensor 150, and the screen of the display area 11 of the display device 1 faces the Z-axis direction of the acceleration sensor 150. It shall be.
  • control unit 100 detects the acceleration of the moving display device 1 from the output value of the acceleration sensor 150, and calculates the movement amount L of the display device 1 based on the detected acceleration.
  • the movement amount L is obtained by the control unit 100 integrating the acceleration twice over time.
  • the control unit 100 moves the image displayed in the display area 11 before the display device 1 is moved, here, the entire display screen 301 in the display area 11.
  • the display device 1 before movement is shown on the upper side
  • the display device 1 after movement is shown on the lower side.
  • the display screen 301 is detected to the left side (X-axis negative direction) in the display area 11. It is moved by the movement amount L.
  • a heart-shaped image 3011 is indicated by a solid line on the display screen 301 before the display device 1 moves to make the operation easy to understand.
  • the correction mode is ON, when the display device 1 moves to the right side (X-axis positive direction) on the drawing, the display screen 301 is detected to move to the left side (X-axis negative direction) in the display area 11. Since the display device 1 moves by the amount L, the center line CL of the image 3011 does not move even after the display device 1 moves, and the image 3011 appears to be stationary on the display screen 301, and the visibility of the display device 1. Will improve.
  • an area NR indicating a margin is generated at the right end of the display area 11.
  • an image different from the display screen 301 is displayed. For example, an image painted in a predetermined single color is displayed over the entire area NR.
  • the correction mode when the display device 1 moves to the right (X-axis positive direction) by the movement amount L on the drawing, the display screen 301 also moves to the right by the movement amount L. As a result, the image 3011 also moves to the right by the movement amount L, becomes the position of the image 3012 indicated by a broken line, and the visibility of the display device 1 decreases.
  • the user when the user is using the display device 1 while holding it in the vehicle, the user also shakes as the vehicle shakes. In this case, the user's head (eyes) and the hand holding the display device 1 do not move in synchronization, and if the correction mode is not ON, the image is shaken and visibility is lowered. However, if the correction mode is ON, the image appears to be fixed on the display screen 301 of the display device 1, and for example, reading of characters and the like is facilitated, and visibility is improved.
  • the image on the display screen of the display device 1 appears to be fixed, and thus visibility is improved.
  • the central portion CP of the display screen 301 before the movement that is, the central portion of the display screen 301 in the X-axis direction and the Y-axis direction is the origin.
  • the image data position may be changed so that the origin moves in the X-axis direction and the Y-axis direction.
  • the entire display screen 301 is moved. However, only a specific image on the display screen 301 may be moved.
  • the amount of movement of the display device 1 is calculated a plurality of times during one frame period defined by the frame rate.
  • An average value of a plurality of movement amounts can be taken as a movement amount in one frame period. For example, if the frame rate is 60 fps (frames per second), the length of the frame period is 1/60 second, which is about 17 msec.
  • the acceleration sensor 150 measures the acceleration applied to the display device 1 every 5 msec, for example, three measurements are possible.
  • the image displayed in the display area 11 at a predetermined frame rate may be a moving image or a still image.
  • the movement amount of the display device 1 is calculated based on the output of the acceleration sensor.
  • the movement amount of the display device 1 is calculated based on the movement amount of the image captured by the camera. Also good.
  • the control unit 100 identifies the reference image in the captured image captured by the first camera (out camera) 190.
  • the reference image for example, an image having the highest luminance among the captured images is detected and set as the reference image.
  • the reference image setting method is not limited to the highest brightness among the captured images, and a person image, an image having a predetermined shape, a predetermined color in the captured image You may set to the image etc. which have.
  • an image having a predetermined image data value such as contrast may be used as the reference image.
  • the control part 100 specifies the predetermined coordinate position of the reference
  • the control unit 100 identifies a reference image in the captured image captured by the out-camera 190, and identifies a predetermined coordinate position in the reference image. , The second coordinate.
  • control unit 100 obtains the movement amount of the reference image from the displacement value from the first coordinate to the second coordinate in the captured image, and calculates the movement amount L of the display device 1.
  • the example which calculates the movement amount L of the display apparatus 1 using the captured image imaged with the 1st camera (out camera) 190 was shown above, the captured image imaged with the 2nd camera (in camera) 200 was shown. It may be used to calculate the movement amount L of the display device 1.
  • the captured image is not limited to a moving image, and still images may be captured continuously to calculate the moving amount of the image.
  • the frequency and damping rate of this vibration are determined by the vehicle weight, buffer spring and damper.
  • the frequency and the damping rate are the same unless the characteristics of the vehicle weight, the buffer spring, and the damper are changed. Therefore, if the vibration pattern is stored, the movement amount of the display device 1 can be predicted based on the stored vibration pattern when the same vibration occurs next time.
  • the control unit 100 turns on the acceleration sensor 150, and the turned-on acceleration sensor 150 repeats measurement of acceleration at a predetermined interval. Therefore, when the correction mode of the display device 1 in the vehicle is turned on and the vehicle climbs up a step, the acceleration sensor 150 is added to the display device 1 at a predetermined interval, for example, every 5 msec. The acceleration is measured and output to the control unit 100.
  • the control unit 100 detects the acceleration from the output value of the acceleration sensor 150 and calculates the amount of movement of the display device 1 by integrating the acceleration twice over time. By repeating this series of processing, it is possible to acquire a vibration pattern until the shaking of the vehicle body is settled.
  • FIG. 7 shows an example of the vibration pattern obtained in this way.
  • FIG. 7 is a waveform diagram illustrating a vibration pattern until the shaking of the vehicle body is settled.
  • the horizontal axis indicates time, and the vertical axis indicates the amount of movement of the display device 1.
  • the vibration is repeated for several cycles until the vibration starts and settles, and gradually attenuates with time.
  • the vibration pattern has a frequency of 3 Hz because it takes approximately 1 second until the vibration is stopped and repeats the vibration of three cycles.
  • FIG. 7 two types of vibration patterns with different maximum peak values are shown. This is because the maximum peak value (vibration magnitude) differs depending on the height of the step on which the vehicle rides. It shows that the vibration pattern is the same. Therefore, if the vibration pattern data as shown in FIG. 7 is stored, the next movement amount of the display device 1 generated based on the stored vibration pattern when the vibration of the same vibration pattern occurs next. Can be predicted.
  • FIG. 8 is a diagram conceptually illustrating a method of predicting the movement amount of the display device 1.
  • FIG. 8 shows a vibration pattern similar to that in FIG. 7, but this is a stored vibration pattern, and is hereinafter referred to as a basic pattern.
  • the acceleration sensor 150 measures the acceleration applied to the display device 1 every 5 msec and outputs it to the control unit 100 when the vehicle climbs on the step again and the vehicle body starts to shake in the vertical direction. Then, the control unit 100 calculates an amount of movement of the display device 1 based on the acceleration and starts an operation of acquiring a new vibration pattern.
  • this new vibration pattern is referred to as a measuring pattern.
  • the control unit 100 compares the pattern under measurement and the basic pattern, and if the same movement amount as the basic pattern is obtained at the same timing as the basic pattern, it is determined that the vibration having the same vibration pattern as the basic pattern has occurred.
  • the control unit 100 calculates the same movement amount at the same timing in the pattern under measurement. It is determined that the vibration having the same vibration pattern as the basic pattern has occurred. Note that “same” is not limited to completely the same value, but includes different values within a range of several percent.
  • the frame rate of the liquid crystal display device is 1/60 second, and after 1/60 second from the point P1 at the peak of the first waveform of the basic pattern, the movement amount is the movement amount L2 at the point P2. It is predicted that By using the movement amount L2 as the predicted movement amount and moving the display screen 301 after 1/60 second based on the predicted movement amount, the time lag from the shaking of the display device 1 to the movement of the display screen 301 can be reduced.
  • the control unit 100 calculates the movement amount of the display device 1 by detecting the acceleration of the shake of the display device 1, and therefore the movement of the display screen 301 from the shake of the display device 1.
  • the movement amount L2 after 1/60 second is predicted using the basic pattern as described above, so that the display device 1 can be moved until the display screen 301 is moved.
  • the user of the display device 1 can be reduced from feeling uncomfortable due to the time lag.
  • the acceleration may be measured three times including the peak point. That is, if acceleration is measured three times and the change in time of the movement amount at three points is known, it changes whether it changes toward the peak, away from the peak, or includes the peak. You can see if it is. If the acceleration sensor 150 measures the acceleration applied to the display device 1 every 5 msec, three measurements can be performed in 1/60 second, and the peak point of the pattern being measured can be specified. Become.
  • the basic pattern and the pattern under measurement are compared using the peak of the first waveform of the basic pattern.
  • the comparison target is not limited to this, and any vibration pattern with a short vibration period may be used.
  • the peak of the second waveform and the peak of the third waveform of the basic pattern may be used, and are not limited to the peak of the waveform.
  • FIG. 9 is a diagram illustrating an example of a part of functional blocks formed when the CPU 101 and the DSP 102 execute the control program 103 a in the storage unit 103.
  • the control unit 100 includes a movement amount calculation unit 300, an attenuation waveform determination unit 400, a basic pattern determination unit 500, a movement amount prediction unit 600, and a display control unit 700 as functional blocks.
  • At least one of the movement amount calculation unit 300, the attenuation waveform determination unit 400, the basic pattern determination unit 500, the movement amount prediction unit 600, and the display control unit 700 is realized by a hardware circuit that does not require software to execute the function. Also good.
  • the movement amount calculation unit 300 detects the acceleration from the output value of the acceleration sensor 150 and calculates the movement amount of the display device 1 by integrating the acceleration twice over time.
  • the attenuation waveform determination unit 400 determines whether or not an attenuation waveform that is an attenuation waveform is obtained by arranging the movement amounts of the display device 1 calculated by the movement amount calculation unit 300 in time series.
  • the basic pattern determination unit 500 determines the waveform as a basic pattern and stores the waveform in the storage unit 103, for example.
  • the movement amount predicting unit 600 compares the basic pattern with a new measurement pattern being measured, and determines that the vibration having the same vibration pattern as the basic pattern has occurred when the same movement amount is obtained at the same timing. Then, the movement amount of the display device 1 occurring in the future is predicted using the basic pattern.
  • the display control unit 700 performs display control so as to move the display screen 301 based on the movement amount of the display device 1 generated in the future predicted by the movement amount prediction unit 600.
  • the control unit 100 turns on the acceleration sensor 150, and causes the acceleration sensor 150 that has turned on to repeat measurement of acceleration at a predetermined interval (step S1).
  • the movement amount calculation unit 300 of the control unit 100 detects the acceleration from the output value of the acceleration sensor 150, and calculates the movement amount of the display device 1 by integrating the acceleration twice over time (step S2).
  • the amount of movement of the display device 1 obtained by repeating the processing of step S1 and step S2 over a predetermined time is arranged in time series to obtain an attenuation waveform. It is determined whether or not (step S3).
  • step S3 the amount of movement of the display device 1 obtained by repeating the processing of step S1 and step S2 over a predetermined time is arranged in time series to obtain an attenuation waveform. It is determined whether or not (step S3).
  • a periodic waveform is continuous instead of an attenuation waveform, it is determined that the attenuation waveform is not obtained, assuming that the vehicle is traveling on a road surface such as a wavy road, and steps S1 and after. Repeat the process.
  • the basic pattern determination unit 500 determines the waveform as a basic pattern (step S4). Note that the basic pattern determination unit 500 updates the newly determined basic pattern to a newly determined basic pattern if it is different from the newly determined basic pattern if there is a previously determined basic pattern.
  • the acceleration sensor 150 measures the acceleration applied to the display device 1 every 5 msec and outputs the acceleration to the control unit 100.
  • the movement amount calculation unit 300 of the control unit 100 determines the acceleration. Based on this, the movement amount of the display device 1 is calculated, and an operation of acquiring a pattern under measurement which is a new vibration pattern is started (step S5).
  • the movement amount prediction unit 600 of the control unit 100 compares the basic pattern with a new measurement pattern that is being measured, and if the same movement amount is obtained at the same timing, vibration with the same vibration pattern as the basic pattern occurs. (Step S6). At this time, the pattern under measurement is not acquired as a complete pattern, and the amount of movement of the display device 1 calculated sequentially each time acceleration is detected is compared with the amount of movement in the basic pattern. However, in the above description, the basic pattern and the pattern under measurement are compared for convenience.
  • the vibration to be determined here is a vibration having a large amplitude as if the vehicle has climbed a step, and the movement amount similar to the peak of the first waveform of the basic pattern is obtained. It can be considered that it is the same vibration. If it is determined that vibration having a vibration pattern different from the basic pattern has occurred, the operations in and after step S3 are repeated.
  • the movement amount prediction unit 600 determines that the vibration having the same vibration pattern as the basic pattern has occurred, the movement amount prediction unit 600 predicts the movement amount of the display device 1 that will occur in the future using the basic pattern (step S7).
  • the movement amount 1/60 second after the point at the peak of the first waveform of the basic pattern is predicted from the basic pattern.
  • the display control unit 700 of the control unit 100 performs display control so that the display screen 301 is moved in the direction to cancel the movement of the display device 1 with the same movement amount predicted by the movement amount prediction unit 600 (step S8). ).
  • This display control may be control that only changes the data of the display position based on the predicted movement amount predicted by the movement amount prediction unit 600 to the image data before movement of the display screen 301, or based on the predicted movement amount. It is good also as control which produces
  • the former control is suitable for moving a text image and a still image in which the temporal change of image data is relatively small, and the latter control is suitable for moving a moving image in which the temporal change of image data is relatively large.
  • control unit 100 may include a plurality of CPUs.
  • control unit 100 may include a main CPU that performs relatively complicated processing and a sub CPU that performs relatively simple processing.
  • FIG. 11 is a block diagram schematically illustrating an example of a configuration in which the control unit 100 includes a main CPU 101m and a sub CPU 101s.
  • the main CPU 101m transmits the image data of the display screen 301 to the display panel 130, and the sub CPU 101s executes the above-described processing of steps S1 to S8, whereby the image data of the display screen 301 is displayed.
  • the display screen 301 is moved by changing the display position based on the predicted movement amount predicted by the movement amount prediction unit 600.
  • the sub CPU 101s need only have a function of executing the processing of steps S1 to S8, and the device configuration is simplified.
  • FIG. 12 is also a block diagram schematically illustrating an example of a configuration in which the control unit 100 includes the main CPU 101m and the sub CPU 101s.
  • the main CPU 101m transmits image data of the display screen 301 to the display panel 130. Instead, the image data of the display screen 301 is transmitted via the sub CPU 101s.
  • the sub CPU 101s has a function of creating image data of the display screen 301, and changes the display position of the image data based on the predicted movement amount obtained by executing the processes of steps S1 to S8 described above.
  • the added image data is transmitted to the display panel 130.
  • the sub CPU 101s generates image data, so that the processing amount of the main CPU 101m can be reduced.
  • the main CPU 101m and the sub CPU 101s can perform parallel processing, and the time from when the acceleration is detected by the acceleration sensor 150 until the movement amount of the display screen 301 is calculated can be shortened. Further, when the processing of steps S1 to S8 is executed by the main CPU, a waiting time for other processing by the main CPU may occur. However, when the sub CPU 101s is used, the possibility is excluded. Thus, the time from when the acceleration is detected to when the movement amount of the display screen 301 is calculated can be shortened.
  • the display device is not limited to a portable device, and is fixed in a vehicle such as a train or an automobile. You may use for a display apparatus. In that case, the embodiment is a vehicle including the display device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

表示装置であって、表示部と、表示装置の振動を検出する検出部と、表示装置の振動により表示装置が移動した移動量を算出する移動量算出部と、表示装置の移動量の時間変化で規定される振動パターンが予め定めた条件を満たす場合に、振動パターンを基本パターンとして記憶する記憶部と、表示装置に新たな振動が加わった場合に、基本パターンを用いて表示装置の移動量を予測する移動量予測部と、移動量予測部で予測された予測移動量に基づいて表示部に表示される画像の表示位置を移動させて表示する表示制御部とを備える。

Description

表示装置、表示方法、制御装置および車両 関連出願の相互参照
 本出願は、日本国出願2017-029775号(2017年2月21日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本発明は表示装置に関する。
 例えば、スマートフォン等の表示装置において、本体が揺れた場合に画像が空中に静止して見えるように制御する技術が開示されている。
 1つの実施の形態は、表示装置であって、表示部、検出部、移動量算出部、記憶部、移動量予測部および表示制御部を備える。表示部は、表示装置の振動を検出し、移動量算出部は、表示装置の振動により表示装置が移動した移動量を算出し、記憶部は、表示装置の移動量の時間変化で規定される振動パターンが予め定めた条件を満たす場合に、振動パターンを基本パターンとして記憶し、移動量予測部は、表示装置に新たな振動が加わった場合に、基本パターンを用いて表示装置の移動量を予測し、表示制御部は、移動量予測部で予測された予測移動量に基づいて表示部に表示される画像の表示位置を移動させて表示する。
表示装置の外観の一例を示す斜視図である。 表示装置の外観の一例を示す背面図である。 表示装置の電気的構成の一例を示すブロック図である。 表示装置の動作を説明するフローチャートである。 表示装置の動作を説明するフローチャートである。 表示装置の動作を模式的に示す図である。 振動パターンの一例を示す図である。 表示装置の移動量の予測方法を概念的に説明する図である。 制御部の構成の一例を示すブロック図である。 移動量の予測方法を説明するフローチャートである。 メインCPUとサブCPUを備えた構成を模式的に示したブロック図である。 メインCPUとサブCPUを備えた構成を模式的に示したブロック図である。
 <表示装置の外観>
 図1および図2は表示装置1の外観の一例を示す斜視図および背面図である。図1および図2に示されるように、表示装置1は、平面視で略長方形の板状の機器ケース10を備えている。機器ケース10は表示装置1の外装を構成している。
 機器ケース10の前面1aには、文字、記号、図形等の各種情報が表示される表示領域11が位置している。表示領域11の背面側には後述するタッチパネル140(図3)が位置している。これにより、ユーザは、表示装置1の前面の表示領域11を指等で操作することによって、表示装置1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどのタッチパネル用ペンで表示領域11を操作することによっても、表示装置1に対して各種情報を入力することができる。
 機器ケース10の前面1aの上端部にはレシーバ穴12が位置している。前面1aの下端部にはスピーカ穴13が位置している。機器ケース10の下側の側面1cにはマイク穴14が位置している。
 機器ケース10の前面1aの上端部からは、後述する第1カメラ190(図3)が有するレンズ191が視認可能となっている。図2に示されるように、機器ケース10の背面1bの上端部からは、後述する第2カメラ200(図3)が有するレンズ201が視認可能となっている。
 表示装置1は、操作ボタン15、16および17を有する操作ボタン群18を備えている。操作ボタン15~17のそれぞれはハードウェアボタンである。具体的には、操作ボタン15~17のそれぞれは押しボタンである。なお、操作ボタン群18に含まれる少なくとも1つの操作ボタンは、表示領域11に表示されるソフトウェアボタンであってもよい。
 なお、操作ボタン群18は、電源ボタンおよびボリュームボタンを含んでよい。
 <表示装置の電気的構成>
 図3は表示装置1の電気的構成の一例を主に示すブロック図である。図3に示されるように、表示装置1は、制御部100、無線通信部110、表示部120、タッチパネル140および操作ボタン群18を備える。さらに表示装置1は、レシーバ160、スピーカ170、マイク180、第1カメラ190および第2カメラ200を備える。さらに表示装置1は、加速度センサ150(検出部)および電池210を備える。表示装置1が備えるこれらの構成要素は、機器ケース10内に収められている。
 制御部100は、表示装置1の他の構成要素を制御することによって、表示装置1の動作を統括的に管理することが可能である。制御部100は制御装置とも言える。制御部100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御および処理能力を提供するために、少なくとも1つのプロセッサを含む。
 種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、または複数の通信可能に接続された集積回路ICおよび/またはディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
 1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続きまたは処理を実行するように構成された1以上の回路またはユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き、または処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
 種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、またはこれらのデバイス若しくは構成の任意の組み合わせ、または他の既知のデバイスおよび構成の組み合わせを含み、以下に説明される機能を実行してもよい。
 本例では、制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102および記憶部103を備える。記憶部103は、ROM(Read Only Memory)およびRAM(Random Access Memory)などの、CPU101およびDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、表示装置1を制御するための複数の制御プログラム103a等が記憶されている。制御部100の各種機能は、CPU101およびDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
 なお制御部100は、複数のCPU101を備えてもよい。この場合、制御部100は、比較的複雑は処理を行うメインCPUと、比較的簡単な処理を行うサブCPUとを備えてもよい。また制御部100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、制御部100の全ての機能あるいは制御部100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
 記憶部103は、ROMおよびRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブおよびSSD(Solid State Drive)などを備えていてもよい。
 記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(アプリケーションプログラム)が含まれている。記憶部103には、例えば、音声通話およびビデオ通話を行うための通話アプリケーション、ウェブサイトを表示するためのブラウザ、電子メールの作成、閲覧および送受信を行うためのメールアプリケーションが記憶されている。また記憶部103には、第1カメラ190および第2カメラ200を利用して被写体を撮影するためのカメラアプリケーション、記憶部103に記録されている静止画および動画を表示するための記録画像表示アプリケーション、記憶部103に記憶されている音楽データの再生制御を行うための音楽再生制御アプリケーションなどが記憶されている。記憶部103内の少なくとも1つのアプリケーションは、記憶部103内に予め記憶されているものであってよい。また、記憶部103内の少なくとも1つのアプリケーションは、表示装置1が他の装置からダウンロードして記憶部103内に記憶したものであってもよい。
 無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の通信方式で無線通信することが可能である。無線通信部110の無線通信は、制御部100によって制御される。無線通信部110は通信回路であると言える。
 無線通信部110は、携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、当該基地局およびインターネット等のネットワークを通じて、表示装置1とは別の携帯電話機およびウェブサーバ等と通信することが可能である。表示装置1は、他の携帯電話機等と、データ通信、音声通話およびビデオ通話等を行うことが可能である。
 無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号を制御部100に出力する。制御部100は、入力される受信信号に対して各種処理を行って、当該受信信号に含まれる情報を取得する。また、制御部100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。
 表示部120は、表示装置1の前面に位置する表示領域11と、表示パネル130とを備えている。表示部120は、表示領域11に各種情報を表示することが可能である。表示パネル130は、例えば、液晶表示パネルあるいは有機ELパネルである。表示パネル130は、制御部100によって制御されることによって、文字、記号、図形などの各種情報を表示することが可能である。表示パネル130は、機器ケース10内において、表示領域11と対向している。表示パネル130に表示される情報は表示領域11に表示される。
 タッチパネル140は、表示領域11に対する指等の操作子による操作を検出することが可能である。タッチパネル140は、例えば、投影型静電容量方式のタッチパネルである。タッチパネル140は、例えば、表示領域11の裏側に位置する。ユーザが指等の操作子によって表示領域11に対して操作を行ったとき、その操作に応じた電気信号をタッチパネル140は制御部100に入力することが可能である。制御部100は、タッチパネル140からの電気信号(出力信号)に基づいて、表示領域11に対して行われた操作の内容を特定することが可能である。そして制御部100は、特定した操作内容に応じた処理を行うことが可能である。
 操作ボタン群18の各操作ボタン15~17は、ユーザによって操作されると、操作されたことを示す操作信号を制御部100に出力することが可能である。これにより、制御部100は、各操作ボタン15~17について、操作されたか否かを判断することができる。操作信号が入力された制御部100が他の構成要素を制御することによって、表示装置1では、操作された操作ボタンに割り当てられている機能が実行される。
 マイク180は、表示装置1の外部から入力される音を電気的な音信号に変換して制御部100に出力することが可能である。表示装置1の外部からの音は、マイク穴14から表示装置1の内部に取り込まれてマイク180に入力される。
 スピーカ170は、例えばダイナミックスピーカである。スピーカ170は、制御部100からの電気的な音信号を音に変換して出力することが可能である。スピーカ170から出力される音は、スピーカ穴13から外部に出力される。ユーザは、スピーカ穴13から出力される音を、表示装置1から離れた場所でも聞こえることが可能である。
 レシーバ160は受話音を出力することが可能である。レシーバ160は例えばダイナミックスピーカである。レシーバ160は、制御部100からの電気的な音信号を音に変換して出力することが可能である。レシーバ160から出力される音はレシーバ穴12から外部に出力される。レシーバ穴12から出力される音の音量は、スピーカ穴13から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴12から出力される音を、当該レシーバ穴12に耳を近づけることによって聞くことができる。なお、レシーバ160の代りに、機器ケース10の前面部分を振動させる、圧電振動素子等の振動素子を設けてもよい。この場合には、音は、当該前面部分の振動によりユーザに伝達される。
 第1カメラ190は、レンズ191およびイメージセンサなどを備えている。第2カメラ200は、レンズ201およびイメージセンサなどを備えている。第1カメラ190および第2カメラ200のそれぞれは、制御部100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成して制御部100に出力することが可能である。
 第1カメラ190のレンズ191は、機器ケース10の前面1aから視認可能となっている。従って、第1カメラ190は、表示装置1の前面側(表示領域11側)に存在する被写体を撮影することが可能である。第1カメラ190はインカメラと呼ばれる。一方で、第2カメラ200のレンズ201は、機器ケース10の背面1bから視認可能となっている。従って、第2カメラ200は、表示装置1の背面側に存在する被写体を撮影することが可能である。第2カメラ200はアウトカメラと呼ばれる。
 加速度センサ150は、表示装置1の加速度を検出することが可能である。加速度センサ150は例えば3軸加速度センサである。加速度センサ150は、X軸方向、Y軸方向およびZ軸方向の表示装置1の加速度を検出することが可能である。加速度センサ150のX軸方向、Y軸方向およびZ軸方向は、例えば、表示装置1の長手方向、短手方向および厚み方向にそれぞれ設定される。
 電池210は表示装置1の電源を出力することが可能である。電池210は例えば充電式の電池である。電池210から出力される電源は、表示装置1が備える制御部100および無線通信部110などの各種構成に対して供給される。
 また表示装置1は、加速度センサ150以外のセンサを備えてもよい。例えば、表示装置1は、地磁気センサ、ジャイロセンサ、気圧センサ、温度センサ、近接センサおよび照度センサの少なくとも1つを備えてもよい。
 表示装置1の技術について、図1~図3を参照しつつ、図4~図6を用いて説明する。
 図4および図5は、視認性向上のための表示装置1の動作の一例を説明するフローチャートであり図6は、当該動作を模式的に示す図である。
 制御部100は、表示装置1が揺れなどにより、空間的な位置が移動した際に、表示装置1の移動に対応して、表示部120に表示されている画像を移動させる補正モードがONになっているかどうかを判断する。なお、補正モードは、例えば表示装置1のメニュー画面において、ユーザが補正モードを設定する操作が行われることによりONまたOFFに設定される。
 図4に示すように、制御部100は、ステップS401において表示装置1の補正モードがONになっているか否かを確認し、ONになっている場合(Yes)には、ステップS402に移行し、補正モードがONになっていない場合(No)には、ステップS401の動作を繰り返す。
 ステップS402では、制御部100は、加速度センサ150の出力に基づいて表示装置1の移動量、すなわち画像の移動量を算出する。ステップS402における画像移動量算出動作について、図5を用いて説明する。
 制御部100は、補正モードがONとなった場合、加速度センサ150をONとする(ステップS501)。次に、制御部100は、加速度センサ150の出力に基づいて、表示部120の表示領域11に表示されている画像の移動量である画像移動量を算出する(ステップS502)。
 ここで、図4の説明に戻り、制御部100は、算出した画像移動量に基づいて、表示領域11に表示されている画像を移動させる(ステップS403)。この画像を移動させる方向は、画像が表示画面上で固定されているように見える方向となる方向である。例えば、表示装置1がX軸正方向に移動した場合は、移動を打ち消す方向、すなわちX軸負方向に移動させる。なお制御部100は、上述のステップ403の後に、画像の表示位置を動作モードがOFF時の位置(標準表示位置)に少し近づくように表示部120に表示させてもよい。これにより、画像の表示位置が標準表示位置から大きく離れる可能性を低減することができる。
 その後、制御部100は、補正モードがOFFされたか否かを判断し、OFFされている場合(Yes)には動作を終了し、OFFされていない場合(No)にはステップS402以下の動作を繰り返す(ステップS404)。なお、制御部100は、上述のステップ404の後に、画像の表示位置を標準表示位置戻すように表示させる。
 以上、図4および図5を用いて説明した表示装置1の動作の一例について図6を参照して説明する。なお、図6においてはXYZ直交座標系を用いて方向を表しており、X軸方向、Y軸方向およびZ軸方向は、それぞれ表示装置1の短手方向、長手方向および厚み方向に対応する。図6に示される例では、表示装置1が、加速度センサ150のX軸正方向に移動量Lだけ移動したものとし、表示装置1の表示領域11の画面が加速度センサ150のZ軸方向を向いているものとする。
 この場合、制御部100は、移動中の表示装置1の加速度を加速度センサ150の出力値から検出し、検出した加速度に基づいて表示装置1の移動量Lを算出する。この移動量Lは、例えば、制御部100が、加速度を時間で2回積分することにより求められる。
 次に、制御部100は、検出された移動量Lに基づいて、表示領域11に表示装置1の移動前に表示されていた画像、ここでは表示画面301全体を表示領域11内で移動させる。図6では、上側に移動前の表示装置1を示し、下側に移動後の表示装置1を示している。図6に示される例では、表示装置1が図面上で右側(X軸正方向)に移動しているので、表示画面301を表示領域11内で左側(X軸負方向)に、検出された移動量Lだけ移動させる。
 なお、図6においては、動作を判りやすくするために、表示装置1が移動する前の表示画面301上にハート形の画像3011を実線で示している。補正モードがONになっている場合、表示装置1が図面上で右側(X軸正方向)に移動すると、表示画面301が表示領域11内で左側(X軸負方向)に、検出された移動量Lだけ移動することになるので、表示装置1が移動した後も、画像3011の中心線CLは移動せず、画像3011は表示画面301上で静止したように見え、表示装置1の視認性が向上する。なお、表示画面301が表示領域11内で左側に移動量Lだけ移動することで、表示領域11の右端には余白を示す領域NRが発生する。領域NRには、表示画面301とは異なる画像が表示され、例えば、所定の単色で塗りつぶされた画像が領域NRの全体に表示される。
 一方、補正モードがONになっていない場合は、表示装置1が図面上で右側(X軸正方向)に移動量Lだけ移動すると、表示画面301も右側に移動量Lだけ移動する。その結果、画像3011も右側に移動量Lだけ移動し、破線で示す画像3012の位置となり、表示装置1の視認性は低下する。
 例えば、ユーザが乗り物中で表示装置1を手に保持して使用している場合は、乗り物の揺れに伴いユーザも揺れる。この場合、ユーザの頭(目)と、表示装置1を握っている手とは完全に同期した動きとはならず、補正モードがONでない場合は、画像が揺れて視認性が低下する。しかし、補正モードがONであれば、表示装置1の表示画面301上で画像が固定されたように見え、例えば、文字などの読み取りが容易となり、視認性が向上する。
 加齢および病気などの事情により表示装置1を持つ手が震えるユーザにとって、手が震えても、表示装置1の表示画面上の画像が固定されたように見えるので、視認性が向上する。
 なお、表示画面301を検出された移動量Lに合わせて移動させるには、例えば、移動前の表示画面301の中央部CP、すなわち表示画面301のX軸方向およびY軸方向における中央部を原点とし、当該原点をX軸方向およびY軸方向に移動させるように画像データ位置を変更するようにすればよい。
 なお、上記では、表示画面301全体を移動させるものとしたが、表示画面301上の特定の画像だけを移動させるようにしてもよい。
 なお、表示装置1においては所定のフレームレートで表示領域11に画像が表示されるので、表示装置1の移動量はフレームレートで規定される1フレーム期間中に複数回算出することとし、算出した複数の移動量の平均値を採って1フレーム期間での移動量とすることができる。例えばフレームレートが60fps(frames per second)であればフレーム期間の長さは60分の1秒となり、約17msecとなる。この間に加速度センサ150において、例えば5msecごとに表示装置1に加わる加速度を測定すれば、3回の測定が可能となる。なお、所定のフレームレートで表示領域11に表示される画像は、動画であってもよいし、静止画であってもよい。
 以上の説明においては、加速度センサの出力に基づいて表示装置1の移動量を算出する構成を示したが、カメラにより撮像された画像の移動量に基づいて表示装置1の移動量を算出してもよい。
 すなわち、制御部100は、第1カメラ(アウトカメラ)190で撮像した撮像画像中において、基準画像を特定する。この基準画像は、例えば、撮像画像の中で最も輝度が高い画像を検出して基準画像に設定する。なお、基準画像の設定方法としては、撮像画像の中で最も輝度が高いものに限定されるものではなく、撮像画像の中における人物の画像、所定の形を有している画像、所定の色を有している画像などに設定してもよい。また、例えば、コントラストなどの所定の画像データ値を有する画像を基準画像としてもよい。そして、制御部100は、撮像画像中における、基準画像の所定の座標位置を特定し、第1の座標とする。
 次に、制御部100は、表示装置1が移動量Lだけ移動した後に、アウトカメラ190により撮像された撮像画像中において、基準画像を特定し、当該基準画像中における所定の座標位置を特定し、第2の座標とする。
 次に、制御部100は、撮像画像中における、第1の座標から第2の座標への変位値から、基準画像の移動量を求め、表示装置1の移動量Lを算出する。
 なお、上記では第1カメラ(アウトカメラ)190で撮像した撮像画像を用いて表示装置1の移動量Lを算出する例を示したが、第2カメラ(インカメラ)200で撮像した撮像画像を用いて表示装置1の移動量Lを算出してもよい。
 第1カメラ190を用いる場合も第2カメラ200用いる場合も、撮像画像は動画に限定されず、静止画を連続して撮像して画像の移動量を算出するようにしてもよい。
 <実施の形態>
 以下、実施の形態の一例について、図7~図12を用いて説明する。自動車、バイク、列車などの車両は、段差に乗り上げたような場合には上下方向(地面に垂直な方向)の揺れを繰り返し、車体の揺れが収まる(減衰する)までに時間を要する。表示装置1が車両内にある場合、車体の揺れに伴って表示装置1も揺れるので、表示装置1の視認性が低下する。
 ここで、この振動の周波数と減衰率は車重、緩衝スプリングおよびダンパーによって決まる。換言すれば、車重、緩衝スプリングおよびダンパーの特性が変わらなければ、周波数と減衰率は同じである。従って、振動パターンを記憶しておけば、次に同じ振動が発生した場合に、記憶した振動パターンに基づいて、表示装置1の移動量が予測可能となる。
 すなわち、制御部100は、補正モードがONとなった場合、加速度センサ150をONし、ONした加速度センサ150は所定の間隔で加速度の測定を繰り返す。従って、車両内にある表示装置1の補正モードをONにしている場合であって、車両が段差に乗り上げたような場合、加速度センサ150は、所定の間隔、例えば5msecごとに表示装置1に加わる加速度を測定して制御部100に向けて出力する。
 制御部100では、加速度センサ150の出力値から加速度を検出し、加速度を時間で2回積分することにより表示装置1の移動量を算出する。この一連の処理を繰り返すことで、車体の揺れが収まるまでの振動パターンを取得することができる。
 図7には、このようにして得られた振動パターンの一例を示している。図7は、車体の揺れが収まるまでの振動パターンを示す波形図であり、横軸に時間を示し、縦軸に表示装置1の移動量を示している。
 図7に示すように、振動が始まって収まるまでに数周期の振動を繰り返し、時間と共に徐々に減衰する。図7の例では、振動が収まるまでにほぼ1秒を有し、3周期の振動を繰り返すので周波数3Hzの振動パターンであると言える。
 図7では、最大ピーク値が異なる2種類の振動パターンを示しているが、これは車両が乗り上げた段差の高さによって最大ピーク値(振動の大きさ)が異なるものの、周波数および減衰率などの振動パターンは同じであることを示している。従って、図7に示すような振動パターンのデータを記憶しておけば、次に、同じ振動パターンの振動が発生した場合に、記憶した振動パターンに基づいて、未来に生じる表示装置1の移動量を予測できる。
 図8は、表示装置1の移動量の予測方法を概念的に説明する図である。図8においては、図7と同様の振動パターンを示しているが、これは記憶した振動パターンであり、以下においては基本パターンと呼称する。基本パターンを決定した後、再び車両が段差に乗り上げて上下方向への車体の揺れが始まったような場合、加速度センサ150は5msecごとに表示装置1に加わる加速度を測定して制御部100に出力し、制御部100では加速度に基づいて表示装置1の移動量を算出し、新たな振動パターンを取得する動作に入る。以下では、この新たな振動パターンを測定中パターンと呼称する。
 制御部100では測定中パターンと基本パターンとを比較し、基本パターンと同じタイミングで基本パターンと同じ移動量が得られた場合は、基本パターンと同じ振動パターンの振動が発生したものと判定する。
 例えば、図8に示すように、基本パターンの第1の波形のピークにおけるポイントP1の移動量がL1である場合、制御部100が測定中パターンの中に、同じタイミングで同じ移動量を算出すると、基本パターンと同じ振動パターンの振動が発生したものと判定する。なお、「同じ」とは値が完全同一に限定されるものではなく、数%の範囲で異なる値も含むものとする。
 ここで、例えば液晶表示装置のフレームレートは60分の1秒であり、基本パターンの第1の波形のピークにおけるポイントP1から60分の1秒後には、移動量はポイントP2での移動量L2となることが予測される。この移動量L2を予測移動量とし、予測移動量に基づいて60分の1秒後に表示画面301を移動させることで、表示装置1の揺れから表示画面301の移動までのタイムラグを少なくできる。
 すなわち、表示装置1の揺れの加速度を検出して制御部100が表示装置1の移動量を算出するまでには、僅かではあるが時間差が生じるので、表示装置1の揺れから表示画面301の移動までに僅かなタイムラグが生じるが、上述したように基本パターンを用いて60分の1秒後の移動量L2を予測しておくことで、表示装置1の揺れから表示画面301の移動までの間のタイムラグを少なくでき、表示装置1のユーザがタイムラグに起因する違和感を覚えることを軽減できる。
 なお、上記のように基本パターンの第1の波形のピークにおけるポイントP1に対応する測定中パターンのピークポイントを特定するには、ピークポイントを含めて加速度の測定を3回行えばよい。すなわち、加速度の測定を3回行い、3点での移動量の時間変化が判れば、ピークに向かって変化しているのか、ピークから離れるように変化しているのか、ピークを含んで変化しているのかが判る。加速度センサ150が5msecごとに表示装置1に加わる加速度を測定しているのであれば、60分の1秒の間に3回の測定が可能であり、測定中パターンのピークポイントの特定が可能となる。
 なお、上記では基本パターンの第1の波形のピークを用いて基本パターンと測定中パターンとの比較を行ったが、比較対象はこれに限定されるものではなく、振動周期が短い振動パターンであれば、基本パターンの第2の波形のピーク、第3の波形のピークを用いてもよく、また、波形のピークに限定されるものでもない。
 <制御部内の機能ブロック>
 図9は、CPU101およびDSP102が記憶部103内の制御プログラム103aを実行することによって形成される一部の機能ブロックの一例を示す図である。
 図9に示されるように、制御部100は、機能ブロックとして、移動量算出部300、減衰波形判定部400、基本パターン決定部500、移動量予測部600および表示制御部700を備えている。移動量算出部300、減衰波形判定部400、基本パターン決定部500、移動量予測部600および表示制御部700の少なくとも1つは、その機能の実行にソフトウェアが不要なハードウェア回路で実現されてもよい。
 移動量算出部300は、加速度センサ150の出力値から加速度を検出し、加速度を時間で2回積分することにより表示装置1の移動量を算出する。
 減衰波形判定部400は、移動量算出部300で算出した表示装置1の移動量を時系列に並べることで、減衰する波形である減衰波形が得られているかを判定する。
 基本パターン決定部500は、減衰波形判定部400で減衰波形が得られていると判定された場合には、当該波形を基本パターンとして決定し、例えば、記憶部103に保存する。
 移動量予測部600は、基本パターンと新たな振動パターンである測定中パターンとを比較し、同じタイミングで同じ移動量が得られた場合は基本パターンと同じ振動パターンの振動が発生したものと判定し、基本パターンを用いて未来に生じる表示装置1の移動量を予測する。
 表示制御部700は、移動量予測部600で予測した未来に生じる表示装置1の移動量に基づいて、表示画面301を移動させるように表示制御を行う。
 <制御部による移動量の予測方法>
 次に、図9を参照しつつ図10に示すフローチャートを用いて、制御部100による移動量の予測方法の一例を説明する。
 制御部100は、補正モードがONとなった場合、加速度センサ150をONし、ONした加速度センサ150に所定の間隔で加速度の測定を繰り返させる(ステップS1)。
 制御部100の移動量算出部300は、加速度センサ150の出力値から加速度を検出し、加速度を時間で2回積分することにより表示装置1の移動量を算出する(ステップS2)。
 制御部100の減衰波形判定部400では、予め定めた所定時間に渡ってステップS1とステップS2の処理を繰り返すことで得られた表示装置1の移動量を時系列に並べ、減衰波形が得られているか否かを判定する(ステップS3)。なお、減衰波形ではなく、周期的な波形が連続するような場合は、車両が波状路のような路面を走行しているものとして、減衰波形は得られていないものと判定し、ステップS1以下の処理を繰り返す。
 一方、減衰波形判定部400で減衰波形が得られていると判定した場合は、基本パターン決定部500で当該波形を基本パターンとして決定する(ステップS4)。なお、基本パターン決定部500では、過去に決定した基本パターンがある場合には、新たに決定した基本パターンと比較して、異なる場合には、新たに決定した基本パターンに更新する。
 基本パターン決定部500で基本パターンを決定した後も加速度センサ150は5msecごとに表示装置1に加わる加速度を測定して制御部100に出力し、制御部100の移動量算出部300では、加速度に基づいて表示装置1の移動量を算出し、新たな振動パターンである測定中パターンを取得する動作に入る(ステップS5)。
 制御部100の移動量予測部600では、基本パターンと新たな振動パターンである測定中パターンとを比較し、同じタイミングで同じ移動量が得られた場合は基本パターンと同じ振動パターンの振動が発生したものと判定する(ステップS6)。なお、この時点では測定中パターンは完全なパターンとしては取得されておらず、加速度が検出されるごとに逐次に算出される表示装置1の移動量と基本パターン中の移動量とを比較しているに過ぎないが、上記では、便宜的に基本パターンと測定中パターンとを比較するとしている。
 より具体的には、基本パターンの第1の波形のピークにおけるポイントと同じタイミングで、測定中パターンから同じ移動量が得られた場合は基本パターンと同じ振動パターンの振動が発生したものと判定する。すなわち、ここで判定する振動は、車両が段差に乗り上げたような大きな振幅を有する振動であり、基本パターンの第1の波形のピークと同様の移動量が得られたと言うことは、基本パターンと同様の振動であるものと見なすことができる。なお、基本パターンとは異なる振動パターンの振動が発生したものと判定された場合、ステップS3以下の動作を繰り返す。
 移動量予測部600は、基本パターンと同じ振動パターンの振動が発生したものと判定した場合、基本パターンを用いて未来に生じる表示装置1の移動量を予測する(ステップS7)。
 より具体的には、基本パターンの第1の波形のピークにおけるポイントから60分の1秒後の移動量を基本パターンから予測する。
 制御部100の表示制御部700では、表示画面301を移動量予測部600で予測した予測移動量と同じ移動量で、表示装置1の移動を打ち消す方向に移動させるように表示制御する(ステップS8)。この表示制御は、表示画面301の移動前の画像データに移動量予測部600で予測した予測移動量に基づいて表示位置のデータを変更するだけの制御としてもよいし、予測移動量に基づいた表示位置のデータを含めて新たな画像データを生成する制御としてもよい。前者の制御は、画像データの時間変化が比較的少ない文章画像および静止画像の移動に適しており、後者の制御は、画像データの時間変化が比較的多い動画像の移動に適している。
 図3においては、制御部100が1つのCPU101を備える構成を示したが、制御部100が複数のCPUを備えてもよい。この場合、制御部100は、比較的複雑は処理を行うメインCPUと、比較的簡単な処理を行うサブCPUとを備えてもよい。
 図11は、制御部100がメインCPU101mと、サブCPU101sを備えた構成の一例を模式的に示したブロック図である。
 このような構成においては、メインCPU101mが表示パネル130に対して表示画面301の画像データを送信し、サブCPU101sにおいて、上述したステップS1~S8の処理を実行することで、表示画面301の画像データに移動量予測部600で予測した予測移動量に基づいて表示位置の変更を加えることで表示画面301を移動させる。このような構成を採ることで、サブCPU101sはステップS1~S8の処理を実行する機能を有するだけで済み、装置構成が簡略化される。
 図12も、制御部100がメインCPU101mと、サブCPU101sを備えた構成の一例を模式的に示したブロック図であるが、メインCPU101mが表示パネル130に対して表示画面301の画像データを送信するのではなく、サブCPU101sを介して表示画面301の画像データを送信する。この場合、サブCPU101sは表示画面301の画像データを作成する機能を有し、上述したステップS1~S8の処理を実行することで得られた予測移動量に基づいて画像データに表示位置の変更を加えた画像データを表示パネル130に送信することになる。このような構成を採ることで、サブCPU101sが画像データを生成することになるので、メインCPU101mの処理量を低減することができる。
 なお、図11の構成を採る場合も図12の構成を採る場合も、メインCPU101mでの処理量が削減され、メインCPU101mの消費電力が少なくなる傾向がある。
 また、メインCPU101mとサブCPU101sとで並列処理が可能となり、加速度センサ150で加速度を検出してから表示画面301の移動量を算出するまでの時間を短縮できる。また、メインCPUでステップS1~S8の処理を実行する場合は、メインCPUでの他の処理のための待ち時間が発生する場合があるが、サブCPU101sを使用する場合は、可能性を排除して加速度を検出してから表示画面301の移動量を算出するまでの時間を短縮できる。
 <他の実施の形態の一例>
 以上説明した実施の形態においては、表示装置として携帯電子機器に使用される例を示したが、表示装置は携帯性を有するものに限定されず、列車、自動車等の車両の車内に固定される表示装置などに使用してもよい。その場合、実施の形態は当該表示装置を備える車両となる。
 この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。

Claims (11)

  1.  表示装置であって、
     表示部と、
     前記表示装置の振動を検出する検出部と、
     前記表示装置の振動により前記表示装置が移動した移動量を算出する移動量算出部と、
     前記表示装置の移動量の時間変化で規定される振動パターンが予め定めた条件を満たす場合に、前記振動パターンを基本パターンとして記憶する記憶部と、
     前記表示装置に新たな振動が加わった場合に、前記基本パターンを用いて前記表示装置の移動量を予測する移動量予測部と、
     前記移動量予測部で予測された予測移動量に基づいて前記表示部に表示される画像の表示位置を移動させて表示する表示制御部と、を備える表示装置。
  2.  前記予め定めた条件を満たす場合は、
     振動周期および減衰率が同じである場合を含む、請求項1記載の表示装置。
  3.  前記表示制御部は、
     前記表示装置の移動を打ち消す方向に前記予測移動量と同じ移動量で前記画像の表示位置を移動させて表示する、請求項1記載の表示装置。
  4.  前記移動量予測部は、
     前記新たな振動による前記表示装置の移動量と前記基本パターンとを比較し、前記新たな振動により、前記基本パターンと同じタイミングで同じ移動量が得られた場合は前記基本パターンと同じ振動パターンの振動が発生したものと判定し、前記基本パターンにおける所定時間先の前記表示装置の移動量を前記予測移動量とする、請求項1記載の表示装置。
  5.  前記移動量予測部は、
     前記新たな振動により、前記基本パターンの第1の波形のピークと同じタイミングで同じ移動量が得られた場合は前記基本パターンと同じ振動パターンの振動が発生したものと判定する、請求項3記載の表示装置。
  6.  前記検出部は、
     前記表示装置の加速度を検出する加速度センサである、請求項1記載の表示装置。
  7.  前記表示装置の振動は、
     車両の移動に伴う振動である、請求項1記載の表示装置。
  8.  前記表示装置の振動は、
     前記表示装置を保持する人間の手の震えに伴う振動である、請求項1記載の表示装置。
  9.  表示装置の表示部への表示方法であって、
     前記表示装置の振動により前記表示装置が移動した移動量を算出し、
     前記表示装置の移動量の時間変化で規定される振動パターンが予め定めた条件を満たす場合に、前記振動パターンを基本パターンとして記憶し、
     前記表示装置に新たな振動が加わった場合に、前記基本パターンを用いて前記表示装置の移動量を予測し、
     予測された移動量に基づいて前記表示部に表示される画像の表示位置を移動させて表示する、表示方法。
  10.  表示装置の表示部の表示制御を行う制御装置であって、
     前記表示装置の振動により前記表示装置が移動した移動量を算出する移動量算出処理と、
     前記表示装置の移動量の時間変化で規定される振動パターンが予め定めた条件を満たす場合に、前記振動パターンを基本パターンとして記憶する記憶処理と、
     前記表示装置に新たな振動が加わった場合に、前記基本パターンを用いて前記表示装置の移動量を予測する移動量予測処理と、
     前記移動量予測処理で予測された予測移動量に基づいて前記表示部に表示される画像の表示位置を移動させて表示する表示処理と、を行う制御装置。
  11.  請求項1記載の表示装置を備える車両。
PCT/JP2018/003500 2017-02-21 2018-02-02 表示装置、表示方法、制御装置および車両 WO2018155127A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-029775 2017-02-21
JP2017029775A JP2018136400A (ja) 2017-02-21 2017-02-21 表示装置、表示方法、制御装置および車両

Publications (1)

Publication Number Publication Date
WO2018155127A1 true WO2018155127A1 (ja) 2018-08-30

Family

ID=63252697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003500 WO2018155127A1 (ja) 2017-02-21 2018-02-02 表示装置、表示方法、制御装置および車両

Country Status (2)

Country Link
JP (1) JP2018136400A (ja)
WO (1) WO2018155127A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075825A1 (ja) * 2018-10-12 2020-04-16 洋紀 山本 動き推定装置、電子機器、制御プログラム及び動き推定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123242A (ja) * 2000-10-17 2002-04-26 Ricoh Co Ltd 画像表示装置
JP2006113272A (ja) * 2004-10-14 2006-04-27 Matsushita Electric Ind Co Ltd 映像投射装置
JP2008139600A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 表示装置
JP2011257503A (ja) * 2010-06-07 2011-12-22 Sony Corp 画像安定化装置、画像安定化方法、及びプログラム
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2013010223A (ja) * 2011-06-28 2013-01-17 Ricoh Co Ltd 画像形成装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140223A (ja) * 2011-12-28 2013-07-18 Sharp Corp 情報表示装置、情報表示装置の制御方法、制御プログラム、制御プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6316607B2 (ja) * 2014-01-30 2018-04-25 京セラ株式会社 表示装置及び表示方法
JP2015166816A (ja) * 2014-03-04 2015-09-24 富士通株式会社 表示装置,表示制御プログラム及び表示制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002123242A (ja) * 2000-10-17 2002-04-26 Ricoh Co Ltd 画像表示装置
JP2006113272A (ja) * 2004-10-14 2006-04-27 Matsushita Electric Ind Co Ltd 映像投射装置
JP2008139600A (ja) * 2006-12-01 2008-06-19 Toshiba Corp 表示装置
JP2011257503A (ja) * 2010-06-07 2011-12-22 Sony Corp 画像安定化装置、画像安定化方法、及びプログラム
JP2012019452A (ja) * 2010-07-09 2012-01-26 Mitsubishi Electric Corp 画像処理装置及び画像処理方法
JP2013010223A (ja) * 2011-06-28 2013-01-17 Ricoh Co Ltd 画像形成装置

Also Published As

Publication number Publication date
JP2018136400A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
US8179449B2 (en) Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
KR101477442B1 (ko) 모바일 디바이스에서 제스처-기반의 사용자 입력 검출을 위한 방법들 및 장치들
EP3062286B1 (en) Optical distortion compensation
US10612918B2 (en) Mobile computing device and method for calculating a bending angle
US10359839B2 (en) Performing output control based on user behaviour
JP6316607B2 (ja) 表示装置及び表示方法
WO2020075825A1 (ja) 動き推定装置、電子機器、制御プログラム及び動き推定方法
US9921796B2 (en) Sharing of input information superimposed on images
WO2017005070A1 (zh) 显示控制方法及装置
CN109831817B (zh) 终端控制方法、装置、终端及存储介质
WO2015078189A1 (zh) 一种界面调整方法及移动设备
US10511702B2 (en) Information processing device and information processing method
CN108196701B (zh) 确定姿态的方法、装置及vr设备
WO2018155127A1 (ja) 表示装置、表示方法、制御装置および車両
CN111447562B (zh) 车辆行程轨迹分析方法及装置、计算机存储介质
WO2018155123A1 (ja) 表示装置、表示方法、制御装置および車両
WO2018155128A1 (ja) 表示装置、制御装置および車両
JP6996616B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2018155122A1 (ja) 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法
WO2018155134A1 (ja) 電子機器、車両、制御装置、制御プログラム及び電子機器の動作方法
JP6621167B1 (ja) 動き推定装置、電子機器、制御プログラム及び動き推定方法
JP2018101149A (ja) 表示装置及び表示方法
JPWO2020071284A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN114285934B (zh) 一种振动调节方法、电子设备及计算机可读存储介质
JP7129897B2 (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18757348

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18757348

Country of ref document: EP

Kind code of ref document: A1