WO2018155122A1 - 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法 - Google Patents

電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法 Download PDF

Info

Publication number
WO2018155122A1
WO2018155122A1 PCT/JP2018/003380 JP2018003380W WO2018155122A1 WO 2018155122 A1 WO2018155122 A1 WO 2018155122A1 JP 2018003380 W JP2018003380 W JP 2018003380W WO 2018155122 A1 WO2018155122 A1 WO 2018155122A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
image
display
control
backlight
Prior art date
Application number
PCT/JP2018/003380
Other languages
English (en)
French (fr)
Inventor
堀井 省次
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2018155122A1 publication Critical patent/WO2018155122A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/08Details of timing specific for flat panels, other than clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • G09G2330/022Power management, e.g. power saving in absence of operation, e.g. no data being entered during a predetermined time
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • This disclosure relates to electronic equipment.
  • an electronic device includes a display unit and a control unit that controls the display unit.
  • the display unit includes a display panel having a plurality of pixels and a backlight for irradiating the display panel with light.
  • the control unit controls the position of at least a part of the image displayed on the display unit at a predetermined frame rate based on the movement of the electronic device, thereby controlling the position of the at least part with respect to the earth. Take control.
  • the control unit intermittently lights the backlight so that one lighting time is shorter than a predetermined time that is a reciprocal of the predetermined frame rate.
  • the control device controls the electronic device included in the electronic device including a display unit having a display panel having a plurality of pixels and a backlight that emits light to the display panel. It is a control device.
  • the control device controls the position of the at least part of the image with respect to the earth by controlling the display position of at least a part of the image displayed on the display unit at a predetermined frame rate based on the movement of the electronic device.
  • the control device lights the backlight intermittently so that one lighting time is shorter than a predetermined time that is a reciprocal of the predetermined frame rate.
  • the vehicle is a vehicle including the electronic device described above.
  • control program is a control program for controlling an electronic device including a display unit having a display panel having a plurality of pixels and a backlight for irradiating the display panel with light.
  • the control program controls at least a part of the earth on the electronic device by controlling a display position of at least a part of the image displayed on the display unit at a predetermined frame rate based on the movement of the electronic device.
  • Position control for controlling the position with respect to is performed.
  • the control program causes the electronic device to intermittently turn on the backlight so that one lighting time is shorter than a predetermined time that is a reciprocal of the predetermined frame rate during execution of the position control. .
  • the operation method of the electronic device is an operation method of the electronic device including a display unit having a display panel having a plurality of pixels and a backlight for irradiating the display panel with light.
  • the operation method of the electronic device is a position control that controls the position of the image with respect to the earth by controlling the display position of the image displayed on the display unit at a predetermined frame rate based on the movement of the electronic device. And performing the position control so that the backlight is lit intermittently so that a single lighting time is shorter than a predetermined time that is the reciprocal of the predetermined frame rate.
  • ⁇ Appearance of electronic equipment> 1 and 2 are a perspective view and a rear view showing an example of the external appearance of the electronic apparatus 1.
  • the electronic device 1 includes a plate-like device case 11 that is substantially rectangular in plan view.
  • the device case 11 constitutes the exterior of the electronic device 1.
  • a display area 121 for displaying various information such as characters, symbols, and figures is located on the front surface 11a of the device case 11.
  • a touch panel 130 described later is located on the back side of the display area 121. Accordingly, the user can input various information to the electronic device 1 by operating the display area 121 on the front surface of the electronic device 1 with a finger or the like. Note that the user can also input various types of information to the electronic device 1 by operating the display area 121 with an operator other than a finger, for example, a touch panel pen such as a stylus pen.
  • the receiver hole 12 is located at the upper end of the front surface 11a of the device case 11.
  • a speaker hole 13 is located at the lower end of the front surface 11a.
  • a microphone hole 14 is located on the lower side surface 11 c of the device case 11.
  • a lens 191 included in the first camera 190 described later is visible from the upper end portion of the front surface 11a of the device case 11.
  • a lens 201 included in a second camera 200 described later is visible from the upper end of the back surface 11 b of the device case 11.
  • the electronic device 1 includes an operation button group 140 including a plurality of operation buttons.
  • Each of the plurality of operation buttons is a hardware button.
  • each of the plurality of operation buttons is a push button.
  • at least one operation button included in the operation button group 140 may be a software button displayed in the display area 121.
  • the operation button group 140 includes operation buttons 141, 142, and 143 located at the lower end of the front surface 11 a of the device case 11.
  • the operation button group 140 includes a power button and a volume button (not shown) located on the surface of the device case 11.
  • the operation button 141 is, for example, a back button.
  • the back button is an operation button for switching the display in the display area 121 to the previous display.
  • the operation button 142 is a home button, for example.
  • the home button is an operation button for displaying a home screen in the display area 121.
  • the operation button 143 is, for example, a history button.
  • the history button is an operation button for causing the display area 121 to display a history of applications executed on the electronic device 1. When the user operates the operation button 143, a history of applications executed on the electronic device 1 is displayed in the display area 121.
  • FIG. 3 is a block diagram mainly showing an example of the electrical configuration of the electronic apparatus 1.
  • the electronic device 1 includes a control unit 100, a wireless communication unit 110, a display unit 120, a touch panel 130, an operation button group 140, and an acceleration sensor 150.
  • the electronic device 1 further includes a receiver 160, a speaker 170, a microphone 180, a first camera 190, a second camera 200, and a battery 210. These components included in the electronic device 1 are housed in a device case 11.
  • the control unit 100 can comprehensively manage the operation of the electronic device 1 by controlling other components of the electronic device 1.
  • the control unit 100 can also be said to be a control device.
  • the controller 100 includes at least one processor to provide control and processing capabilities to perform various functions, as described in further detail below.
  • At least one processor is implemented as a single integrated circuit (IC) or as a plurality of communicatively connected integrated circuits (ICs) and / or discrete circuits. May be.
  • the at least one processor can be implemented according to various known techniques.
  • the processor includes one or more circuits or units configured to perform one or more data computation procedures or processes, for example, by executing instructions stored in associated memory.
  • the processor may be firmware (eg, a discrete logic component) configured to perform one or more data computation procedures or processes.
  • the processor may include one or more processors, controllers, microprocessors, microcontrollers, application specific integrated circuits (ASICs), digital signal processors, programmable logic devices, field programmable gate arrays, or the like.
  • ASICs application specific integrated circuits
  • digital signal processors programmable logic devices
  • field programmable gate arrays or the like.
  • the control unit 100 includes a CPU (Central Processing Unit) 101, a DSP (Digital Signal Processor) 102, and a storage unit 103.
  • the storage unit 103 includes a non-transitory recording medium that can be read by the CPU 101 and the DSP 102, such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the ROM included in the storage unit 103 is, for example, a flash ROM (flash memory) that is a nonvolatile memory.
  • the storage unit 103 stores a plurality of control programs 103 a for controlling the electronic device 1.
  • Various functions of the control unit 100 are realized by the CPU 101 and the DSP 102 executing various control programs 103 a in the storage unit 103.
  • control unit 100 may include a plurality of CPUs 101.
  • the control unit 100 may include a main CPU that performs relatively complicated processing and has a high processing capability, and a sub CPU that performs relatively simple processing and has a low processing capability.
  • the control unit 100 may not include the DSP 102 or may include a plurality of DSPs 102.
  • all the functions of the control unit 100 or a part of the functions of the control unit 100 may be realized by a hardware circuit that does not require software to realize the function.
  • the storage unit 103 may include a computer-readable non-transitory recording medium other than the ROM and RAM.
  • the storage unit 103 may include, for example, a small hard disk drive and an SSD (Solid State Drive).
  • the plurality of control programs 103a in the storage unit 103 include various applications (application programs).
  • the storage unit 103 stores, for example, a call application for making a voice call and a video call, a browser for displaying a website, and a mail application for creating, browsing, and transmitting / receiving an e-mail.
  • the storage unit 103 also has a camera application for photographing a subject using the first camera 190 and the second camera 200, and a recorded image display application for displaying still images and moving images recorded in the storage unit 103.
  • a music reproduction control application for performing reproduction control of music data stored in the storage unit 103 is stored.
  • At least one application in the storage unit 103 may be stored in the storage unit 103 in advance. Further, at least one application in the storage unit 103 may be one that the electronic device 1 has downloaded from another device and stored in the storage unit 103.
  • the wireless communication unit 110 has an antenna 111.
  • the wireless communication unit 110 can use the antenna 111 to perform wireless communication using a plurality of types of communication methods, for example. Wireless communication of the wireless communication unit 110 is controlled by the control unit 100.
  • the wireless communication unit 110 can wirelessly communicate with a base station of a mobile phone system.
  • the wireless communication unit 110 can communicate with a mobile phone and a web server other than the electronic device 1 through the base station and a network such as the Internet.
  • the electronic device 1 can perform data communication, voice call, video call, and the like with other mobile phones and the like.
  • wireless communication can be performed using a wireless LAN (Local Area Network) such as the wireless communication unit 110 and WiFi.
  • the wireless communication unit 110 can perform short-range wireless communication.
  • the wireless communication unit 110 can perform wireless communication in conformity with Bluetooth (registered trademark).
  • the wireless communication unit 110 may be capable of performing wireless communication in accordance with at least one of ZigBee (registered trademark) and NFC (Near Field Communication).
  • the wireless communication unit 110 performs various processing such as amplification processing on the signal received by the antenna 111 and outputs the processed received signal to the control unit 100.
  • the control unit 100 performs various processes on the input received signal and acquires information included in the received signal.
  • the control unit 100 outputs a transmission signal including information to the wireless communication unit 110.
  • the wireless communication unit 110 performs various processing such as amplification processing on the input transmission signal, and wirelessly transmits the processed transmission signal from the antenna 111.
  • the display unit 120 includes a display area 121 located on the front surface of the electronic device 1, a display panel 122, and a backlight 123.
  • the display unit 120 can display various information in the display area 121.
  • the display panel 122 is, for example, a liquid crystal display panel and includes a plurality of pixels (also referred to as “pixel portion” or “pixel circuit”).
  • the display panel 122 includes, for example, a liquid crystal, a glass substrate, a polarizing plate, and the like.
  • the display panel 122 faces the display area 121 in the device case 11.
  • the backlight 123 irradiates the display panel 122 with light from the back side of the display panel 122.
  • the backlight 123 includes, for example, at least one LED (light emitting diode).
  • the display panel 122 is controlled by the control unit 100 to control the amount of light transmitted from the backlight 123 in units of pixels. Thereby, the display panel 122 can display various information.
  • a driving method of the display panel 122 for example, an active matrix driving method is adopted.
  • the display unit 120 can display various information such as characters, symbols, and figures.
  • the control unit 100 includes a drive circuit 300 that drives the display panel 122 and a drive circuit 301 that drives the backlight 123.
  • the CPU 101 controls the display panel 122 through the drive circuit 300 and controls the backlight 123 through the drive circuit 301.
  • the drive circuit 300 sequentially drives a plurality of pixels included in the display panel 122 by a raster scan method.
  • the display unit 120 displays an image by a raster scan method.
  • the drive circuit 300 has been described as being included in the control unit 100, the drive circuit 300 may be considered as included in the display unit 120. Similarly, the drive circuit 301 may be considered to be included in the display unit 120.
  • the touch panel 130 can detect an operation with an operator such as a finger on the display area 121.
  • the touch panel 130 is, for example, a projected capacitive touch panel.
  • the touch panel 130 is located on the back side of the display area 121, for example.
  • the control unit 100 can specify the content of an operation performed on the display area 121 based on an electrical signal (output signal) from the touch panel 130.
  • the control part 100 can perform the process according to the specified operation content.
  • an in-cell display panel in which a touch panel is incorporated may be employed.
  • an operation signal indicating that the operation button is operated can be output to the control unit 100.
  • the control part 100 can judge whether the said operation button was operated about each operation button.
  • the control unit 100 to which the operation signal is input controls other components, the electronic device 1 executes a function assigned to the operated operation button.
  • the microphone 180 can convert a sound input from the outside of the electronic device 1 into an electrical sound signal and output it to the control unit 100. Sound from the outside of the electronic device 1 is taken into the electronic device 1 from the microphone hole 14 and input to the microphone 180.
  • the speaker 170 is, for example, a dynamic speaker.
  • the speaker 170 can convert an electrical sound signal from the control unit 100 into a sound and output the sound. Sound output from the speaker 170 is output from the speaker hole 13 to the outside. The user can hear the sound output from the speaker hole 13 even at a location away from the electronic device 1.
  • the receiver 160 can output a received sound.
  • the receiver 160 is a dynamic speaker, for example.
  • the receiver 160 can convert an electrical sound signal from the control unit 100 into a sound and output the sound.
  • the sound output from the receiver 160 is output from the receiver hole 12 to the outside.
  • the volume of the sound output from the receiver hole 12 is smaller than the volume of the sound output from the speaker hole 13.
  • the user can hear the sound output from the receiver hole 12 by bringing his ear close to the receiver hole 12.
  • a vibration element such as a piezoelectric vibration element that vibrates the front surface portion of the device case 11 may be provided. In this case, the sound is transmitted to the user by the vibration of the front portion.
  • the first camera 190 includes a lens 191 and an image sensor.
  • the second camera 200 includes a lens 201 and an image sensor. Each of the first camera 190 and the second camera 200 can photograph a subject based on control by the control unit 100, generate a still image or a moving image indicating the photographed subject, and output the still image or moving image to the control unit 100. .
  • the lens 191 of the first camera 190 is visible from the front surface 11 a of the device case 11. Therefore, the first camera 190 can photograph a subject existing on the front side (display area 121 side) of the electronic apparatus 1.
  • the first camera 190 is called an in camera.
  • the lens 201 of the second camera 200 is visible from the back surface 11 b of the device case 11. Therefore, the second camera 200 can capture a subject existing on the back side of the electronic device 1.
  • the second camera 200 is called an out camera.
  • the acceleration sensor 150 can detect the acceleration of the electronic device 1.
  • the acceleration sensor 150 is, for example, a three-axis acceleration sensor.
  • the acceleration sensor 150 can detect the acceleration of the electronic device 1 in the x-axis direction, the y-axis direction, and the z-axis direction.
  • the x-axis direction, the y-axis direction, and the z-axis direction are set, for example, in the short direction, the long direction, and the thickness direction of the electronic device 1, respectively.
  • the battery 210 can output the power of the electronic device 1.
  • the battery 210 is, for example, a rechargeable battery.
  • the power output from the battery 210 is supplied to various components such as the control unit 100 and the wireless communication unit 110 included in the electronic device 1.
  • the electronic apparatus 1 may not include the acceleration sensor 150.
  • the electronic device 1 may be connected to an acceleration sensor separate from the electronic device 1 wirelessly or by wire.
  • the electronic device 1 may include a sensor other than the acceleration sensor 150.
  • the electronic device 1 may include at least one of an atmospheric pressure sensor, a geomagnetic sensor, a temperature sensor, a proximity sensor, an illuminance sensor, and a gyro sensor.
  • the electronic device 1 may be connected to a sensor other than the acceleration sensor 150 other than the acceleration sensor 150 in a wireless or wired manner.
  • the control unit 100 performs image position control for controlling the position of the image with respect to the earth by controlling the display position of the image displayed on the display unit 120 at a predetermined frame rate based on the movement of the electronic device 1.
  • the control unit 100 controls the display position of the image displayed on the display unit 120 at a predetermined frame rate based on the movement of the device case 11 of the electronic device 1, thereby positioning the image with respect to the earth.
  • image position control for controlling the. It can be said that the display position of the image is the position of the image in the display area 121.
  • the image displayed on the display unit 120 at a predetermined frame rate may be a moving image or a still image.
  • the predetermined frame rate is, for example, 60 fps.
  • the predetermined frame rate may be other than this.
  • FIG. 5 is a diagram for explaining the outline of the image position control.
  • the electronic apparatus 1 may be described using the XYZ orthogonal coordinate system shown in FIG.
  • the X-axis direction, the Y-axis direction, and the Z-axis direction are respectively set in the short side direction, the long side direction, and the thickness direction of the electronic device 1.
  • FIG. 5 shows a state in which the electronic device 1 moves by a movement amount L in the + X axis direction from a certain frame period T1 to the next frame period T2.
  • the frame period is a period during which one frame image is displayed. For example, if the frame rate is 60 fps, the length of the frame period is 1/60 second.
  • the upper side of FIG. 5 shows the electronic device 1 in the frame period T1
  • the lower side of FIG. 5 shows the electronic device 1 in the frame period T2.
  • an image (still image) 400 including a character string 401 “ABC” is displayed in the display area 121 of the electronic device 1.
  • FIG. 5 shows a state in which the electronic device 1 moves by a movement amount L in the + X axis direction from a certain frame period T1 to the next frame period T2.
  • the frame period is a period during which one frame image is displayed. For example, if the frame rate is 60 fps, the length of the frame period is 1/60 second.
  • the center position 501 of the image 400 displayed in the frame period T1 and the center position 502 of the image 400 displayed in the frame period T2 are indicated by crosses. Since the display unit 120 performs hold-type display, it can be said that the image 400 displayed on the display unit 120 does not change in one frame period. That is, it can be said that the display position of the image 400 does not change in one frame period.
  • the size of the image 400 matches the size of the display area 121.
  • the image 400 is displayed in the display area 121 so that the center position of the display area 121 matches the center position 501 of the image 400.
  • the image position control by the control unit 100 causes In the next frame period T2, the display position of the image 400 in the display area 121 moves by a movement amount L along the ⁇ X axis direction from the display position in the frame period T1. Therefore, as shown in the lower side of FIG. 5, the center position 502 of the image 400 in the frame period T2 is equal to the center position 501 of the image 400 in the frame period T1 by the movement amount L along the ⁇ X axis direction. It's off.
  • the user's hand may be shaken to move the position of the electronic device 1 with respect to the earth.
  • the position (relative position) of the image displayed by the electronic device 1 is less likely to move. Therefore, the user can easily view the image displayed on the electronic device 1.
  • the position of the target object (character string 401 in FIG. 5) included in the image displayed on the electronic device 1 with respect to the earth is difficult to move, the visibility of the target object is increased. improves.
  • the display area 121 and the image 400 have the same size and the display position of the entire image 400 is moved by the image position control, as shown in the lower side of FIG.
  • only a part of the image 400 is displayed in the display area 121, and an area 121 a in which the image 400 is not displayed in the display area 121 is generated.
  • a predetermined image different from the image 400 may be displayed in the area 121a.
  • an image in which the color of each pixel is a predetermined color (for example, black) may be displayed in the region 121a.
  • the size of the image 400 may be smaller than the size of the display area 121.
  • the operation mode of the electronic device 1 includes a control mode in which image position control is performed and a normal mode in which image position control is not performed.
  • the user can set the operation mode of the electronic device 1 to the electronic device 1 by operating the display area 121 of the electronic device 1, for example.
  • the image position control is executed when the electronic device 1 is moving, and is not executed when the electronic device 1 is not moving. Accordingly, even in the control mode, image position control is not executed when the electronic device 1 is not moving.
  • the frame period of interest in the description of the electronic device 1 may be referred to as the “target frame period”.
  • An image to be displayed in the target frame period may be referred to as a “target image”.
  • an image display position when image position control is not executed may be referred to as a “standard display position”.
  • the standard display position for example, an image display position in which the center position of the display area 121 and the center position of the image coincide with each other, such as the display position of the image 400 in the upper electronic device 1 in FIG. Is done.
  • the image display position is, for example, the standard display position.
  • FIG. 6 is a flowchart showing an example of the operation of the electronic device 1 when the electronic device 1 operating in the control mode displays an image during the target frame period.
  • the electronic device 1 executes the process shown in FIG. 6 for each frame period.
  • step s ⁇ b> 1 the control unit 100 determines whether or not the electronic device 1 is moving based on the output signal of the acceleration sensor 150. If it is determined in step s1 that the electronic device 1 has not moved, in step s2, the control unit 100 causes the display unit 120 to display the target image at the standard display position. In step s2, the CPU 101 controls the drive circuit 300 that drives the display panel 122, so that the target image is displayed at the standard display position.
  • control unit 100 specifies the movement of the electronic device 1 based on the output signal of the acceleration sensor 150. Specifically, based on the output signal of acceleration sensor 150, control unit 100 specifies the movement amount and movement direction in the XY plane for electronic device 1 over a predetermined period. In other words, the control unit 100 specifies the movement amount and movement direction at a predetermined time on a plane parallel to the display area 121 for the electronic device 1 based on the output signal of the acceleration sensor 150. This predetermined period may be referred to as an “observation period”.
  • Step s3 is executed by the CPU 101, for example.
  • the frequency when the user's hand shakes due to aging or illness is often 10 Hz or less.
  • the frequency of the vibration which the user who rides on a vehicle receives from the said vehicle has many 10H or less.
  • the movement of the electronic device 1 for example, vibration of 10 Hz or less is assumed. Therefore, it can be considered that the moving direction of the electronic device 1 in one frame period (1/60 second) is substantially constant.
  • a frame period immediately before the target frame period may be referred to as a “previous frame period”.
  • the movement amount and movement direction specified in step s1 may be referred to as “observation movement amount” and “observation movement direction”, respectively.
  • step s4 the control unit 100 causes the display unit 120 to display the target image at the display position based on the movement of the electronic device 1 specified in step s3. Specifically, the control unit 100 moves the display position of the target image in the display area 121 in the direction opposite to the observation movement direction by the observation movement amount from the display position of the image displayed in the previous frame period. As described above, the target image is displayed on the display unit 120. Thereby, the position of the image displayed in the target frame period with respect to the earth is less likely to change from the previous frame period.
  • step s4 for example, the CPU 101, based on the image data indicating the target image, based on the observation movement amount and the observation movement direction, the image data indicating the part actually displayed in the display area 121 of the target image. Is generated.
  • the drive circuit 300 drives the display panel 122 based on the image data generated by the CPU 101, so that the display position of the target image in the target frame period is greater than the display position of the image displayed in the previous frame period.
  • the target image is displayed in the display area 121 so as to move in the direction opposite to the observation movement direction by the observation movement amount.
  • the CPU 101 may output the image data indicating the target image and the acquired observation movement amount and observation movement direction to the drive circuit 300.
  • the drive circuit 300 causes the display position of the target image in the target frame period to move in the direction opposite to the observation movement direction by the observation movement amount from the display position of the image displayed in the previous frame period.
  • the display panel 122 is driven based on the image data, the observation movement amount, and the observation movement direction received from the CPU 101.
  • the observed movement amount in step s3 is zero. Therefore, in this case, the image display position in the target frame period does not change from the previous frame period.
  • the control unit 100 executes the processing of steps s1 to s4 as each frame period as the target frame period, the position of the image displayed in the display area 121 at a predetermined frame rate becomes difficult to move. .
  • the position of the image with respect to the earth during execution of the image position control is less likely to change from the position of the image with respect to the earth when the image is displayed at the standard display position. As a result, the visibility of the image is improved.
  • the position of the image with respect to the earth may be referred to as “standard position of the image with respect to the earth”.
  • FIG. 7 is a diagram illustrating an example of a state in which the position of the image with respect to the earth is controlled during the execution of the image position control.
  • FIG. 7 shows an example in which the electronic apparatus 1 moves in the + X axis direction in a plurality of frame periods.
  • the vertical axis indicates the position of the image with respect to the earth in the + X axis direction
  • the horizontal axis indicates time.
  • a graph 600 shows a temporal change in the position of the image with respect to the earth when the electronic apparatus 1 in the control mode moves in the + X-axis direction in a plurality of frame periods.
  • a graph 610 shows a temporal change in the position of the image with respect to the earth when the electronic device 1 in the normal mode moves in the + X-axis direction in a plurality of frame periods.
  • the position of the image displayed on the display unit 120 with respect to the earth changes according to the movement of the electronic device 1 within one frame period.
  • the image coincides with the standard position SP of the image with respect to the earth. Therefore, the position of the image displayed on the display unit 120 with respect to the earth is unlikely to change from the standard position SP of the image with respect to the earth.
  • control unit 100 may cause the display unit 120 to display the target image so that the display position of the target image is slightly closer to the standard display position after step s4 described above. Thereby, it is possible to reduce the possibility that the display position of the target image is greatly separated from the standard display position.
  • the position of the image with respect to the earth coincides with the standard position SP of the image with respect to the earth in the next frame period, but in accordance with the movement of the electronic device 1 within one frame period. Change. Due to the change in the position of the image with respect to the earth within this one frame period, the afterimage of the image may be visible to the user.
  • the control unit 100 does not always turn on the backlight 123 during execution of the image position control, but the lighting time of one time becomes smaller than a predetermined time that is a reciprocal of a predetermined frame rate.
  • the lighting control for turning on the backlight 123 intermittently is performed.
  • the CPU 101 controls the lighting of the backlight 123 through the drive circuit 301.
  • the control unit 100 does not perform image position control, the CPU 101 always turns on the backlight 123, for example, through the drive circuit 301.
  • the predetermined time that is the reciprocal of the predetermined frame rate may be referred to as “frame unit time”.
  • the length of one frame period is a frame unit time.
  • the drive circuit 300 drives the display panel 122 based on image data at a predetermined frame rate.
  • the driver circuit 300 sequentially drives a plurality of pixels of the display panel 122 over one frame period. Even when the drive circuit 300 is driving the display panel 122, it can be said that the display unit 120 is not displaying when the backlight 123 is not lit.
  • the backlight 123 is lit intermittently so that one lighting time is shorter than the frame unit time. , The time for the image to appear in the user's eyes is reduced.
  • the display panel 122 is driven during the frame period, but the time for the display unit 120 to actually display an image is shortened. As a result, the amount of movement of the electronic device 1 during the time when the image appears in the user's eyes is reduced. Therefore, the possibility that an afterimage of the image can be seen can be reduced.
  • FIG. 8 is a diagram illustrating an example of lighting control of the backlight 123.
  • the backlight 123 is lit only once in one frame period. Specifically, the backlight 123 is periodically lit so that it is lit only once in the center of each frame period.
  • the lighting period 700 of the backlight 123 coincides with the frame unit time.
  • the one-time lighting time 710 of the backlight 123 is shorter than the frame unit time.
  • the lighting time 710 is set to, for example, 1/240 seconds.
  • an image is displayed on the user's eyes for 1/240 second. That is, in each frame period, the display unit 120 displays an image for 1/240 second.
  • the moving speed of the electronic device 1 is 120 mm / second, for example.
  • the movement amount of the electronic device 1 while the image is shown to the user's eyes is 2 mm. Accordingly, the position of the image seen by the user with respect to the earth changes by 2 mm in one frame period.
  • the movement amount of the electronic device 1 while the image is shown to the user's eyes is 0.5 mm. Therefore, the position of the image seen by the user with respect to the earth changes only by 0.5 mm in one frame period. Therefore, the possibility that an afterimage of the image can be seen can be reduced.
  • the movement of the electronic device 1 is targeted for vibration of 10 Hz or less, for example. That is, in the image position control according to this example, the vibration of the electronic device 1 that is very slow compared to a predetermined frame rate is targeted. Therefore, as shown in the graph 600 of FIG. 7 described above, the change mode of the position of the image with respect to the earth in one frame period does not greatly differ between a plurality of consecutive frame periods. Therefore, the position of the image with respect to the earth at the same timing in one frame period does not differ greatly between a plurality of consecutive frame periods. Taking the graph 600 as an example, as shown in FIG. 9, the position P1 of the image with respect to the earth at, for example, the central timing t1 in the frame period is substantially the same in the plurality of frame periods.
  • an image of the image of the earth at the same timing in one frame period is between a plurality of consecutive frame periods.
  • the position is not very different. Therefore, when the backlight 123 is periodically lit only once in one frame period, the position of the image that the user sees in one frame period with respect to the earth is between a plurality of consecutive frame periods. It will not be very different. Therefore, the possibility that an afterimage of an image can be seen is further reduced by periodically lighting the backlight 123 once in one frame period.
  • the one lighting time 710 of the backlight 123 is not limited to the above example.
  • the timing when the backlight 123 is turned on is not limited to the example of FIG.
  • the backlight 123 may be turned on first or last in one frame period.
  • the backlight 123 may be lit over two consecutive frame periods.
  • the lighting period 700 of the backlight 123 coincides with the frame unit time, and the one lighting time 710 of the backlight 123 is smaller than the frame unit time. .
  • the backlight 123 does not have to be turned on periodically.
  • the control unit 100 controls the display position of the entire target image based on the movement of the electronic device 1, but the display position of only some of the target images is the electronic device 1. You may control based on movement of. Thereby, the position with respect to the earth about the said one part image becomes difficult to move. Therefore, the visibility of the partial image is improved.
  • the control unit 100 may control the display position of only the image of the character string 401 in the target image 400 based on the movement of the electronic device 1. As a result, the position of the image of the character string 401 with respect to the earth is difficult to move, and the visibility of the image of the character string 401 is improved.
  • the control unit 100 specifies the movement of the electronic device 1 based on the output signal of the acceleration sensor 150.
  • the movement of the electronic device 1 may be specified using another method.
  • the control unit 100 may specify the movement of the electronic device 1 based on an image captured by the second camera (out camera) 200.
  • the control unit 100 specifies the moving amount and moving direction of a predetermined image included in the image captured by the second camera 200 by performing image processing on the captured image. Then, the control unit 100 sets the identified movement amount and movement direction as the movement amount and movement direction of the electronic device 1.
  • the control unit 100 may specify the movement of the electronic device 1 based on an image captured by the first camera (in camera) 190.
  • the main CPU 101m controls the drive circuits 300 and 301 as shown in FIG. May receive the output signal of the acceleration sensor 150. In this case, the main CPU 101m controls the lighting of the backlight 123 through the drive circuit 301.
  • the main CPU 101m executes steps s1 and s3 shown in FIG. In step s4 described above, the main CPU 101m selects a portion of the target image that is actually displayed in the display area 121 based on the observation movement amount and the observation movement direction based on the image data indicating the target image. The image data shown is generated.
  • the drive circuit 300 drives the display panel 122 based on the image data generated by the main CPU 101m.
  • the main CPU 101m may output the image data indicating the target image and the acquired observation movement amount and observation movement direction to the drive circuit 300.
  • the drive circuit 300 may drive the display panel 122 based on the image data, the observation movement amount, and the observation movement direction received from the main CPU 101m.
  • the circuit scale of the main CPU 101m with high processing capability is larger than the circuit scale of the sub CPU 101s with low processing capability.
  • the sub CPU 101s may control the drive circuits 300 and 301, and the sub CPU 101s may receive the output signal of the acceleration sensor 150. In this case, the sub CPU 101 s performs lighting control of the backlight 123 through the drive circuit 301.
  • the sub CPU 101s executes the above steps s1 and s3.
  • the sub CPU 101s selects a portion of the target image that is actually displayed in the display area 121 based on the observation movement amount and the observation movement direction based on the image data indicating the target image. The image data shown is generated. Then, the drive circuit 300 drives the display panel 122 based on the image data generated by the sub CPU 101s.
  • the sub CPU 101s may output the image data indicating the target image and the acquired observation movement amount and observation movement direction to the drive circuit 300.
  • the drive circuit 300 may drive the display panel 122 based on the image data, the observation movement amount, and the observation movement direction received from the sub CPU 101s.
  • the main CPU 101m may generate image data indicating the target image and output the image data to the drive circuit 300, and output the observation movement amount and the observation movement direction acquired by the sub CPU 101s to the drive circuit 300.
  • the drive circuit 300 may drive the display panel 122 based on the image data received from the main CPU 101m and the observation movement amount and observation movement direction received from the sub CPU 101s.
  • the circuit scale of the sub CPU 101s is smaller than the circuit scale of the main CPU 101m, even when the sub CPU 101s and the main CPU 101m perform the same processing, the power consumption of the sub CPU 101s is smaller than the power consumption of the main CPU 101m. . Therefore, when the control unit 100 performs the image position control and the lighting control of the backlight 123 using the sub CPU 101s as illustrated in FIG. 12, the image position control is performed using the main CPU 101m as illustrated in FIG. And the power consumption of the electronic device 1 can be reduced from the case where the lighting control of the backlight 123 is performed. In the example of FIG. 12, the image position control and the lighting control of the backlight 123 are possible even when the main CPU 101m is executing processing or when the main CPU 101m is in the sleep state.
  • the electronic device 1 is a mobile phone such as a smartphone, but may be another type of electronic device.
  • the electronic device 1 may be a tablet terminal, a personal computer, a wearable device, or the like, for example.
  • the wearable device employed as the electronic device 1 may be a wristband type or wristwatch type that is worn on the arm, or a headband type or glasses type that is worn on the head. It may also be a type that is worn on the body, such as a clothing type.
  • the electronic device 1 may be an electronic device used in a vehicle, for example.
  • FIG. 13 is a diagram illustrating an example of a vehicle 800 including the electronic device 1.
  • a vehicle 800 shown in FIG. 13 is, for example, an automobile vehicle.
  • Electronic device 1 may be fixed in vehicle 800 or may be held in the user's hand.
  • the electronic device 1 has been described in detail, but the above description is an example in all aspects, and the disclosure is not limited thereto.
  • the various examples described above can be applied in combination as long as they do not contradict each other. And it is understood that countless examples not illustrated can be assumed without departing from the scope of this disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

電子機器は、表示部と、当該表示部を制御する制御部とを備える。表示部は、複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する。制御部は、電子機器の移動に基づいて、所定のフレームレートで表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行う。制御部は、位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるようにバックライトを間欠的に点灯させる。

Description

電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法 関連出願の相互参照
 本出願は、日本国出願2017-029856号(2017年2月21日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、電子機器に関する。
 電子機器に関して様々な技術が提案されている。
 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法が開示される。一の実施の形態では、電子機器は、表示部と、当該表示部を制御する制御部とを備える。表示部は、複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する。制御部は、電子機器の移動に基づいて、所定のフレームレートで表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行う。制御部は、位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるようにバックライトを間欠的に点灯させる。
 また、一の実施の形態では、制御装置は、複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器が備える、当該電子機器を制御する制御装置である。制御装置は、電子機器の移動に基づいて、所定のフレームレートで当該表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行う。制御装置は、位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるようにバックライトを間欠的に点灯させる。
 また、一の実施の形態では、車両は、上記の電子機器を備える車両である。
 また、一の実施の形態では、制御プログラムは、複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器を制御するための制御プログラムである。制御プログラムは、電子機器に、前記電子機器の移動に基づいて、所定のフレームレートで前記表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行わせる。また、制御プログラムは、電子機器に、前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる。
 また、一の実施の形態では、電子機器の動作方法は、複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器の動作方法である。電子機器の動作方法は、前記電子機器の移動に基づいて、所定のフレームレートで前記表示部に表示される画像の表示位置を制御することによって、当該画像についての地球に対する位置を制御する位置制御を行い、前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる方法である。
電子機器の外観の一例を示す斜視図である。 電子機器の外観の一例を示す背面図である。 電子機器の構成の一例を示すブロック図である。 電子機器の構成の一例を示すブロック図である。 画像位置制御の一例を説明するための図である。 電子機器の動作の一例を示すフローチャートである。 地球に対する画像の位置の時間変化の一例を示す図である。 バックライトの点灯制御の一例を説明するための図である。 地球に対する画像の位置の時間変化の一例を示す図である。 バックライトの点灯制御の一例を説明するための図である。 電子機器の構成の一例を示すブロック図である。 電子機器の構成の一例を示すブロック図である。 電子機器を備える車両の一例を示す図である。
 <電子機器の外観>
 図1及び2は電子機器1の外観の一例を示す斜視図及び背面図である。図1及び2に示されるように、電子機器1は、平面視で略長方形の板状の機器ケース11を備えている。機器ケース11は電子機器1の外装を構成している。
 機器ケース11の前面11aには、文字、記号、図形等の各種情報が表示される表示領域121が位置している。表示領域121の背面側には後述するタッチパネル130が位置している。これにより、ユーザは、電子機器1の前面の表示領域121を指等で操作することによって、電子機器1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペンなどのタッチパネル用ペンで表示領域121を操作することによっても、電子機器1に対して各種情報を入力することができる。
 機器ケース11の前面11aの上端部にはレシーバ穴12が位置している。前面11aの下端部にはスピーカ穴13が位置している。機器ケース11の下側の側面11cにはマイク穴14が位置している。
 機器ケース11の前面11aの上端部からは、後述する第1カメラ190が有するレンズ191が視認可能となっている。図2に示されるように、機器ケース11の背面11bの上端部からは、後述する第2カメラ200が有するレンズ201が視認可能となっている。
 電子機器1は、複数の操作ボタンを備える操作ボタン群140を備えている。複数の操作ボタンのそれぞれはハードウェアボタンである。具体的には、複数の操作ボタンのそれぞれは押しボタンである。なお、操作ボタン群140に含まれる少なくとも一つの操作ボタンは、表示領域121に表示されるソフトウェアボタンであってもよい。
 操作ボタン群140には、機器ケース11の前面11aの下端部に位置する操作ボタン141,142,143が含まれる。また、操作ボタン群140には、機器ケース11の表面に位置する図示しない電源ボタン及びボリュームボタンが含まれる。
 操作ボタン141は、例えばバックボタンである。バックボタンは、表示領域121の表示を一つ前の表示に切り替えるための操作ボタンである。ユーザが操作ボタン141を操作することよって、表示領域121の表示が一つ前の表示に切り替わる。操作ボタン142は、例えばホームボタンである。ホームボタンは、表示領域121にホーム画面を表示させるための操作ボタンである。ユーザが操作ボタン142を操作することよって、表示領域121にホーム画面が表示される。操作ボタン143は、例えば履歴ボタンである。履歴ボタンは、電子機器1で実行されたアプリケーションの履歴を表示領域121に表示させるための操作ボタンである。ユーザが操作ボタン143を操作することよって、表示領域121には、電子機器1で実行されたアプリケーションの履歴が表示される。
 <電子機器の電気的構成>
 図3は電子機器1の電気的構成の一例を主に示すブロック図である。図3に示されるように、電子機器1は、制御部100、無線通信部110、表示部120、タッチパネル130、操作ボタン群140及び加速度センサ150を備える。さらに電子機器1は、レシーバ160、スピーカ170、マイク180、第1カメラ190、第2カメラ200及び電池210を備える。電子機器1が備えるこれらの構成要素は、機器ケース11内に収められている。
 制御部100は、電子機器1の他の構成要素を制御することによって、電子機器1の動作を統括的に管理することが可能である。制御部100は制御装置とも言える。制御部100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。
 種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、または複数の通信可能に接続された集積回路(IC)及び/またはディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
 1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
 種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、またはこれらのデバイス若しくは構成の任意の組み合わせ、または他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。
 本例では、制御部100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103を備える。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)などの、CPU101及びDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、電子機器1を制御するための複数の制御プログラム103a等が記憶されている。制御部100の各種機能は、CPU101及びDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
 なお制御部100は、複数のCPU101を備えてもよい。この場合、制御部100は、比較的複雑な処理を行う、処理能力が高いメインCPUと、比較的簡単な処理を行う、処理能力が低いサブCPUとを備えてもよい。また制御部100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、制御部100の全ての機能あるいは制御部100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
 記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)などを備えていてもよい。
 記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(アプリケーションプログラム)が含まれている。記憶部103には、例えば、音声通話及びビデオ通話を行うための通話アプリケーション、ウェブサイトを表示するためのブラウザ、電子メールの作成、閲覧及び送受信を行うためのメールアプリケーションが記憶されている。また記憶部103には、第1カメラ190及び第2カメラ200を利用して被写体を撮影するためのカメラアプリケーション、記憶部103に記録されている静止画及び動画を表示するための記録画像表示アプリケーション、記憶部103に記憶されている音楽データの再生制御を行うための音楽再生制御アプリケーションなどが記憶されている。記憶部103内の少なくとも一つのアプリケーションは、記憶部103内にあらかじめ記憶されているものであってよい。また、記憶部103内の少なくとも一つのアプリケーションは、電子機器1が他の装置からダウンロードして記憶部103内に記憶したものであってよい。
 無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の通信方式で無線通信することが可能である。無線通信部110の無線通信は、制御部100によって制御される。
 無線通信部110は、携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、当該基地局及びインターネット等のネットワークを通じて、電子機器1とは別の携帯電話機及びウェブサーバ等と通信することが可能である。電子機器1は、他の携帯電話機等と、データ通信、音声通話及びビデオ通話等を行うことが可能である。
 また無線通信部110、Wifi等の無線LAN(Local Area Network)を用いて無線通信を行うことが可能である。また無線通信部110は、近距離無線通信を行うことが可能である。例えば、無線通信部110は、Bluetooth(登録商標)に準拠して無線通信することが可能である。無線通信部110は、ZigBee(登録商標)及びNFC(Near Field Communication)の少なくとも一方に準拠して無線通信することが可能であってもよい。
 無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号を制御部100に出力する。制御部100は、入力される受信信号に対して各種処理を行って、当該受信信号に含まれる情報を取得する。また、制御部100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。
 表示部120は、電子機器1の前面に位置する表示領域121と、表示パネル122と、バックライト123とを備えている。表示部120は、表示領域121に各種情報を表示することが可能である。表示パネル122は、例えば、液晶表示パネルであって、複数の画素(「画素部」あるいは「画素回路」とも呼ばれる)を備える。表示パネル122は、例えば、液晶、ガラス基板及び偏光板等を備える。表示パネル122は、機器ケース11内において、表示領域121と対向している。バックライト123は、表示パネル122の裏側から当該表示パネル122に対して光を照射する。バックライト123は、例えば、少なくとも一つのLED(発光ダイオード)を備える。表示パネル122は、制御部100によって制御されることにより、画素単位で、バックライト123からの光の透過量を制御する。これにより、表示パネル122は、各種情報を表示することが可能である。表示パネル122の駆動方式としては、例えばアクティブ・マトリクス駆動方式が採用される。バックライト123が点灯しているときに表示パネル122の各画素が制御部100によって制御されることにより、表示部120は、文字、記号、図形などの各種情報を表示することが可能である。
 図4に示されるように、制御部100は、表示パネル122を駆動する駆動回路300と、バックライト123を駆動する駆動回路301とを備える。CPU101は、駆動回路300を通じて表示パネル122を制御し、駆動回路301を通じてバックライト123を制御する。駆動回路300は、例えば、表示パネル122が備える複数の画素をラスタースキャン方式で順に駆動する。これにより、表示部120はラスタースキャン方式で画像を表示する。
 なお、駆動回路300は制御部100に含まれると説明したが、駆動回路300は表示部120に含まれると考えてもよい。同様に、駆動回路301は表示部120に含まれると考えてもよい。
 タッチパネル130は、表示領域121に対する指等の操作子による操作を検出することが可能である。タッチパネル130は、例えば、投影型静電容量方式のタッチパネルである。タッチパネル130は、例えば、表示領域121の裏側に位置する。ユーザが指等の操作子によって表示領域121に対して操作を行ったとき、その操作に応じた電気信号をタッチパネル130は制御部100に入力することが可能である。制御部100は、タッチパネル130からの電気信号(出力信号)に基づいて、表示領域121に対して行われた操作の内容を特定することが可能である。そして制御部100は、特定した操作内容に応じた処理を行うことが可能である。なお、表示パネル122及びタッチパネル130の代わりに、タッチパネルが組み込まれたインセル型の表示パネルが採用されてもよい。
 操作ボタン群140の各操作ボタンは、ユーザによって操作されると、操作されたことを示す操作信号を制御部100に出力することが可能である。これにより、制御部100は、各操作ボタンについて、当該操作ボタンが操作されたか否かを判断することができる。操作信号が入力された制御部100が他の構成要素を制御することによって、電子機器1では、操作された操作ボタンに割り当てられている機能が実行される。
 マイク180は、電子機器1の外部から入力される音を電気的な音信号に変換して制御部100に出力することが可能である。電子機器1の外部からの音は、マイク穴14から電子機器1の内部に取り込まれてマイク180に入力される。
 スピーカ170は、例えばダイナミックスピーカである。スピーカ170は、制御部100からの電気的な音信号を音に変換して出力することが可能である。スピーカ170から出力される音は、スピーカ穴13から外部に出力される。ユーザは、スピーカ穴13から出力される音を、電子機器1から離れた場所でも聞こえることが可能である。
 レシーバ160は受話音を出力することが可能である。レシーバ160は例えばダイナミックスピーカである。レシーバ160は、制御部100からの電気的な音信号を音に変換して出力することが可能である。レシーバ160から出力される音はレシーバ穴12から外部に出力される。レシーバ穴12から出力される音の音量は、スピーカ穴13から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴12から出力される音を、当該レシーバ穴12に耳を近づけることによって聞くことができる。なお、レシーバ160の代わりに、機器ケース11の前面部分を振動させる、圧電振動素子等の振動素子を設けてもよい。この場合には、音は、当該前面部分の振動によりユーザに伝達される。
 第1カメラ190は、レンズ191及びイメージセンサなどを備えている。第2カメラ200は、レンズ201及びイメージセンサなどを備えている。第1カメラ190及び第2カメラ200のそれぞれは、制御部100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成して制御部100に出力することが可能である。
 第1カメラ190のレンズ191は、機器ケース11の前面11aから視認可能となっている。したがって、第1カメラ190は、電子機器1の前面側(表示領域121側)に存在する被写体を撮影することが可能である。第1カメラ190はインカメラと呼ばれる。一方で、第2カメラ200のレンズ201は、機器ケース11の背面11bから視認可能となっている。したがって、第2カメラ200は、電子機器1の背面側に存在する被写体を撮影することが可能である。第2カメラ200はアウトカメラと呼ばれる。
 加速度センサ150は、電子機器1の加速度を検出することが可能である。加速度センサ150は例えば3軸加速度センサである。加速度センサ150は、x軸方向、y軸方向及びz軸方向の電子機器1の加速度を検出することが可能である。x軸方向、y軸方向及びz軸方向は、例えば、電子機器1の短手方向、長手方向及び厚み方向にそれぞれ設定される。
 電池210は電子機器1の電源を出力することが可能である。電池210は例えば充電式の電池である。電池210から出力される電源は、電子機器1が備える制御部100及び無線通信部110などの各種構成に対して供給される。
 なお電子機器1は、加速度センサ150を備えなくてもよい。この場合、電子機器1は、それとは別体の加速度センサと、無線あるいは有線で接続されてよい。
 また電子機器1は、加速度センサ150以外のセンサを備えてもよい。例えば、電子機器1は、気圧センサ、地磁気センサ、温度センサ、近接センサ、照度センサ及びジャイロセンサの少なくとも一つを備えてもよい。また電子機器1は、それとは別体の、加速度センサ150以外のセンサと、無線あるいは有線で接続されてもよい。
 <画像位置制御について>
 制御部100は、電子機器1の移動に基づいて、所定のフレームレートで表示部120に表示される画像の表示位置を制御することによって、当該画像についての地球に対する位置を制御する画像位置制御を行うことが可能である。言い換えれば、制御部100は、電子機器1の機器ケース11の移動に基づいて、所定のフレームレートで表示部120に表示される画像の表示位置を制御することによって、当該画像についての地球に対する位置を制御する画像位置制御を行うことが可能である。画像の表示位置は、表示領域121内での画像の位置であるとも言える。所定のフレームレートで表示部120に表示される画像は、動画であってもよいし、静止画であってもよい。所定のフレームレートは、例えば60fpsである。なお、所定のフレームレートは、これ以外であってもよい。
 図5は画像位置制御の概要を説明するための図である。以下では、図5に示されるXYZ直交座標系を用いて電子機器1を説明することがある。X軸方向、Y軸方向及びZ軸方向は、電子機器1の短手方向、長手方向及び厚み方向にそれぞれ設定されている。
 図5は、あるフレーム期間T1から次のフレーム期間T2までに、電子機器1が+X軸方向に移動量Lだけ移動する様子を示している。フレーム期間とは、1枚のフレーム画像が表示される期間である。例えば、フレームレートが60fpsであるとすると、フレーム期間の長さは60分の1秒となる。図5の上側には、フレーム期間T1での電子機器1が示され、図5の下側には、フレーム期間T2での電子機器1が示されている。図5の例では、電子機器1の表示領域121には、例えば、「ABC」という文字列401を含む画像(静止画)400が表示されている。図5では、フレーム期間T1に表示される画像400の中心位置501と、フレーム期間T2に表示される画像400の中心位置502とがバツ印で示されている。表示部120は、ホールド型表示を行うことから、1フレーム期間では、表示部120に表示される画像400が変化しないと言える。つまり、画像400の表示位置は、1フレーム期間において変化しないと言える。
 図5の例では、画像400の大きさは、表示領域121の大きさと一致している。フレーム期間T1では、表示領域121の中心位置と画像400の中心位置501とが一致するように、画像400が表示領域121に表示されている。
 図5に示されるように、フレーム期間T1から次のフレーム期間T2までに、電子機器1が地球に対して+X軸方向に沿って移動量Lだけ移動すると、制御部100による画像位置制御によって、次のフレーム期間T2では、表示領域121での画像400の表示位置が、フレーム期間T1での表示位置よりも-X軸方向に沿って移動量Lだけ移動する。したがって、図5の下側に示されるように、フレーム期間T2での画像400の中心位置502は、フレーム期間T1での画像400の中心位置501よりも-X軸方向に沿って移動量Lだけずれている。
 このように、表示領域121での画像の表示位置を、電子機器1の移動方向とは逆方向に、電子機器1の移動量だけ移動させることによって、地球に対する画像の位置を動きにくくすることができる。言い換えれば、空間に対する画像の相対的な位置を動きにくくすることができる。これにより、表示部120に表示される画像の視認性が向上する。
 例えば、電子機器1を手に持つユーザがバス等の車両内に存在する場合には、ユーザの手が揺れて、電子機器1の地球に対する位置が動くことがある。本例では、電子機器1を手に持つユーザが車両内に存在する場合であっても、電子機器1が表示する画像については、地球に対する位置(相対的な位置)が動きにくくなる。そのため、ユーザは、電子機器1に表示される画像を視認しやすくなる。また、電子機器1に表示される画像に含まれる、文字、記号及び図形等の対象物(図5では文字列401)についての地球に対する位置も動きにくくなることから、当該対象物の視認性が向上する。
 また本例では、電子機器1を持つユーザの手が、加齢あるいは病気などの事情により震える場合であっても、電子機器1が表示する画像についての地球に対する位置が動きにくくなる。よって、ユーザは、電子機器1に表示される画像を視認しやすくなる。
 また、電子機器1に表示される画像の視認性が悪い場合には、ユーザは気分が悪くなる可能性があるが、本例の電子機器1によれば、このようなことが発生する可能性が低減する。
 なお本例のように、表示領域121の大きさと画像400の大きさが同じであって、画像位置制御によって画像400全体の表示位置が移動する場合には、図5の下側に示されるように、表示領域121には画像400の一部だけが表示されて、表示領域121に画像400が表示されない領域121aが発生する。この場合には、領域121aに画像400とは異なる所定の画像が表示されてもよい。例えば、領域121aには、各画素の色が所定の色(例えば黒色)である画像が表示されてもよい。また、画像400の大きさは表示領域121の大きさよりも小さくてもよい。
 次に画像位置制御について詳細に説明する。本例では、電子機器1の動作モードには、画像位置制御を行う制御モードと、画像位置制御を行わない通常モードとが含まれる。ユーザは、例えば、電子機器1の表示領域121を操作することによって、電子機器1の動作モードを当該電子機器1に設定することができる。画像位置制御は、例えば、電子機器1が移動しているときに実行され、電子機器1が移動していないときには実行されない。したがって、制御モードにおいても、電子機器1が移動していないときには画像位置制御は実行されない。
 以後、電子機器1の説明において注目するフレーム期間を「対象フレーム期間」と呼ぶことがある。また、対象フレーム期間に表示すべき画像を「対象画像」と呼ぶことがある。また、画像位置制御が実行されないときの画像の表示位置を「標準表示位置」と呼ぶことがある。標準表示位置としては、例えば、図5の上側の電子機器1での画像400の表示位置のように、表示領域121の中心位置と画像の中心位置とが一致するような画像の表示位置が採用される。通常モードでは、画像の表示位置は例えば標準表示位置となる。
 図6は、制御モードで動作する電子機器1が対象フレーム期間に画像を表示する際の当該電子機器1の動作の一例を示すフローチャートである。電子機器1は、各フレーム期間について図6に示される処理を実行する。
 図6に示されるように、ステップs1において、制御部100は、加速度センサ150の出力信号に基づいて、電子機器1が移動しているか否かを判定する。ステップs1において、電子機器1が移動していないと判定されると、ステップs2において、制御部100は、表示部120に、対象画像を標準表示位置に表示させる。ステップs2では、CPU101が、表示パネル122を駆動する駆動回路300を制御することによって、対象画像が標準表示位置に表示される。
 一方で、ステップs1において、電子機器1が移動していると判定されると、ステップs3において、制御部100は、加速度センサ150の出力信号に基づいて、電子機器1の移動を特定する。具体的には、制御部100は、加速度センサ150の出力信号に基づいて、電子機器1についての所定期間でのXY平面内の移動量及び移動方向を特定する。言い換えれば、制御部100は、加速度センサ150の出力信号に基づいて、電子機器1についての表示領域121に平行な面での所定時時間での移動量及び移動方向を特定する。この所定期間を「観測期間」と呼ぶことがある。観測期間は、例えば、対象フレーム期間よりも一つ前のフレーム期間の開始から、対象フレーム期間の開始よりも少し前までの期間が採用される。したがって、制御部100は、概ね、対象フレーム期間よりも一つ前のフレーム期間での電子機器1のXY平面内の移動量及び移動方向を特定すると言える。ステップs3は例えばCPU101で実行される。
 ここで、ユーザの手が加齢あるいは病気などの事情により震える場合の周波数は10Hz以下が多い。また、車両に乗るユーザが当該車両から受ける振動の周波数は10H以下が多い。
 そこで、本例では、電子機器1の移動として、例えば10Hz以下の振動を想定する。したがって、1フレーム期間(60分の1秒)での電子機器1の移動方向はほぼ一定であると考えることができる。以後、対象フレーム期間よりも一つ前のフレーム期間を「前フレーム期間」と呼ぶことがある。また、ステップs1で特定される移動量及び移動方向を「観測移動量」及び「観測移動方向」とそれぞれ呼ぶことがある。
 ステップs3が実行されると、ステップs4において、制御部100は、表示部120に、ステップs3で特定された電子機器1の移動に基づいた表示位置に対象画像を表示させる。具体的には、制御部100は、表示領域121での対象画像の表示位置が、前フレーム期間で表示される画像の表示位置よりも観測移動量だけ、観測移動方向とは逆方向に移動するように、対象画像を表示部120に表示させる。これにより、対象フレーム期間で表示される画像についての地球に対する位置は、前フレーム期間から変化しにくくなる。
 ステップs4では、例えば、CPU101が、対象画像を示す画像データを元にして、観測移動量及び観測移動方向に基づいて、対象画像のうち、表示領域121に実際に表示される部分を示す画像データを生成する。そして、駆動回路300が、CPU101で生成された画像データに基づいて表示パネル122を駆動することによって、対象フレーム期間での対象画像の表示位置が、前フレーム期間で表示される画像の表示位置よりも観測移動量だけ、観測移動方向とは逆方向に移動するように、対象画像が表示領域121に表示される。
 またステップs4では、例えば、CPU101は、対象画像を示す画像データと、取得した観測移動量及び観測移動方向とを駆動回路300に出力してもよい。この場合、駆動回路300は、対象フレーム期間での対象画像の表示位置が、前フレーム期間で表示される画像の表示位置よりも観測移動量だけ、観測移動方向とは逆方向に移動するように、CPU101から受け取った画像データ、観測移動量及び観測移動方向に基づいて、表示パネル122を駆動する。
 なお、電子機器1の移動がZ軸方向だけに沿った移動である場合には、ステップs3での観測移動量は零となる。したがって、この場合には、対象フレーム期間での画像の表示位置は前フレーム期間から変化しない。
 以上のステップs1~s4の処理を、制御部100が、各フレーム期間を対象フレーム期間として実行することによって、所定のフレームレートで表示領域121に表示される画像についての地球に対する位置は動きにくくなる。本例では、画像位置制御の実行中での画像の地球に対する位置が、当該画像が標準表示位置に表示される場合の当該画像の地球に対する位置から変化しにくくなる。その結果、画像の視認性が向上する。以後、画像が標準表示位置に表示される場合の当該画像の地球に対する位置を「地球に対する画像の標準位置」と呼ぶことがある。
 図7は、画像位置制御の実行中において、地球に対する画像の位置が制御されている様子の一例を示す図である。図7には、電子機器1が複数のフレーム期間において+X軸方向に移動する場合の例が示されている。図7では、+X軸方向における、地球に対する画像の位置を縦軸が示しており、横軸が時間を示している。グラフ600は、制御モードの電子機器1が複数のフレーム期間において+X軸方向に移動する場合における、地球に対する画像の位置の時間変化を示している。グラフ610は、通常モードの電子機器1が複数のフレーム期間において+X軸方向に移動する場合における、地球に対する画像の位置の時間変化を示している。
 グラフ600に示されるように、画像位置制御の実行中では、表示部120に表示される画像の地球に対する位置は、1フレーム期間内においては電子機器1の移動に応じて変化するものの、次のフレーム期間になると、地球に対する画像の標準位置SPと一致するようになる。よって、表示部120に表示される画像の地球に対する位置は、地球に対する画像の標準位置SPから変化しにくくなる。
 一方で、画像位置制御が実行されない場合には、グラフ610に示されるように、表示部120に表示される画像の地球に対する位置は、常に電子機器1の移動に応じて変化し、標準位置SPから大きくずれることになる。
 なお制御部100は、上述のステップs4の後に、対象画像の表示位置が標準表示位置に少し近づくように対象画像を表示部120に表示させてもよい。これにより、対象画像の表示位置が標準表示位置から大きく離れる可能性を低減することができる。
 <バックライト制御について>
 上述のように、表示部120は、ホールド型表示を行うことから、1フレーム期間内では、表示部120に表示される画像は変化しないと言える。したがって、上述の図7のグラフ600に示されるように、1フレーム期間内では、電子機器1の移動に応じて、表示部120に表示される画像の地球に対する位置は変化する。
 このように、本例では、地球に対する画像の位置は、次のフレーム期間になると、地球に対する画像の標準位置SPと一致するようになるものの、1フレーム期間内では、電子機器1の移動に応じて変化する。この1フレーム期間内での地球に対する画像の位置の変化により、ユーザにとっては画像の残像が見える可能性がある。
 そこで、本例に係る制御部100は、画像位置制御の実行中において、バックライト123を常時点灯させるのではなく、1回の点灯時間が所定のフレームレートの逆数である所定時間よりも小さくなるようにバックライト123を間欠的に点灯させる点灯制御を行う。本例では、例えばCPU101が、駆動回路301を通じて、バックライト123の点灯制御を行う。一方で、制御部100が画像位置制御を行わない場合には、CPU101は、駆動回路301を通じて、例えばバックライト123を常に点灯させる。以後、所定のフレームレートの逆数である所定時間を「フレーム単位時間」と呼ぶことがある。1フレーム期間の長さがフレーム単位時間となる。
 本例では、バックライト123は間欠的に点灯するものの、駆動回路300は所定のフレームレートの画像データに基づいて表示パネル122を駆動する。駆動回路300は、1フレーム期間をかけて表示パネル122の複数の画素を順次駆動する。駆動回路300が表示パネル122を駆動している場合であっても、バックライト123が点灯していない場合には、表示部120は表示を行っていないと言える。
 このように、画像位置制御の実行中では、1回の点灯時間がフレーム単位時間よりも小さくなるようにバックライト123が間欠的に点灯することから、画像位置制御の実行中では、フレーム期間において、ユーザの目に画像が映る時間が短くなる。言い換えれば、画像位置制御の実行中では、フレーム期間において、表示パネル122は駆動されているものの、表示部120が実際に画像を表示する時間が短くなる。その結果、ユーザの目に画像が映る時間の間での電子機器1の移動量が小さくなる。よって、画像の残像が見える可能性を低減することができる。
 図8はバックライト123の点灯制御の一例を示す図である。図8に示される例では、バックライト123は、1フレーム期間において1回だけ点灯している。具体的には、バックライト123は、各フレーム期間の中央において1回だけ点灯するように周期的に点灯している。バックライト123の点灯周期700はフレーム単位時間と一致している。またバックライト123の1回の点灯時間710は、フレーム単位時間よりも小さくなっている。所定のフレームレートが60fpsの場合、点灯時間710は、例えば、240分の1秒に設定される。これにより、各フレーム期間において、ユーザの目には240分の1秒だけ画像が映ることになる。つまり、各フレーム期間において、表示部120は、240分の1秒だけ画像を表示する。
 ここで、電子機器1の移動速度が、例えば120mm/秒であるとする。この場合、バックライト123が1フレーム期間のすべておいて点灯している場合には、ユーザの目に画像が映っている間の電子機器1の移動量は2mmとなる。したがって、ユーザが目にする画像についての地球に対する位置が1フレーム期間で2mm変化することになる。
 一方で、バックライト123が1フレーム期間において240分の1秒だけ点灯する場合には、ユーザの目に画像が映っている間の電子機器1の移動量は0.5mmとなる。したがって、ユーザが目にする画像についての地球に対する位置は1フレーム期間で0.5mmしか変化しない。よって、画像の残像が見える可能性を低減することができる。
 上述のように、本例に係る画像位置制御では、電子機器1の移動として、例えば10Hz以下の振動を対象としている。つまり、本例に係る画像位置制御では、所定のフレームレートと比較して非常にゆっくりとした電子機器1の振動を対象としている。したがって、上述の図7のグラフ600に示されるように、連続するある複数のフレーム期間の間では、一のフレーム期間における、地球に対する画像の位置の変化態様は、大きく相違しない。よって、連続するある複数のフレーム期間の間では、一のフレーム期間における同じタイミングでの地球に対する画像の位置は大きく相違しない。グラフ600を例に挙げて説明すると、図9に示されるように、フレーム期間の例えば中央のタイミングt1での地球に対する画像の位置P1は、複数のフレーム期間においてほぼ同じである。
 このように、所定のフレームレートと比較して非常にゆっくりと電子機器1が振動する場合には、連続するある複数のフレーム期間の間では、一のフレーム期間における同じタイミングでの地球に対する画像の位置は大きく相違しない。そのため、バックライト123が、周期的に、1フレーム期間に1回だけ点灯する場合、連続するある複数のフレーム期間の間では、一のフレーム期間においてユーザが目にする画像についての地球に対する位置が大きく相違しないようになる。よって、バックライト123が、周期的に、1フレーム期間に1回だけ点灯することによって、画像の残像が見える可能性がさらに低減する。
 なお、バックライト123の1回の点灯時間710は上記の例に限られない。また、バックライト123が点灯するタイミングは図8の例には限られない。例えば、1フレーム期間において1回だけバックライト123が点灯する場合には、バックライト123は、1フレーム期間において、最初の方に点灯してもよいし、最後の方に点灯してもよい。また図10に示されるように、バックライト123は、連続する2つのフレーム期間に跨って点灯してもよい。図10の例では、図8の例と同様に、バックライト123の点灯周期700はフレーム単位時間と一致し、バックライト123の1回の点灯時間710は、フレーム単位時間よりも小さくなっている。またバックライト123は、周期的に点灯しなくてもよい。
 <変形例>
 上記の画像位置制御では、制御部100は、対象画像全体の表示位置を電子機器1の移動に基づいて制御しているが、対象画像のうち、一部の画像だけの表示位置を電子機器1の移動に基づいて制御してもよい。これにより、当該一部の画像についての地球に対する位置が動きにくくなる。よって、当該一部の画像の視認性が向上する。図5の例では、制御部100は、例えば、対象画像400のうち、文字列401の画像だけの表示位置を電子機器1の移動に基づいて制御してもよい。これにより、文字列401の画像についての地球に対する位置が動きにくくなり、文字列401の画像の視認性が向上する。
 また上記の例では、制御部100は、加速度センサ150の出力信号に基づいて電子機器1の移動を特定しているが、他の方法を用いて電子機器1の移動を特定してもよい。制御部100は、例えば、第2カメラ(アウトカメラ)200で撮影される画像に基づいて電子機器1の移動を特定してもよい。この場合、制御部100は、例えば、第2カメラ200での撮影画像に含まれる所定の画像の移動量及び移動方向を、当該撮影画像に対して画像処理を行うことによって特定する。そして、制御部100は、特定した移動量及び移動方向を、電子機器1の移動量及び移動方向とする。また制御部100は、第1カメラ(インカメラ)190で撮影される画像に基づいて電子機器1の移動を特定してもよい。
 また制御部100が、処理能力が高いメインCPU101mと、処理能力が低いサブCPU101sを備えている場合には、図11に示されるように、メインCPU101mが駆動回路300,301を制御し、メインCPU101mが加速度センサ150の出力信号を受け取ってもよい。この場合、メインCPU101mが駆動回路301を通じてバックライト123の点灯制御を行う。また、画像表示制御では、メインCPU101mが上述の図6のステップs1,s3を実行する。そして、上述のステップs4において、メインCPU101mは、対象画像を示す画像データを元にして、観測移動量及び観測移動方向に基づいて、対象画像のうち、表示領域121に実際に表示される部分を示す画像データを生成する。そして、駆動回路300が、メインCPU101mで生成された画像データに基づいて表示パネル122を駆動する。また、ステップs4では、メインCPU101mは、対象画像を示す画像データと、取得した観測移動量及び観測移動方向とを駆動回路300に出力してよい。そして、駆動回路300は、メインCPU101mから受け取った画像データ、観測移動量及び観測移動方向に基づいて、表示パネル122を駆動してもよい。処理能力が高いメインCPU101mの回路規模は、処理能力が低いサブCPU101sの回路規模よりも大きくなっている。
 また図12に示されるように、サブCPU101sが駆動回路300,301を制御し、サブCPU101sが加速度センサ150の出力信号を受け取ってもよい。この場合、サブCPU101sが駆動回路301を通じてバックライト123の点灯制御を行う。また、画像表示制御では、サブCPU101sが上述のステップs1,s3を実行する。そして、上述のステップs4において、サブCPU101sは、対象画像を示す画像データを元にして、観測移動量及び観測移動方向に基づいて、対象画像のうち、表示領域121に実際に表示される部分を示す画像データを生成する。そして、駆動回路300が、サブCPU101sで生成された画像データに基づいて表示パネル122を駆動する。また、ステップs4では、サブCPU101sは、対象画像を示す画像データと、取得した観測移動量及び観測移動方向とを駆動回路300に出力してもよい。そして、駆動回路300は、サブCPU101sから受け取った画像データ、観測移動量及び観測移動方向に基づいて、表示パネル122を駆動してもよい。また、ステップs4では、メインCPU101mが、対象画像を示す画像データを生成して駆動回路300に出力し、サブCPU101sが取得した観測移動量及び観測移動方向を駆動回路300に出力してもよい。そして、駆動回路300は、メインCPU101mから受け取った画像データと、サブCPU101sから受け取った観測移動量及び観測移動方向に基づいて、表示パネル122を駆動してもよい。
 サブCPU101sの回路規模は、メインCPU101mの回路規模よりも小さいことから、サブCPU101sとメインCPU101mが同じ処理を行う場合であっても、サブCPU101sの消費電力は、メインCPU101mの消費電力よりも小さくなる。よって、図12のように、制御部100が、サブCPU101sを使用して画像位置制御及びバックライト123の点灯制御を行う場合には、図11のように、メインCPU101mを使用して画像位置制御及びバックライト123の点灯制御を行う場合より、電子機器1の消費電力を低減することができる。また、図12の例では、メインCPU101mが処理を実行している場合、あるいはメインCPU101mがスリープ状態である場合にも、画像位置制御及びバックライト123の点灯制御が可能性となる。
 上記の例では、電子機器1は、スマートフォン等の携帯電話機であったが、他の種類の電子機器であってよい。電子機器1は、例えば、タブレット端末、パーソナルコンピュータ、ウェアラブル機器などであってよい。電子機器1として採用されるウェアラブル機器は、リストバンド型あるいは腕時計型などの腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型などの頭に装着するタイプであってもよいし、服型などの体に装着するタイプであってもよい。また電子機器1は、例えば、車両内で使用される電子機器であってもよい。図13は、電子機器1を備える車両800の一例を示す図である。図13に示される車両800は、例えば、自動車の車両である。電子機器1は、車両800内において、固定されてもよいし、ユーザの手に持たれてもよい。
 以上のように、電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の例が、この開示の範囲から外れることなく想定され得るものと解される。
 1 電子機器
 100 制御部(制御装置)
 103a 制御プログラム
 120 表示部
 122 表示パネル
 123 バックライト

Claims (8)

  1.  電子機器であって、
     複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部と、
     前記表示部を制御する制御部と
    を備え、
     前記制御部は、
      前記電子機器の移動に基づいて、所定のフレームレートで前記表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行い、
      前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる、電子機器。
  2.  請求項1に記載の電子機器であって、
     前記制御部は、前記位置制御の実行中に、前記バックライトを1フレーム期間において1回だけ点灯させる、電子機器。
  3.  請求項1に記載の電子機器であって、
     前記制御部は、前記位置制御の実行中に、前記バックライトを、連続する2つのフレーム期間に跨って点灯させる、電子機器。
  4.  請求項2及び請求項3のいずれか一つに記載の電子機器であって、
     前記制御部は、前記位置制御の実行中に、前記バックライトを周期的に点灯させる、電子機器。
  5.  複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器が備える、当該電子機器を制御する制御装置であって、
     前記電子機器の移動に基づいて、所定のフレームレートで当該表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行い、
     前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる、制御装置。
  6.  請求項1乃至請求項4のいずれか一つに記載の電子機器を備える車両。
  7.  複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器を制御するための制御プログラムであって、
     前記電子機器に、
     前記電子機器の移動に基づいて、所定のフレームレートで前記表示部に表示される画像の少なくとも一部の表示位置を制御することによって、当該少なくとも一部についての地球に対する位置を制御する位置制御を行わせ、
     前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる、制御プログラム。
  8.  複数の画素を有する表示パネルと、当該表示パネルに光を照射するバックライトとを有する表示部を備える電子機器の動作方法であって、
     前記電子機器の移動に基づいて、所定のフレームレートで前記表示部に表示される画像の表示位置を制御することによって、当該画像についての地球に対する位置を制御する位置制御を行い、
     前記位置制御の実行中に、1回の点灯時間が前記所定のフレームレートの逆数である所定時間よりも小さくなるように前記バックライトを間欠的に点灯させる、電子機器の動作方法。
PCT/JP2018/003380 2017-02-21 2018-02-01 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法 WO2018155122A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-029856 2017-02-21
JP2017029856A JP2018137083A (ja) 2017-02-21 2017-02-21 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法

Publications (1)

Publication Number Publication Date
WO2018155122A1 true WO2018155122A1 (ja) 2018-08-30

Family

ID=63252663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/003380 WO2018155122A1 (ja) 2017-02-21 2018-02-01 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法

Country Status (2)

Country Link
JP (1) JP2018137083A (ja)
WO (1) WO2018155122A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7010806B2 (ja) * 2018-12-12 2022-01-26 Kddi株式会社 フィルタ位相進み分を利用した振動変位推定プログラム、装置及び方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177719A (ja) * 2001-12-10 2003-06-27 Matsushita Electric Ind Co Ltd 画像表示装置
WO2006095573A1 (ja) * 2005-03-08 2006-09-14 Sharp Kabushiki Kaisha 携帯端末装置
JP2009069544A (ja) * 2007-09-14 2009-04-02 Nissan Motor Co Ltd 画像情報提供装置
JP2016126166A (ja) * 2014-12-27 2016-07-11 京セラディスプレイ株式会社 表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003177719A (ja) * 2001-12-10 2003-06-27 Matsushita Electric Ind Co Ltd 画像表示装置
WO2006095573A1 (ja) * 2005-03-08 2006-09-14 Sharp Kabushiki Kaisha 携帯端末装置
JP2009069544A (ja) * 2007-09-14 2009-04-02 Nissan Motor Co Ltd 画像情報提供装置
JP2016126166A (ja) * 2014-12-27 2016-07-11 京セラディスプレイ株式会社 表示装置

Also Published As

Publication number Publication date
JP2018137083A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
KR101943358B1 (ko) 이동 단말기 및 그것의 동작방법
KR20170037466A (ko) 이동 단말기 및 이의 제어방법
KR20170030789A (ko) 스마트 디바이스 및 이의 제어방법
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
US9921796B2 (en) Sharing of input information superimposed on images
KR20160008372A (ko) 이동 단말기 및 그것의 제어방법
KR20150142516A (ko) 글래스 타입 단말기 및 그것의 제어 방법
US10003716B2 (en) Generation of a digest video
US9781242B2 (en) Setting systems and setting methods
WO2020075825A1 (ja) 動き推定装置、電子機器、制御プログラム及び動き推定方法
KR20170004160A (ko) 이동단말기 및 그 제어방법
WO2018155122A1 (ja) 電子機器、制御装置、車両、制御プログラム及び電子機器の動作方法
KR102255456B1 (ko) 화면 제어 방법 및 장치
US11037519B2 (en) Display device having display based on detection value, program, and method of controlling device
KR20160102811A (ko) 손목착용형 디바이스를 착용한 손의 제스처를 통해 필기관련 기능을 제어할 수 있는 이동 단말기 및 그 제어방법
KR20170094574A (ko) 헤드 마운트 디스플레이 디바이스
WO2018155128A1 (ja) 表示装置、制御装置および車両
KR20200052036A (ko) 이동단말기
WO2018155134A1 (ja) 電子機器、車両、制御装置、制御プログラム及び電子機器の動作方法
WO2018155123A1 (ja) 表示装置、表示方法、制御装置および車両
WO2018155127A1 (ja) 表示装置、表示方法、制御装置および車両
JP7129897B2 (ja) 電子機器
KR20150140050A (ko) 이동단말기 및 그 제어방법
KR20200094436A (ko) 복수의 어플리케이션에 카메라에서 획득한 이미지를 제공하는 전자 장치 및 그의 동작 방법
JP6621167B1 (ja) 動き推定装置、電子機器、制御プログラム及び動き推定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18756887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18756887

Country of ref document: EP

Kind code of ref document: A1