WO2016098443A1 - 情報処理装置及び情報処理装置の制御方法 - Google Patents

情報処理装置及び情報処理装置の制御方法 Download PDF

Info

Publication number
WO2016098443A1
WO2016098443A1 PCT/JP2015/079701 JP2015079701W WO2016098443A1 WO 2016098443 A1 WO2016098443 A1 WO 2016098443A1 JP 2015079701 W JP2015079701 W JP 2015079701W WO 2016098443 A1 WO2016098443 A1 WO 2016098443A1
Authority
WO
WIPO (PCT)
Prior art keywords
acceleration
unit
display
setting unit
axis direction
Prior art date
Application number
PCT/JP2015/079701
Other languages
English (en)
French (fr)
Inventor
裕一朗 仲川
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to US15/523,554 priority Critical patent/US10152158B2/en
Priority to EP15869651.8A priority patent/EP3236340B1/en
Priority to CN201580067798.4A priority patent/CN107003778B/zh
Publication of WO2016098443A1 publication Critical patent/WO2016098443A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Definitions

  • the present invention relates to an information processing apparatus and a method for controlling the information processing apparatus.
  • Patent Document 1 discloses a display input device that enlarges an image of a display area such as a touch key or an icon displayed on a touch panel at an enlargement rate corresponding to a vibration amount detected by a vibration detection unit.
  • Patent Document 1 enlarges images such as touch keys and icons at an enlargement rate corresponding to the amount of vibration, the enlarged image overlaps with other images that are not enlarged, and other images are hidden. Or the screen layout may collapse.
  • the present invention has been made in view of the above circumstances, and provides an information processing apparatus and an information processing apparatus control method that improve the detection accuracy of an operation on an object displayed on the display screen without destroying the display screen.
  • the purpose is to provide.
  • the present invention provides a measurement unit that measures acceleration, a display control unit that displays an object for receiving a processing instruction on a display screen, and a detection unit that detects an operation on the object.
  • the setting unit configured to set a reaction area of the display screen that can be detected as an operation on the object, the setting unit depending on the magnitude and direction of the acceleration measured by the measuring unit Then, the range of the reaction region is changed. According to this configuration, it is possible to improve the detection accuracy of the operation on the object displayed on the display unit without destroying the display screen.
  • the setting unit sets the reaction area wider than a display range of the object. According to this configuration, even if an operation on the object deviates outside the display range of the object, it can be detected as an operation on the object.
  • the setting unit expands the reaction region to a size that is opposite to the direction of acceleration detected by the measurement unit and is proportional to the acceleration. It is characterized by. According to this configuration, an operation on the object can be detected more reliably. For example, when the information processing apparatus is mounted on a vehicle and acceleration occurs in the information processing apparatus and the user of the information processing apparatus, the user tries to maintain the posture against the acceleration. The operation may be shifted to the opposite side of the direction of acceleration. For this reason, it is possible to more reliably detect an operation on the object by enlarging the reaction area in a direction opposite to the direction of acceleration and proportional to the acceleration.
  • the setting unit resets a range of the reaction area according to a display position of the display screen touched by a user as an operation on the object. To do. According to this configuration, it is possible to further reduce the number of occurrences of operation mistakes and improve the detection accuracy of operations on objects.
  • the setting unit may include the reaction region in a region between a first object and a second object adjacent to the first object in a first direction.
  • the second object of the first object according to a ratio between an acceleration generated in the first direction and an acceleration generated in a second direction opposite to the first direction.
  • a range between a reaction area set on the side and a reaction area set on the first object side of the second object is set. According to this configuration, the reaction regions of the adjacent first object and second object can be optimally set according to the acceleration ratio.
  • the present invention includes a measurement step for measuring acceleration, a display step for displaying an object for receiving a processing instruction on a display screen, a detection step for detecting an operation on the object by a detection unit, and the detection unit, Setting a reaction region that can be detected as an operation on the object, and the setting step changes a range of the reaction region according to the magnitude and direction of the acceleration measured by the measurement step. It is characterized by doing. According to this configuration, it is possible to improve the detection accuracy of the operation on the object displayed on the display unit without destroying the display screen.
  • the present invention it is possible to improve the detection accuracy of an operation on an object displayed on the display screen without destroying the display screen.
  • FIG. 1 is a configuration diagram of a navigation device.
  • FIG. 2 is a diagram showing a menu screen.
  • FIG. 3A is a diagram showing a reaction region set in an object when acceleration in a certain direction occurs, and FIG. 3B shows two adjacent objects when acceleration in a certain direction occurs. The figure which shows the reaction area
  • FIG. 4 is a diagram illustrating a state in which the display panel is tilted with respect to the main body of the navigation device.
  • FIG. 5 is a flowchart illustrating a processing procedure of the control unit according to the first embodiment.
  • FIG. 6A is a diagram showing a reaction region set for an object when vibration occurs, and FIG. 6B is a reaction set between two adjacent objects when vibration occurs. The figure which shows an area
  • FIG. 6A is a diagram showing a reaction region set for an object when vibration occurs
  • FIG. 6B is a reaction set between two adjacent objects when vibration occurs. The figure which shows an area
  • FIG. 6A
  • FIG. 7 is a flowchart illustrating a processing procedure of a control unit according to the second embodiment.
  • FIG. 8 is a diagram for explaining a method of calculating the enlargement ratio ⁇ and the enlargement ratio ⁇ .
  • FIG. 9 is a flowchart illustrating another processing procedure of the control unit according to the second embodiment.
  • FIG. 10 is a diagram for explaining another calculation method of the enlargement ratio ⁇ and the enlargement ratio ⁇ .
  • FIG. 1 shows a configuration diagram of a navigation device 100 as an information processing device.
  • the navigation device 100 includes a position specifying unit 110, a wireless network control unit 120, an acceleration sensor 130, a storage unit 140, an operation unit 150, a display unit 160, a motor 170, an audio output unit 181, a speaker 182 and a control unit 200.
  • the position specifying unit 110 includes a GPS antenna 111, a GPS unit 112, and a gyro unit 113.
  • the GPS unit 112 receives radio waves transmitted from a plurality of GPS satellites by the GPS antenna 111 and performs a three-dimensional positioning process or a two-dimensional positioning process, whereby a vehicle (hereinafter referred to as “self-vehicle”) on which the navigation device 100 is mounted.
  • the position coordinates latitude / longitude coordinates
  • the traveling direction are calculated.
  • the GPS unit 112 can specify the current position by using a signal of a positioning satellite system such as GLONASS, Galileo, Beidou, or QZSS (Michibiki) instead of the GPS radio wave transmitted from the GPS satellite.
  • the gyro unit 113 is constituted by an optical fiber gyro, a vibration gyro, or the like, and detects an angular velocity due to rotation of the host vehicle.
  • the GPS unit 112 outputs information indicating the position coordinates and the traveling direction to the control unit 200, and the gyro unit 113 outputs information indicating the angular velocity of the host vehicle to the control unit 200.
  • the wireless network control unit 120 includes a wireless antenna 121.
  • the wireless network control unit 120 is connected to the communication network via the wireless antenna 121, and transmits and receives data to and from other devices such as servers connected to the communication network.
  • the acceleration sensor 130 measures the acceleration in the three-axis (X-axis, Y-axis, Z-axis) direction at a predetermined sampling frequency, and outputs a signal indicating the measured acceleration in the three-axis direction to the control unit 200.
  • Various sensors such as a piezoresistive type, a capacitance type, and a heat detection type can be used for the acceleration sensor 130.
  • the structure which the navigation apparatus 100 acquires the triaxial acceleration which the acceleration sensor mounted in the own vehicle measures may be sufficient.
  • a three-axis acceleration sensor has been described as an example of the acceleration sensor 130, but a uniaxial or biaxial acceleration sensor may be used.
  • the storage unit 140 includes a storage medium such as a CD, DVD, hard disk, or flash memory.
  • the storage unit 140 stores a navigation database such as a map database used when executing the navigation function and voice data for route guidance. ing.
  • the operation unit 150 includes a touch panel 152 disposed on the display panel 161 of the display unit 160 in addition to the operation buttons 151.
  • a touch panel 152 disposed on the display panel 161 of the display unit 160 in addition to the operation buttons 151.
  • coordinate information indicating a position touched on the touch panel 152 is input to the control unit 200.
  • the touch position detection method using the touch panel 152 may be either a resistance film method or a capacitance method.
  • An operation similar to the operation of the operation unit 150 may be executed by a steering controller provided in the steering.
  • the voice output unit 181 includes a D / A converter, an amplifier (none of which is shown), and the like, and digital / analog-converts the voice data for route guidance and amplifies it with an amplifier. Output audio.
  • the display panel 161 for example, a liquid crystal display panel, an EL (Electro Luminescent) display panel, or the like can be used.
  • the display unit 160 receives data such as map data and an instruction command for instructing drawing from the control unit 200, and draws data (for example, bitmap image data) to be displayed on the display panel 161 according to the input drawing command. ), A VRAM (Video RAM) that holds the generated drawing data, a drive circuit that displays an image based on the drawing data on the display panel 161, and the like.
  • VRAM Video RAM
  • the control unit 200 is configured as a microprocessor centered on a CPU, and in addition to the CPU, a ROM that stores various processing programs, a RAM as a working memory, an NVRAM that holds data, and an input / output of data. Input / output ports.
  • the control unit 200 includes a navigation processing unit 201, a display control unit 202, a setting unit 203, an operation determination unit 204, and a drive control unit 205 as functional blocks.
  • the functional block is a block in which functions realized by cooperation of hardware included in the navigation device 100 and a program such as a control program or an application program are grouped for each predetermined function.
  • the navigation processing unit 201 determines the vehicle position that is the current position of the vehicle based on information input from the GPS unit 112 or the gyro unit 113.
  • the navigation processing unit 201 reads map data in a range necessary for display from the map database based on the determined own vehicle position.
  • the navigation processing unit 201 instructs the display control unit 202 to superimpose and display the current location mark corresponding to the acquired current location on the read map data.
  • the navigation processing unit 201 searches for a travel route from the current position to the destination. Then, the navigation processing unit 201 instructs the display control unit 202 to display the searched travel route on the read map data.
  • the display control unit 202 controls display on the display panel 161.
  • the display control unit 202 inputs an instruction from the navigation processing unit 201 and map data, a mark indicating the current position, data indicating a travel route, etc.
  • the display control unit 202 generates a drawing command corresponding to the input instruction.
  • the map data, a mark indicating the current position, data indicating the travel route, etc. are output to the display unit 160.
  • the display control unit 202 outputs a menu screen showing a list of functions that can be provided by the navigation device 100 and screen data to be displayed on the display panel 161 during execution of the functions to the display unit 160 together with a drawing command.
  • FIG. 2 shows an example of the menu screen.
  • the object 165 refers to an image that can accept a user operation (processing instruction) among images displayed on the display panel 161. For example, in addition to an image having a button or icon function, a hyperlink This is the case.
  • the setting unit 203 sets the reaction area 167 of the object 165 displayed on the display panel 161 by the display control unit 202.
  • the operation determination unit 204 detects an operation on each object 165 based on the coordinates of the touch position detected by the touch panel 152.
  • FIG. 3A is a diagram showing a reaction region 167 set in the object 165 when acceleration in a certain direction occurs.
  • the reaction area 167 is indicated by the hatched area in FIG.
  • the reaction area 167 is an area that is not displayed on the display panel 161 but is determined that the operation determination unit 204 is an operation on the object 165 when the user touches the reaction area 167.
  • the setting unit 203 sets the reaction area 167 wider than the display area 166 of the object 165 when acceleration is generated in the navigation device 100.
  • FIG. 3A shows a reaction region 167 set by the setting unit 203 when acceleration is generated in the right direction toward FIG.
  • the setting unit 203 sets the reaction area 167 in the display area 166 of the object 165 and the area on the left side of the display area 166 of the object 165.
  • the setting unit 203 enlarges the reaction region 167 to the left side of the object 165 in a direction opposite to the direction in which the acceleration is generated with a size corresponding to the acceleration.
  • the operation determination unit 204 determines whether the coordinates detected by the touch panel 152 are operations for the object 165 based on the coordinate information input from the touch panel 152. For example, the operation determination unit 204 determines that the operation is performed on the object 165 when the coordinate of the touch position is out of the display area 166 of the object 165 but is within the reaction area 167 of the object 165.
  • the drive control unit 205 controls the drive of the motor 170 to tilt (tilt) the display panel 161 with respect to the main body 190 of the navigation device 100.
  • FIG. 4 is a diagram illustrating a state in which the display panel 161 is tilted with respect to the main body 190 of the navigation device 100.
  • the drive control unit 205 drives and rotates the motor 170
  • the drive control unit 205 stores information on the rotation number and rotation direction of the rotated motor 170 in a RAM (not shown).
  • the rotation direction of the motor 170 includes forward rotation and reverse rotation. By rotating the motor 170 forward, the display panel 161 is tilted with respect to the main body 190 of the navigation device 100 and the motor 170 is rotated reversely.
  • the tilted display panel 161 can be accommodated in the main body 190 of the navigation device 100.
  • FIG. 5 is a flowchart illustrating a processing procedure of the control unit 200 according to the first embodiment.
  • the setting unit 203 inputs accelerations in the three-axis (X-axis, Y-axis, and Z-axis) directions measured by the acceleration sensor 130 (step S1).
  • the acceleration sensor 130 measures the acceleration in the X-axis, Y-axis, and Z-axis directions generated in the navigation device 100 at a preset sampling frequency, and outputs the measured acceleration to the control unit 200.
  • the setting unit 203 stores the acceleration input from the acceleration sensor 130 in a RAM (not shown).
  • the setting unit 203 acquires the rotation number and rotation direction of the motor 170 from the drive control unit 205, and calculates the tilt of the display panel 161 based on the acquired information about the rotation number and rotation direction (step S2). .
  • the NVRAM (not shown) stores information on an inclination angle at which the display panel 161 can be inclined by one rotation of the motor 170.
  • the setting unit 203 calculates the tilt of the display panel 161 with reference to the tilt angle information.
  • the setting unit 203 calculates accelerations in the x-axis direction and the y-axis direction of the display panel 161 based on the accelerations in the X, Y, and X axis directions stored in the RAM (step S3).
  • the x-axis direction of the display panel 161 corresponds to the horizontal direction of the display panel 161 as shown in FIG. 4 and corresponds to the X-axis direction (left-right axis direction) measured by the acceleration sensor 130.
  • the setting unit 203 uses the acceleration in the X-axis direction as the acceleration in the x-axis direction of the display panel 161.
  • the setting unit 203 stores the acceleration in the x-axis direction of the display panel 161 in the RAM.
  • the y-axis direction of the display panel 161 corresponds to a direction in which the Z-axis, which is the vertical direction, is tilted by the tilt angle ⁇ when the tilt angle of the display panel 161 is ⁇ . Therefore, the setting unit 203 calculates the acceleration in the y-axis direction of the display panel 161 by adding the value of Cos ⁇ to the acceleration in the Z-axis direction measured by the acceleration sensor 130. The setting unit 203 stores the acceleration in the y-axis direction of the display panel 161 in the RAM. The setting unit 203 repeats the above-described steps S1 to S3, and calculates acceleration in the x and y axis directions of the display panel 161 each time acceleration in the triaxial direction is input from the acceleration sensor 130. Store in RAM.
  • the setting unit 203 determines whether or not the amplitude of acceleration in the x-axis direction is greater than or equal to a preset default value (step S4).
  • step S4 it is determined whether or not vibration in the x-axis direction is generated in the navigation device 100.
  • the setting unit 203 refers to the acceleration in the x-axis direction for a predetermined time stored in the RAM, and determines whether or not the amplitude of the acceleration in the x-axis direction is greater than or equal to a preset default value.
  • the setting unit 203 sets the acceleration having the maximum value in the positive direction (for example, rightward in FIG. 4) and the negative direction (for example, in FIG.
  • the setting unit 203 adds the absolute value of the positive acceleration extracted and the absolute value of the negative acceleration. Then, the setting unit 203 compares the sum of the absolute values of the added positive and negative accelerations with a preset default value, and determines whether the acceleration amplitude in the x-axis direction is greater than or equal to the default value. Determine whether or not.
  • step S4 When the determination in step S4 is affirmative (step S4 / YES), the setting unit 203 sets the reaction region 167 of each object 165 in the x-axis direction so as to be enlarged to a size proportional to the swing width (step). S5).
  • FIG. 6A is a diagram showing a reaction region 167 set in the object 165 when vibration is generated in the navigation device 100.
  • the setting unit 203 obtains a ratio between the acceleration in the positive direction of the x axis taken out in step S4 and the acceleration in the negative direction of the x axis, and sets the reaction region 167 of the object 165 based on the obtained ratio.
  • the setting unit 203 sets the size of the reaction region 167 to be enlarged to the left side of the object 165,
  • the ratio with the size of the reaction region 167 to be expanded to the right is set to 5: 2.
  • the setting unit 203 enlarges the reaction region 167 to a size corresponding to the acceleration in a direction opposite to the direction in which the acceleration occurs.
  • FIG. 6B is a diagram showing a reaction region 167 set between two adjacent objects 165 when vibration is generated in the navigation device 100.
  • the object 165 on the right side in FIG. 6B is referred to as an object 165A (first object), and the object 165 on the left side is referred to as an object 165B (second object).
  • the reaction area 167 of the object 165A is expressed as a reaction area 167A
  • the reaction area 167 of the object 165B is expressed as a reaction area 167B.
  • the setting unit 203 determines whether or not the reaction area 167A set on the left side of the object 165A overlaps the reaction area 167B set on the right side of the object 165B. Determine. If the setting unit 203 determines that the reaction region 167A and the reaction region 167B overlap, the setting unit 203 sets the setting of the reaction regions 167A and 167B between the adjacent objects 165A and 165B according to the acceleration ratio. For example, as shown in FIG.
  • the setting unit 203 sets the ratio of the size of the reaction area 167B to be enlarged to the right side of the left object 165B and the size of the reaction area 167A to be enlarged to the left side of the right object 165A to 2: 5. .
  • step S6 determines whether or not the absolute value of the acceleration in the x-axis direction is greater than or equal to a preset specified value (step). S6).
  • step S6 it is determined whether or not the navigation device 100 is accelerating at a certain value or more in the positive or negative direction of the x axis.
  • the setting unit 203 selects the acceleration having the maximum value among the absolute value of the acceleration having the maximum value in the positive direction and the absolute value of the acceleration having the maximum value in the negative direction extracted in step S4. Then, the setting unit 203 compares the selected absolute value of the acceleration with a preset specified value, and determines whether or not the selected absolute value of the acceleration is greater than or equal to the specified value (step S6).
  • FIG. 3B is a diagram showing a reaction region 167 set between two adjacent objects when acceleration in a certain direction occurs.
  • FIG. 3B shows a case where acceleration of a certain value or more is generated in the positive direction of the x-axis.
  • the right object 165 is represented as an object 165A
  • the left object 165 is represented as an object 165B.
  • the reaction area 167 of the object 165A is expressed as a reaction area 167A
  • the reaction area 167 of the object 165B is expressed as a reaction area 167B.
  • the setting unit 203 displays the display of the other object 165 when the reaction region 167 of one object 165 is enlarged to a size corresponding to the acceleration. It is determined whether or not the region 166 overlaps.
  • the setting unit 203 gives priority to the display of the object 165B in the display area 166 of the object 165B. That is, the setting unit 203 does not enlarge the reaction area 167A to a size corresponding to the acceleration, but enlarges the reaction area 167A so as not to overlap the display area 166 of the object 165B.
  • step S6 When the determination in step S6 is negative (step S6 / NO), or when the process in step S5 or step S7 is executed, the setting unit 203 next sets the amplitude of acceleration in the y-axis direction in advance. It is determined whether or not the predetermined value is exceeded (step S8). In step S8, it is determined whether or not vibration in the y-axis direction is generated in the navigation device 100.
  • the setting unit 203 refers to the acceleration in the y-axis direction for a predetermined time stored in the RAM, and determines whether or not the amplitude of the acceleration in the y-axis direction is greater than or equal to a preset default value.
  • the process of step S8 since the process of step S8 is the same as that of step S4, detailed description is abbreviate
  • step S8 When the determination in step S8 is affirmative (step S8 / YES), the setting unit 203 sets the reaction region 167 of the object 165 in the y-axis direction to be enlarged to a size proportional to the swing width (step S9). ). Since the process of step S9 is the same as that of step S5, detailed description thereof is omitted.
  • step S10 determines whether or not the absolute value of the acceleration in the y-axis direction is greater than or equal to a preset specified value (step). S10). In this step S10, it is determined whether or not the navigation device 100 is accelerating at a certain value or more in the positive or negative direction of the y-axis. Since the process of step S10 is the same as that of step S6, detailed description thereof is omitted.
  • step S10 When the determination in step S10 is affirmative (step S10 / YES), the setting unit 203 sets the response area 167 of each object 165 in the direction opposite to the direction in which the selected acceleration is generated, and the magnitude of the selected acceleration. The image is enlarged at a size corresponding to the size (step S11). If the determination in step S10 is negative (step S10 / NO), the setting unit 203 ends this process flow.
  • the navigation device 100 sets the size of the reaction region 167 that can detect an operation on the object to a size corresponding to the direction and size of the acceleration generated in the navigation device 100. That is, instead of enlarging the display of the object 165 such as an icon, the size of the reaction area 167 that can detect an operation on the object 165 is enlarged, so that an operation error on the object 165 can be avoided without destroying the display on the display panel 161. The number of times can be reduced.
  • vibration or acceleration is generated in the host vehicle, it is easy to make an operation error without pressing the target location of the display panel 161, but the reaction area 167 is set wider than the display area 166 of the object 165. Even if the touch position deviates outside the display area 166 of the object 165, it can be detected as an operation on the object 165.
  • the navigation device 100 enlarges the reaction region 167 in a direction corresponding to the acceleration in a direction opposite to the direction of the acceleration measured by the acceleration sensor 130. For example, when acceleration is generated in the host vehicle, the user tries to maintain his / her posture against the acceleration, so the user's operation on the object may shift to the opposite side of the direction in which the acceleration occurs. There is. For this reason, in this embodiment, the operation with respect to the object 165 can be detected more reliably by enlarging the reaction region 167 in the direction opposite to the direction of acceleration.
  • the size of the reaction region 167 set in the first embodiment is reset based on the touch position touched by the user. Specifically, in the present embodiment, when the user touches the display panel 161 after setting the reaction region 167 of the object 165, the object is based on the distance between the touched touch position and the center position of the object 165. The size of the reaction area 167 of 165 is reset.
  • FIG. 7 is a flowchart illustrating a processing procedure of the control unit according to the second embodiment.
  • the setting unit 203 inputs the coordinates of the touch position output from the touch panel 152 (step S21).
  • the operation determination unit 204 determines whether or not the input coordinates of the touch position are within the reaction area 167 of the object 165 (step S22).
  • the operation determination part 204 complete
  • the operation determination unit 204 instructs the other functional blocks of the control unit 200 to execute the process associated with the touched object 165.
  • the control unit 200 controls the wireless network control unit 120 to start processing such as connecting to the Internet, outputting music from the speaker 182, highlighting the operation buttons 151, and activating a navigation function. To do.
  • FIG. 8A shows the object 165 before changing the enlargement ratio and the reaction area 167 of the object 165
  • FIG. 8B shows the object 165 after changing the enlargement ratio and the reaction area 167 of the object 165.
  • the setting unit 203 acquires data representing the display area 166 of the touched object 165 from the display control unit 202, and calculates the coordinates of the center position of the object 165 based on the acquired data (step S24).
  • the setting unit 203 calculates the distance between the coordinates of the touch position and the coordinates of the center position of the object 165 in the x-axis direction and the y-axis direction of the display panel 161, respectively (step S25). A position surrounded by a circle in FIG.
  • the setting unit 203 calculates the distance between the coordinates of the touch position and the coordinates of the center position of the object 165, the setting unit 203 converts the calculated distance into the number of pixels of the display panel 161.
  • the number of pixels in the x-axis direction from the center of the object 165 to the touch position is Tx
  • the number of pixels in the y-axis direction from the center of the object 165 to the touch position is Ty.
  • the setting unit 203 calculates the enlargement ratio ⁇ in the x-axis direction by the following expression (1), and calculates the enlargement ratio ⁇ in the y-axis direction by the expression (2) (step S26). .
  • Magnification factor ⁇ Tx / Lx / Ax (1)
  • Enlargement ratio ⁇ Ty / Ly / Ay (2)
  • the number of pixels in the x-axis direction of the object 165 displayed on the display panel 161 is Lx
  • the number of pixels in the y-axis direction of the object 165 is Ly.
  • a component in the x-axis direction of acceleration generated in the navigation device 100 is Ax
  • a component in the y-axis direction of acceleration is Ay.
  • the number of pixels Lx in the x-axis direction of the object 165 is 20 pixels
  • the number of pixels Ly in the y-axis direction is 10 pixels
  • the component Ax in the x-axis direction of acceleration generated in the navigation device 100 is 1.0 m / s 2 .
  • the component Ay in the y-axis direction of acceleration is 1.0 m / s 2 .
  • the number of pixels Tx in the x-axis direction from the center of the object 165 to the touch position is 7 pixels
  • the number of pixels Ty in the y-axis direction from the center of the object 165 to the touch position is 5 pixels.
  • the enlargement ratio ⁇ is “0.35”
  • the enlargement ratio ⁇ is “0.5”.
  • the setting unit 203 smoothes the calculated enlargement factors ⁇ and ⁇ using a low-pass filter or the like (step S27).
  • the setting unit 203 may smooth the values of the enlargement factors ⁇ and ⁇ by calculating a moving average in addition to the low-pass filter.
  • the setting unit 203 resets the size of the reaction region 167 using the smoothed magnifications ⁇ and ⁇ (step S28).
  • the setting unit 203 adds the number of pixels Lx in the x-axis direction of the object 165 and the x-axis direction component of acceleration to the smoothed enlargement ratio ⁇ , and calculates the number of pixels to be expanded in the x-axis direction.
  • the setting unit 203 calculates the number of pixels to be expanded in the y-axis direction by adding the number of pixels Ly in the y-axis direction of the object 165 and the y-axis direction component of the acceleration to the calculated enlargement ratio ⁇ .
  • FIG. 8B shows the reaction region 167 after resetting.
  • FIG. 9 is a flowchart illustrating another processing procedure of the control unit 200 according to the second embodiment.
  • FIGS. 10A and 10B are diagrams for explaining another calculation method of the enlargement ratio ⁇ and the enlargement ratio ⁇ . 10A and 10B, the enlargement ratio ⁇ and the enlargement ratio ⁇ are calculated based on the distance from the touch position on the display panel 161 to the closest end of the object 165. Note that the processing from steps S31 to S33 shown in FIG. 9 is the same as steps S21 to S23 shown in FIG.
  • the setting unit 203 calculates the coordinates of the touch position input from the touch panel 152 and the distance to the end of the object 165 closest to the touch position in the x-axis direction and the y-axis direction of the display panel 161, respectively (Step). S34). In the example shown in FIG. 10A, the distance from the touch position to the point A is calculated. Note that the touch position shown in FIG. 10A is within the display area 166 of the object 165 in the x-axis direction, and thus the distance in the x-axis direction is “0”.
  • the setting unit 203 converts the calculated distance into the number of pixels of the display panel 161.
  • the number of pixels in the x-axis direction from the touch position to the end of the object 165 closest to the touch position is Tx
  • the number of pixels in the y-axis direction is Ty.
  • the setting unit 203 calculates the enlargement ratio ⁇ in the x-axis direction by the following expression (3), and calculates the enlargement ratio ⁇ in the y-axis direction by the expression (4) (step S35). .
  • Magnification rate ⁇ Tx + T / (Lx ⁇ Ax) (3)
  • Enlargement ratio ⁇ Ty + T / (Ly ⁇ Ay) (4)
  • the number of pixels in the x-axis direction of the object 165 displayed on the display panel 161 is Lx
  • the number of pixels in the y-axis direction of the object 165 is Ly.
  • a component in the x-axis direction of acceleration generated in the navigation device 100 is Ax
  • a component in the y-axis direction of acceleration is Ay.
  • T is a constant indicating how many pixels from the touch position of the user are allowed to expand the reaction area 167. In the calculation of the enlargement factor ⁇ and the enlargement factor ⁇ , the same value may be used for T, or different values may be used.
  • the number of pixels Lx in the x-axis direction of the object 165 is 20 pixels
  • the number of pixels Ly in the y-axis direction is 10 pixels
  • the component Ax in the x-axis direction of acceleration generated in the navigation device 100 is 1.0 m / s 2 .
  • the component Ay in the y-axis direction of acceleration is 1.0 m / s 2 .
  • the number of pixels Tx in the x-axis direction from the touch position to the end of the object 165 closest to the touch position is 0 pixel
  • the number of pixels Ty in the y-axis direction is 2 pixels.
  • the value of T is 5.
  • the enlargement ratio ⁇ is “0.25”
  • the enlargement ratio ⁇ is “2.5”.
  • the setting unit 203 smoothes the calculated enlargement factors ⁇ and ⁇ using a low-pass filter or the like (step S36).
  • the setting unit 203 may smooth the values of the enlargement factors ⁇ and ⁇ by calculating a moving average in addition to the low-pass filter.
  • the setting unit 203 resets the size of the reaction region 167 using the smoothed magnifications ⁇ and ⁇ (step S37).
  • the setting unit 203 adds the number of pixels Lx in the x-axis direction of the object 165 and the component Ax in the x-axis direction of the acceleration to the smoothed enlargement ratio ⁇ , and calculates the number of pixels to be expanded in the x-axis direction. . Further, the setting unit 203 calculates the number of pixels to be expanded in the y-axis direction by adding the number of pixels Ly in the y-axis direction of the object 165 and the y-axis direction component Ay of the acceleration to the calculated enlargement ratio ⁇ . To do.
  • FIG. 10B shows the reaction region 167 after the size is reset.
  • the size of the reaction region 167 is reset according to the touch position where the user touches the display panel 161, so that the number of operation mistakes for the object 165 is reduced and the display unit 160 is displayed.
  • the detection accuracy of the operation on the displayed object 165 can be improved.
  • the enlargement ratio ⁇ and the enlargement ratio ⁇ are calculated based on the distance from the touch position on the display panel 161 to the closest end of the object 165 described with reference to FIGS. 10A and 10B.
  • the enlargement ratio can be appropriately set.
  • the navigation apparatus 100 is described as an example of the information processing apparatus, but the information processing apparatus is not limited to the navigation apparatus 100.
  • an audio device provided with a touch panel and mounted on a vehicle may be used, or a smartphone, a tablet terminal, or a laptop computer may be used.
  • the functional block of the control part 200 shown in FIG. 1 is the schematic which classified and showed the function with which the navigation apparatus 100 is provided according to the main processing content, and the structure of the navigation apparatus 100 is according to the processing content. It can also be divided into more blocks. Further, the functional block may be configured to execute more processing by one block shown in FIG. Further, the processing of each block may be executed by one piece of hardware, or may be executed by a plurality of pieces of hardware. The processing of each block may be realized by one program or a plurality of programs.
  • control program stored in the storage unit 140 may be downloaded from the network to the storage unit 140 via the wireless network control unit 120, and then loaded onto the RAM and executed by the CPU. Good. Alternatively, it may be loaded directly from the network onto the RAM via the wireless network control unit 120 and executed by the CPU.
  • processing units in the flowcharts of FIGS. 5, 7, and 9 are divided according to the main processing contents in order to facilitate understanding of the processing of the setting unit 203.
  • the present invention is not limited by the way of dividing the processing unit or the name.
  • the processing of the setting unit 203 can be divided into more processing units according to the processing content. Moreover, it can also divide
  • the processing order of the above flowchart is not limited to the illustrated example.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

 表示画面の表示を崩さずに、表示画面に表示されたオブジェクトに対する操作の検出精度を向上させる。 ナビゲーション装置100は、加速度を測定する加速度センサ130と、処理の指示を受け付けるためのオブジェクトを、表示部の表示パネルに表示する表示制御部202と、オブジェクト165に対する操作を検出する操作判定部204と、オブジェクト165に対する操作として、操作判定部204が検出可能な反応領域167を設定する設定部203とを備え、設定部203は、加速度センサ130により測定された加速度の大きさ及び方向に応じて、反応領域167の範囲を変更する。

Description

情報処理装置及び情報処理装置の制御方法
 本発明は、情報処理装置、及び情報処理装置の制御方法に関する。
 従来、表示部にタッチパネルを搭載した情報処理装置が知られている(例えば、特許文献1参照)。特許文献1には、タッチパネルに表示されるタッチキーやアイコン等の表示領域の画像を、振動検出手段により検出される振動量に応じた拡大率で拡大する表示入力装置が開示されている。
国際公開第2010/064423号パンフレット
 しかしながら、特許文献1は、タッチキーやアイコン等の画像を振動量に応じた拡大率で拡大しているため、拡大した画像が拡大していない他の画像に重なり、他の画像が隠れてしまったり、画面レイアウトが崩れてしまったりする場合がある。
 本発明は上記事情に鑑みてなされたものであり、表示画面の表示を崩さずに、表示画面に表示されたオブジェクトに対する操作の検出精度を向上させた情報処理装置及び情報処理装置の制御方法を提供することを目的とする。
 この明細書には、2014年12月15日に出願された日本国特許出願・特願2014-252691号の全ての内容が含まれる。
 上記目的を達成するために、本発明は、加速度を測定する測定部と、処理の指示を受け付けるためのオブジェクトを、表示画面に表示する表示制御部と、前記オブジェクトに対する操作を検出する検出部と、前記検出部が、前記オブジェクトに対する操作として検出可能な前記表示画面の反応領域を設定する設定部と、を備え、前記設定部は、前記測定部により測定された加速度の大きさ及び方向に応じて、前記反応領域の範囲を変更することを特徴とする。
 この構成によれば、表示画面の表示を崩さずに、表示部に表示されたオブジェクトに対する操作の検出精度を向上させることができる。
 また、本発明は、上記情報処理装置において、前記設定部は、前記反応領域を前記オブジェクトの表示範囲よりも広く設定することを特徴とする。
 この構成によれば、オブジェクトに対する操作がオブジェクトの表示範囲よりも外側に外れても、オブジェクトに対する操作として検出することができる。
 また、本発明は、上記情報処理装置において、前記設定部は、前記測定部により検出された加速度の方向とは逆方向であって、前記加速度に比例したサイズに、前記反応領域を拡大させることを特徴とする。
 この構成によれば、オブジェクトに対する操作を、より確実に検出することができる。例えば、情報処理装置が車両に搭載され、情報処理装置及び情報処理装置の使用者に加速度が生じている場合、使用者は、加速度に抗して姿勢を保とうとするため、使用者のオブジェクトに対する操作は、加速度の方向とは反対側にズレる可能性がある。このため、加速度の方向とは逆方向であって、加速度に比例したサイズに反応領域を拡大させることで、オブジェクトに対する操作を、より確実に検出することができる。
 また、本発明は、上記情報処理装置において、前記設定部は、前記オブジェクトに対する操作として使用者がタッチした前記表示画面の表示位置に応じて、前記反応領域の範囲を再設定することを特徴とする。
 この構成によれば、操作ミスの発生回数をさらに低減させ、オブジェクトに対する操作の検出精度を向上させることができる。
 また、本発明は、上記情報処理装置において、前記設定部は、第1のオブジェクトと、前記第1のオブジェクトに第1の方向で隣接する第2のオブジェクトとの間の領域に前記反応領域を設定する場合、前記第1の方向に生じる加速度と、前記第1の方向とは逆方向である第2の方向に生じる加速度との比率に応じて、前記第1のオブジェクトの前記第2のオブジェクト側に設定する反応領域と、前記第2のオブジェクトの前記第1のオブジェクト側に設定する反応領域との範囲を設定することを特徴とする。
 この構成によれば、隣接する第1のオブジェクト及び第2のオブジェクトの反応領域を加速度の比率に応じて最適に設定することができる。
 本発明は、加速度を測定する測定ステップと、処理の指示を受け付けるためのオブジェクトを、表示画面に表示する表示ステップと、前記オブジェクトに対する操作を検出部で検出する検出ステップと、前記検出部が、前記オブジェクトに対する操作として検出可能な反応領域を設定する設定ステップと、を有し、前記設定ステップは、前記測定ステップにより測定された加速度の大きさ及び方向に応じて、前記反応領域の範囲を変更することを特徴とする。
 この構成によれば、表示画面の表示を崩さずに、表示部に表示されたオブジェクトに対する操作の検出精度を向上させることができる。
 本発明によれば、表示画面の表示を崩さずに、表示画面に表示されたオブジェクトに対する操作の検出精度を向上させることができる。
図1は、ナビゲーション装置の構成図。 図2は、メニュー画面を示す図。 図3(A)は一定方向の加速度が生じている場合に、オブジェクトに設定される反応領域を示す図、図3(B)は一定方向の加速度が生じている場合に、隣接する2つのオブジェクト間に設定される反応領域を示す図。 図4は、ナビゲーション装置の本体部に対して表示パネルをチルトさせた状態を示す図。 図5は、第1の実施形態の制御部の処理手順を示すフローチャート。 図6(A)は振動が生じている場合に、オブジェクトに設定される反応領域を示す図、図6(B)は振動が生じている場合に、隣接する2つのオブジェクト間に設定される反応領域を示す図。 図7は、第2の実施形態の制御部の処理手順を示すフローチャート。 図8は、拡大率α及び拡大率βの算出方法を説明するための図。 図9は、第2の実施形態の制御部の他の処理手順を示すフローチャート。 図10は、拡大率α及び拡大率βの他の算出方法を説明するための図。
[第1の実施形態]
 図1に、情報処理装置としてのナビゲーション装置100の構成図を示す。
 ナビゲーション装置100は、位置特定部110、無線ネットワーク制御部120、加速度センサ130、記憶部140、操作部150、表示部160、モータ170、音声出力部181、スピーカ182及び制御部200を備える。
 位置特定部110は、GPSアンテナ111と、GPSユニット112と、ジャイロユニット113とを備える。GPSユニット112は、複数のGPS衛星から送られてくる電波をGPSアンテナ111で受信して、3次元測位処理又は2次元測位処理を行うことにより、ナビゲーション装置100が搭載された車両(以下、自車両という)の現在地を示す位置座標(緯度・経度座標)と進行方向とを計算する。GPSユニット112は、GPS衛星から送信されるGPS電波に代えて、GLONASS、Galileo、Beidou、QZSS(みちびき)などの測位衛星システムの信号を利用して現在位置を特定することもできる。ジャイロユニット113は、光ファイバジャイロや振動ジャイロ等により構成され、自車両の回転による角速度を検出する。
 GPSユニット112は、位置座標及び進行方向を示す情報を制御部200に出力し、ジャイロユニット113は、自車両の角速度を示す情報を制御部200に出力する。
 無線ネットワーク制御部120は、無線アンテナ121を備える。無線ネットワーク制御部120は、無線アンテナ121を介して通信回線網に接続し、通信回線網に接続されたサーバ等の他の装置との間でデータの送受信を行う。
 加速度センサ130は、3軸(X軸,Y軸,Z軸)方向の加速度を、所定のサンプリング周波数で測定し、測定した3軸方向の加速度を示す信号を制御部200に出力する。加速度センサ130には、ピエゾ抵抗型、静電容量型、熱検知型等の種々のセンサを用いることができる。また、本実施形態では、加速度センサ130をナビゲーション装置100に搭載した例を示したが、自車両に搭載された加速度センサの測定する3軸加速度をナビゲーション装置100が取得する構成であってもよい。また、本実施形態では、加速度センサ130として3軸加速度センサを例に説明したが、1軸や2軸の加速度センサを用いてもよい。
 記憶部140は、CD、DVD、ハードディスク、フラッシュメモリなどの記憶媒体で構成される。記憶部140には、制御部200が制御に使用する制御プログラムやアプリケーションプログラムの他に、ナビゲーション機能を実行する際に用いられる地図データベースや、経路案内用の音声データ等のナビゲーション用データが記憶されている。
 操作部150は、操作ボタン151に加え、表示部160の表示パネル161に重ねて配設されたタッチパネル152を備えている。使用者が表示パネル161に表示されたアイコン等に指やボタンで振れた場合、タッチパネル152の触れた位置を示す座標情報が制御部200に入力される。タッチパネル152によるタッチ位置の検出方式は、抵抗膜方式あるいは静電容量方式のいずれであっても良い。なお、操作部150の操作と同様の操作を、ステアリングに設けられたステアリングコントローラにより実行できるようにしてもよい。
 音声出力部181は、D/Aコンバータ、アンプ(いずれも図示せず)等を備え、経路案内用の音声データをデジタル/アナログ変換してアンプにより増幅し、スピーカ182により自車両の車室内に音声出力する。
 表示パネル161には、例えば液晶ディスプレイパネルやEL(Electro Luminescent)ディスプレイパネル等を用いることができる。表示部160は、制御部200から地図データ等のデータと、描画を指示する指示コマンドとを入力し、入力された描画コマンドに従って、表示パネル161に表示すべき描画データ(例えば、ビットマップ画像データ)を生成する描画プロセッサ、生成された描画データを保持するVRAM(Video RAM)、描画データに基づく画像を表示パネル161に表示する駆動回路等を備える。
 制御部200は、CPUを中心とするマイクロプロセッサとして構成されており、CPUの他に各種処理プログラムを記憶するROMと、ワーキングメモリとしてのRAMと、データを保持するNVRAMと、データの入出力を行う入出力ポートとを備える。
 また、制御部200は、機能ブロックとしてナビゲーション処理部201と、表示制御部202と、設定部203と、操作判定部204と、駆動制御部205とを備える。機能ブロックとは、ナビゲーション装置100が備えるハードウェアと、制御プログラムやアプリケーションプログラム等のプログラムとの協働によって実現される機能を、一定の機能ごとにまとめたブロックである。
 ナビゲーション処理部201は、GPSユニット112やジャイロユニット113から入力される情報に基づいて自車両の現在位置である自車位置を判定する。ナビゲーション処理部201は、判定した自車位置に基づいて、表示に必要な範囲の地図データを地図データベースから読み出す。ナビゲーション処理部201は、読み出した地図データに取得した現在地に対応する現在地マークを重ねて表示するように、表示制御部202に指示する。また、ナビゲーション処理部201は、目的地が設定された場合、現在位置から目的地までの走行ルートを探索する。そして、ナビゲーション処理部201は、読み出した地図データに、探索した走行ルートを重ねて表示するように、表示制御部202に指示する。
 表示制御部202は、表示パネル161の表示を制御する。表示制御部202は、ナビゲーション処理部201から指示と、地図データや、現在位置を示すマーク、走行ルート等を示すデータとを入力した場合には、入力した指示に応じた描画コマンドを生成して、地図データや、現在位置を示すマーク、走行ルート等を示すデータと共に表示部160に出力する。
 また、表示制御部202は、ナビゲーション装置100で提供可能な機能の一覧を示すメニュー画面や、機能の実行中に表示パネル161に表示させる画面のデータを、描画コマンドと共に表示部160に出力する。
 図2に、メニュー画面の一例を示す。メニュー画面には、ラジオ、ナビゲーション、天気予報等のナビゲーション装置100が提供可能な機能を示す複数のオブジェクト165が表示される。オブジェクト165とは、表示パネル161に表示される画像のうち、使用者の操作(処理の指示)を受け付けることが可能なものをいい、例えば、ボタンやアイコンの機能を有する画像のほか、ハイパーリンク等がこれに該当する。
 設定部203は、表示制御部202により表示パネル161に表示されたオブジェクト165の反応領域167を設定する。操作判定部204は、タッチパネル152により検出されたタッチ位置の座標に基づいて、各オブジェクト165に対する操作を検出する。 図3(A)は、一定方向の加速度が生じている場合に、オブジェクト165に設定される反応領域167を示す図である。図3(A)に斜線で示す領域が反応領域167を示している。反応領域167は、表示パネル161には表示されないが、使用者が反応領域167内をタッチした場合に、操作判定部204がオブジェクト165に対する操作であると判定する領域である。
 ナビゲーション装置100を搭載した自車両に加速度が生じている場合、使用者は、表示パネル161に表示されたオブジェクト165の画像にタッチするつもりが、加速度の影響によりオブジェクト165よりも外側にタッチしてしまう場合もある。このようなミスタッチを低減するため、設定部203は、ナビゲーション装置100に加速度が生じている場合に、反応領域167を、オブジェクト165の表示領域166よりも広く設定する。
 図3(A)は、図3(A)に向かって右方向に加速度が生じている場合に、設定部203により設定される反応領域167を示す。設定部203は、オブジェクト165の表示領域166と、オブジェクト165の表示領域166よりも左側の領域とに反応領域167を設定する。設定部203は、右方向に加速度が生じている場合、反応領域167を、加速度が生じている方向とは逆方向である、オブジェクト165の左側に、加速度に応じたサイズで拡大させる。
 操作判定部204は、タッチパネル152から入力される座標情報に基づいて、タッチパネル152の検出した座標が、オブジェクト165に対する操作であるか否かを判定する。例えば、操作判定部204は、タッチ位置の座標が、オブジェクト165の表示領域166からは外れているが、オブジェクト165の反応領域167内である場合には、オブジェクト165に対する操作であると判定する。
 駆動制御部205は、モータ170の駆動を制御して、表示パネル161をナビゲーション装置100の本体部190に対してチルト(傾斜)させる。図4は、ナビゲーション装置100の本体部190に対して表示パネル161をチルトさせた状態を示す図である。また、駆動制御部205は、モータ170を駆動して回転させると、回転させたモータ170の回転数と回転方向の情報とを不図示のRAMに記憶させる。モータ170の回転方向には、正回転と逆回転とがあり、モータ170を正回転させることで、表示パネル161がナビゲーション装置100の本体部190に対してチルトし、モータ170を逆回転させることで、チルト状態の表示パネル161を、ナビゲーション装置100の本体部190に収納させることできる。
 図5は、第1の実施形態の制御部200の処理手順を示すフローチャートである。
 まず、設定部203は、加速度センサ130により測定された3軸(X軸,Y軸,Z軸)方向の加速度を入力する(ステップS1)。加速度センサ130は、予め設定されたサンプリング周波数でナビゲーション装置100に生じるX軸,Y軸,Z軸方向の加速度を測定し、測定した加速度を制御部200に出力する。設定部203は、加速度センサ130から入力される加速度を不図示のRAMに記憶させる。
 次に、設定部203は、駆動制御部205からモータ170の回転数及び回転方向を取得し、取得した回転数及び回転方向の情報に基づいて、表示パネル161の傾きを算出する(ステップS2)。不図示のNVRAMは、モータ170の1回転により表示パネル161を傾斜させることができる傾斜角度の情報を記憶している。設定部203は、傾斜角度の情報を参照して、表示パネル161の傾きを算出する。
 次に、設定部203は、RAMに記憶させたX,Y,X軸方向の加速度に基づいて、表示パネル161のx軸方向及びy軸方向の加速度を算出する(ステップS3)。表示パネル161のx軸方向は、図4に示すように表示パネル161の水平方向に対応し、加速度センサ130の測定するX軸方向(左右軸方向)に対応する。このため、設定部203は、X軸方向の加速度を、表示パネル161のx軸方向の加速度として用いる。設定部203は、表示パネル161のx軸方向の加速度を、RAMに記憶させる。
 また、表示パネル161のy軸方向は、表示パネル161のチルト角度をθとした場合、鉛直方向であるZ軸を、チルト角度θだけ傾斜させた方向に対応する。このため、設定部203は、加速度センサ130で測定されたZ軸方向の加速度にCosθの値を積算して、表示パネル161のy軸方向の加速度を算出する。設定部203は、表示パネル161のy軸方向の加速度を、RAMに記憶させる。
 なお、設定部203は、上述のステップS1~S3の処理を繰り返し、加速度センサ130から3軸方向の加速度が入力されるごとに、表示パネル161のx,y軸方向の加速度を算出して、RAMに記憶させる。
 次に、設定部203は、x軸方向の加速度の振れ幅が、予め設定された既定値以上であるか否かを判定する(ステップS4)。このステップS4では、ナビゲーション装置100に、x軸方向の振動が生じているか否かが判定される。設定部203は、RAMに記憶された、所定時間分のx軸方向の加速度を参照して、x軸方向の加速度の振れ幅が予め設定された既定値以上であるか否かを判定する。例えば、設定部203は、所定時間分のx軸方向の加速度のうち、正方向(例えば、図4に向かって右方向)に値が最大の加速度と、負方向(例えば、図4に向かって左方向)に値が最大の加速度とを取り出す。設定部203は、取り出した正方向の加速度の絶対値と、負方向の加速度の絶対値とを加算する。そして、設定部203は、加算した正方向及び負方向の加速度の絶対値の和を、予め設定された既定値と比較して、x軸方向の加速度の振れ幅が、既定値以上であるか否かを判定する。
 ステップS4の判定が肯定判定の場合(ステップS4/YES)、設定部203は、各オブジェクト165のx軸方向の反応領域167を、振れ幅に比例したサイズに拡大されるように設定する(ステップS5)。図6(A)は、ナビゲーション装置100に振動が生じている場合に、オブジェクト165に設定される反応領域167を示す図である。設定部203は、ステップS4で取り出したx軸の正方向の加速度と、x軸の負方向の加速度との比率を求め、求めた比率に基づいてオブジェクト165の反応領域167を設定する。例えば、負方向である左方向の加速度と、正方向である右方向の加速度との比率が2:5である場合、設定部203は、オブジェクト165の左側に拡大させる反応領域167のサイズと、右側に拡大させる反応領域167のサイズとの比率を5:2に設定する。設定部203は、反応領域167を、加速度が生じている方向とは逆方向に、加速度に応じたサイズに拡大させる。このため、左方向の加速度と右方向の加速度との比率が2:5である場合、オブジェクト165の左側に拡大させる反応領域167のサイズと、右側に拡大させる反応領域167のサイズとの比を5:2に設定する。
 図6(B)は、ナビゲーション装置100に振動が生じている場合に、隣接する2つのオブジェクト165間に設定される反応領域167を示す図である。なお、図6(B)に向かって右側のオブジェクト165をオブジェクト165A(第1のオブジェクト)と表記し、左側のオブジェクト165をオブジェクト165B(第2のオブジェクト)と表記する。また、オブジェクト165Aの反応領域167を反応領域167Aと表記し、オブジェクト165Bの反応領域167を反応領域167Bと表記する。
 設定部203は、隣接するオブジェクト165A、165Bに反応領域167A、167Bを設定する場合、オブジェクト165Aの左側に設定する反応領域167Aと、オブジェクト165Bの右側に設定する反応領域167Bとが重なるか否かを判定する。
 設定部203は、反応領域167Aと反応領域167Bとが重なると判定すると、隣接するオブジェクト165A、165B間の反応領域167A、167Bの設定を、加速度の比率に応じて設定する。例えば、図6(B)に示すように、図面に向かって左方向の加速度(第1の方向に生じる加速度)と、右方向の加速度(第2の方向に生じる加速度)との比率が2:5である場合、設定部203は、左側のオブジェクト165Bの右側に拡大させる反応領域167Bのサイズと、右側のオブジェクト165Aの左側に拡大させる反応領域167Aのサイズとの比率を2:5に設定する。
 次に、ステップS4の判定が否定判定の場合(ステップS4/NO)、設定部203は、x軸方向の加速度の絶対値が予め設定された規定値以上であるか否かを判定する(ステップS6)。このステップS6では、ナビゲーション装置100に、x軸の正方向又は負方向に一定値以上の加速度が生じているか否かが判定される。設定部203は、ステップS4で取り出した正方向に値が最大の加速度の絶対値と、負方向に値が最大の加速度の絶対値とのうち、値が最大の加速度を選択する。そして、設定部203は、選択した加速度の絶対値と、予め設定された規定値とを比較して、選択した加速度の絶対値が規定値以上であるか否かを判定する(ステップS6)。
 ステップS6の判定が肯定判定の場合(ステップS6/YES)、設定部203は、各オブジェクト165の反応領域167を、選択した加速度が生じている方向とは逆方向に、選択した加速度の大きさに応じたサイズで拡大させる(ステップS7)。
 図3(B)は、一定方向の加速度が生じている場合に、隣接する2つのオブジェクト間に設定される反応領域167を示す図である。なお、図3(B)では、x軸の正方向に一定値以上の加速度が生じている場合を示している。図3(B)においても、右側のオブジェクト165をオブジェクト165Aと表記し、左側のオブジェクト165をオブジェクト165Bと表記する。また、オブジェクト165Aの反応領域167を反応領域167Aと表記し、オブジェクト165Bの反応領域167を反応領域167Bと表記する。
 一定方向に加速度が生じている場合、設定部203は、一方のオブジェクト165の反応領域167を、加速度に応じたサイズに拡大させた場合に、拡大させた反応領域167が他方のオブジェクト165の表示領域166に重なるか否かを判定する。
 設定部203は、オブジェクト165Aの反応領域167Aが、オブジェクト165Bの表示領域166に重なる場合、オブジェクト165Bの表示領域166では、オブジェクト165Bの表示を優先させる。すなわち、設定部203は、反応領域167Aを、加速度に応じたサイズに拡大させるのではなく、反応領域167Aがオブジェクト165Bの表示領域166に重ならないサイズで拡大させる。
 ステップS6の判定が否定判定の場合(ステップS6/NO)、又は、ステップS5若しくはステップS7の処理を実行した場合、設定部203は、次にy軸方向の加速度の振れ幅が、予め設定された既定値以上であるか否かを判定する(ステップS8)。このステップS8では、ナビゲーション装置100に、y軸方向の振動が生じているか否かが判定される。設定部203は、RAMに記憶された、所定時間分のy軸方向の加速度を参照して、y軸方向の加速度の振れ幅が予め設定された既定値以上であるか否かを判定する。なお、ステップS8の処理は、ステップS4と同様であるため、詳細な説明は省略する。
 ステップS8の判定が肯定判定の場合(ステップS8/YES)、設定部203は、オブジェクト165のy軸方向の反応領域167が、振れ幅に比例したサイズに拡大されるように設定する(ステップS9)。このステップS9の処理についてもステップS5と同様であるため、詳細な説明は省略する。
 次に、ステップS8の判定が否定判定の場合(ステップS8/NO)、設定部203は、y軸方向の加速度の絶対値が予め設定された規定値以上であるか否かを判定する(ステップS10)。このステップS10では、ナビゲーション装置100に、y軸の正方向又は負方向に一定値以上の加速度が生じているか否かが判定される。このステップS10の処理についてもステップS6と同様であるため、詳細な説明は省略する。
 ステップS10の判定が肯定判定の場合(ステップS10/YES)、設定部203は、各オブジェクト165の反応領域167を、選択した加速度が生じている方向とは逆方向に、選択した加速度の大きさに応じたサイズで拡大させる(ステップS11)。また、ステップS10の判定が否定判定の場合(ステップS10/NO)、設定部203は、この処理フローを終了させる。
 以上、詳細に説明したように本実施形態のナビゲーション装置100は、オブジェクトに対する操作を検出可能な反応領域167のサイズを、ナビゲーション装置100に生じる加速度の方向及び大きさに応じたサイズに設定する。すなわち、アイコン等のオブジェクト165の表示を拡大させるのではなく、オブジェクト165に対する操作を検出可能な反応領域167のサイズを拡大させるため、表示パネル161の表示を崩さずに、オブジェクト165に対する操作ミスの回数を減らすことができる。また、自車両に振動や加速度が生じていると、表示パネル161の狙った場所を押せず、操作ミスをしやすいが、反応領域167がオブジェクト165の表示領域166よりも広く設定されるので、タッチ位置がオブジェクト165の表示領域166よりも外側に外れても、オブジェクト165に対する操作として検出することができる。
 また、ナビゲーション装置100は、反応領域167を、加速度センサ130により測定された加速度の方向とは逆方向に、加速度に応じたサイズで拡大させる。例えば、自車両に加速度が生じている場合、使用者は、加速度に抗して姿勢を保とうとするため、使用者のオブジェクトに対する操作は、加速度の生じている方向とは反対側にズレる可能性がある。このため、本実施形態では、加速度の方向とは逆方向に反応領域167を拡大させることで、オブジェクト165に対する操作を、より確実に検出することができる。
[第2の実施形態]
 本実施形態は、第1の実施形態で設定された反応領域167のサイズを、使用者がタッチしたタッチ位置に基づいて再設定する。具体的には、本実施形態は、オブジェクト165の反応領域167を設定した後に、使用者が表示パネル161にタッチすると、タッチしたタッチ位置と、オブジェクト165の中心位置との距離に基づいて、オブジェクト165の反応領域167のサイズを再設定する。
 図7は、第2の実施形態の制御部の処理手順を示すフローチャートである。
 設定部203は、タッチパネル152から出力されるタッチ位置の座標を入力する(ステップS21)。
 操作判定部204は、タッチ位置の座標が入力されると、入力されたタッチ位置の座標が、オブジェクト165の反応領域167内にあるか否かを判定する(ステップS22)。ステップS22の判定が否定判定の場合(ステップS22/NO)、操作判定部204は、この処理フローを終了させる。また、ステップS22の判定が肯定判定の場合(ステップS22/YES)、操作判定部204は、タッチされたオブジェクト165に対応付けられた処理の実行を、制御部200の他の機能ブロックに指示する(ステップS23)。例えば、制御部200は、無線ネットワーク制御部120を制御して、インターネットに接続させる、音楽をスピーカ182から出力する、操作ボタン151をハイライト表示させる、ナビゲーションの機能を起動させる等の処理を開始する。
 図8(A)は、拡大率を変更前のオブジェクト165及びオブジェクト165の反応領域167を示し、図8(B)は、拡大率を変更後のオブジェクト165及びオブジェクト165の反応領域167を示す図である。
 まず、設定部203は、タッチされたオブジェクト165の表示領域166を表すデータを表示制御部202から取得して、取得したデータに基づいて、オブジェクト165の中心位置の座標を算出する(ステップS24)。次に、設定部203は、タッチ位置の座標と、オブジェクト165の中心位置の座標との距離を、表示パネル161のx軸方向、y軸方向でそれぞれに算出する(ステップS25)。図8(A)に丸で囲んだ位置が、使用者がタッチした位置を示している。設定部203は、タッチ位置の座標と、オブジェクト165の中心位置の座標との距離を算出すると、算出した距離を、表示パネル161の画素数に換算する。オブジェクト165の中心からタッチ位置までのx軸方向の画素数をTxとし、オブジェクト165の中心からタッチ位置までのy軸方向の画素数をTyとする。設定部203は、Tx及びTyを算出すると、以下に示す式(1)によりx軸方向の拡大率αを算出し、式(2)によりy軸方向の拡大率βを算出する(ステップS26)。
 拡大率α=Tx/Lx/Ax・・・(1)
 拡大率β=Ty/Ly/Ay・・・(2)
 なお、表示パネル161に表示されたオブジェクト165のx軸方向の画素数をLxとし、オブジェクト165のy軸方向の画素数をLyとする。また、ナビゲーション装置100に生じる加速度のx軸方向の成分をAxとし、加速度のy軸方向の成分をAyとする。
 例えば、オブジェクト165のx軸方向の画素数Lxが20画素、y軸方向の画素数Lyが10画素、ナビゲーション装置100に生じる加速度のx軸方向の成分Axが1.0m/sであり、加速度のy軸方向の成分Ayが1.0m/sであるとする。また、オブジェクト165の中心からタッチ位置までのx軸方向の画素数Txが7画素であり、オブジェクト165の中心からタッチ位置までのy軸方向の画素数Tyが5画素であるとする。この場合、各数値を式(1)、(2)に代入すると、拡大率αは「0.35」となり、拡大率βは「0.5」となる。
 次に、設定部203は、算出した拡大率α、βを、ローパスフィルタ等を使用して平滑化する(ステップS27)。設定部203は、ローパスフィルタの他に、移動平均を計算することで、拡大率α、βの値を平滑化してもよい。
 次に、設定部203は、平滑化した拡大率α、βを用いて、反応領域167のサイズを再設定する(ステップS28)。設定部203は、平滑化した拡大率αに、オブジェクト165のx軸方向の画素数Lxと、加速度のx軸方向成分とを積算して、x軸方向に拡大させる画素数を算出する。また、設定部203は、算出した拡大率βに、オブジェクト165のy軸方向の画素数Lyと、加速度のy軸方向成分とを積算して、y軸方向に拡大させる画素数を算出する。拡大率αを「0.35」とし、オブジェクト165のx軸方向の画素数Lxを20画素とし、加速度のx軸方向の成分Axを1.0m/sとすると、x軸方向の画素数は7画素となる。また、拡大率βを「0.5」とし、オブジェクト165のy軸方向の画素数Lyを10画素とし、加速度のy軸方向成分Aを1.0m/sとすると、y軸方向の画素数は7画素となる。図8(B)に、再設定後の反応領域167を示す。
 図9は、第2の実施形態の制御部200の他の処理手順を示すフローチャートである。また、図10(A)及び(B)は、拡大率α及び拡大率βの他の算出方法を説明するための図である。図10(A)及び(B)では、表示パネル161上のタッチ位置からオブジェクト165の最も近い端部までの距離に基づいて、拡大率α及び拡大率βを算出する。なお、図9に示すステップS31~S33までの処理は、図7に示すステップS21~S23と同一であるため、説明を省略する。
 設定部203は、タッチパネル152から入力されたタッチ位置の座標と、タッチ位置に最も近いオブジェクト165の端部までの距離を、表示パネル161のx軸方向、y軸方向でそれぞれに算出する(ステップS34)。図10(A)に示す例では、タッチ位置からA点までの距離が算出される。なお、図10(A)に示すタッチ位置は、x軸方向ではオブジェクト165の表示領域166内に入っているため、x軸方向の距離は、「0」となる。
 設定部203は、距離を算出すると、算出した距離を、表示パネル161の画素数に換算する。タッチ位置から、タッチ位置に最も近いオブジェクト165の端部までのx軸方向の画素数をTxとし、y軸方向の画素数をTyとする。設定部203は、Tx及びTyを算出すると、以下に示す式(3)によりx軸方向の拡大率αを算出し、式(4)によりy軸方向の拡大率βを算出する(ステップS35)。
 拡大率α=Tx+T/(Lx×Ax)・・・(3)
 拡大率β=Ty+T/(Ly×Ay)・・・(4)
 なお、表示パネル161に表示されたオブジェクト165のx軸方向の画素数をLxとし、オブジェクト165のy軸方向の画素数をLyとする。また、ナビゲーション装置100に生じる加速度のx軸方向の成分をAxとし、加速度のy軸方向の成分をAyとする。また、Tは、使用者のタッチ位置から最大何画素まで反応領域167の拡大が許容されるかを示す定数である。なお、拡大率αと拡大率βとの算出において、Tに同じ値を使用してもよいし、異なる値を使用してもよい。
 例えば、オブジェクト165のx軸方向の画素数Lxが20画素、y軸方向の画素数Lyが10画素、ナビゲーション装置100に生じる加速度のx軸方向の成分Axが1.0m/sであり、加速度のy軸方向の成分Ayが1.0m/sであるとする。また、タッチ位置から、タッチ位置に最も近いオブジェクト165の端部までのx軸方向の画素数Txが0画素であり、y軸方向の画素数Tyが2画素であるとする。また、Tの値が5であるとする。この場合、各数値を式(3)、(4)に代入すると、拡大率αは「0.25」となり、拡大率βは「2.5」となる。
 次に、設定部203は、算出した拡大率α、βを、ローパスフィルタ等を使用して平滑化する(ステップS36)。設定部203は、ローパスフィルタの他に、移動平均を計算することで、拡大率α、βの値を平滑化してもよい。
 次に、設定部203は、平滑化した拡大率α、βを用いて、反応領域167のサイズを再設定する(ステップS37)。設定部203は、平滑化した拡大率αに、オブジェクト165のx軸方向の画素数Lxと、加速度のx軸方向の成分Axとを積算して、x軸方向に拡大させる画素数を算出する。また、設定部203は、算出した拡大率βに、オブジェクト165のy軸方向の画素数Lyと、加速度のy軸方向の成分Ayとを積算して、y軸方向に拡大させる画素数を算出する。拡大率αを「0.25」とし、オブジェクト165のx軸方向の画素数Lxを20画素とし、加速度のx軸方向の成分Axを1.0m/sとすると、x軸方向の画素数は5画素となる。また、拡大率βを「2.5」とし、オブジェクト165のy軸方向の画素数Lyを10画素とし、加速度のy軸方向の成分Ayを1.0m/sとすると、y軸方向の画素数は25画素となる。図10(B)に、サイズを再設定後の反応領域167を示す。
 上述したように本実施形態では、使用者が表示パネル161にタッチしたタッチ位置に応じて、反応領域167のサイズが再設定されるので、オブジェクト165に対する操作ミスの回数を減らし、表示部160に表示されたオブジェクト165に対する操作の検出精度を向上させることができる。
 また、図10(A)及び(B)を参照して説明した、表示パネル161上のタッチ位置からオブジェクト165の最も近い端部までの距離に基づいて、拡大率α及び拡大率βを算出する方法では、オブジェクト165の形状が、オブジェクト165の端を狙って使用者がタッチする傾向にある横長の形状や、複雑な形状の場合に、拡大率を適切に設定することができる。
 上述した実施形態は、本発明の好適な実施の形態である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
 例えば、上述した実施形態では、情報処理装置として、ナビゲーション装置100を例に説明したが、情報処理装置はナビゲーション装置100に限定されない。例えば、タッチパネルを備え、車両に搭載されたオーディオ装置であってもよいし、スマートフォンやタブレット端末、ノートパソコンであってもよい。
 また、図1に示す制御部200の機能ブロックは、ナビゲーション装置100の備える機能を主な処理内容に応じて分類して示した概略図であり、ナビゲーション装置100の構成は、処理内容に応じて、さらに多くのブロックに分割することもできる。また、機能ブロックは、図1に示す1つのブロックによりさらに多くの処理を実行するように構成してもよい。また、各ブロックの処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各ブロックの処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。
 また、記憶部140に記憶させた制御プログラムは、例えば、無線ネットワーク制御部120を介してネットワークから、記憶部140にダウンロードされ、それから、RAM上にロードされてCPUにより実行されるようにしてもよい。また、無線ネットワーク制御部120を介してネットワークから、RAM上に直接ロードされ、CPUにより実行されるようにしてもよい。
 なお、図5、7、9のフローチャートの処理単位は、設定部203の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本発明が制限されることはない。設定部203の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、同様の設定部203が行えれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
 100 ナビゲーション装置
 110 位置特定部
 120 無線ネットワーク制御部
 130 加速度センサ
 140 記憶部
 150 操作部
 152 タッチパネル
 160 表示部
 161 表示パネル
 165 オブジェクト
 166 表示領域
 167 反応領域
 170 モータ
 200 制御部
 201 ナビゲーション処理部
 202 表示制御部
 203 設定部
 204 操作判定部
 205 駆動制御部
 

Claims (6)

  1.  加速度を測定する測定部と、
     処理の指示を受け付けるためのオブジェクトを、表示画面に表示する表示制御部と、
     前記オブジェクトに対する操作を検出する検出部と、
     前記検出部が、前記オブジェクトに対する操作として検出可能な前記表示画面の反応領域を設定する設定部と、を備え、
     前記設定部は、前記測定部により測定された加速度の大きさ及び方向に応じて、前記反応領域の範囲を変更することを特徴とする情報処理装置。
  2.  前記設定部は、前記反応領域を前記オブジェクトの表示範囲よりも広く設定することを特徴とする請求項1記載の情報処理装置。
  3.  前記設定部は、前記測定部により検出された加速度の方向とは逆方向であって、前記加速度に比例したサイズに、前記反応領域を拡大させることを特徴とする請求項1又は2記載の情報処理装置。
  4.  前記設定部は、前記オブジェクトに対する操作として使用者がタッチした前記表示画面の表示位置に応じて、前記反応領域の範囲を再設定することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
  5.  前記設定部は、第1のオブジェクトと、前記第1のオブジェクトに第1の方向で隣接する第2のオブジェクトとの間の領域に前記反応領域を設定する場合、前記第1の方向に生じる加速度と、前記第1の方向とは逆方向である第2の方向に生じる加速度との比率に応じて、前記第1のオブジェクトの前記第2のオブジェクト側に設定する反応領域と、前記第2のオブジェクトの前記第1のオブジェクト側に設定する反応領域との範囲を設定することを特徴とする請求項4記載の情報処理装置。
  6.  加速度を測定する測定ステップと、
     処理の指示を受け付けるためのオブジェクトを、表示画面に表示する表示ステップと、
     前記オブジェクトに対する操作を検出部で検出する検出ステップと、
     前記検出部が、前記オブジェクトに対する操作として検出可能な前記表示画面の反応領域を設定する設定ステップと、を有し、
     前記設定ステップは、前記測定ステップにより測定された加速度の大きさ及び方向に応じて、前記反応領域の範囲を変更することを特徴とする情報処理装置の制御方法。
     
PCT/JP2015/079701 2014-12-15 2015-10-21 情報処理装置及び情報処理装置の制御方法 WO2016098443A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/523,554 US10152158B2 (en) 2014-12-15 2015-10-21 Information processing apparatus and control method of information processing apparatus
EP15869651.8A EP3236340B1 (en) 2014-12-15 2015-10-21 Information processing apparatus and control method of information processing apparatus
CN201580067798.4A CN107003778B (zh) 2014-12-15 2015-10-21 信息处理装置及信息处理装置的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-252691 2014-12-15
JP2014252691A JP6463963B2 (ja) 2014-12-15 2014-12-15 情報処理装置及び情報処理装置の制御方法

Publications (1)

Publication Number Publication Date
WO2016098443A1 true WO2016098443A1 (ja) 2016-06-23

Family

ID=56126345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079701 WO2016098443A1 (ja) 2014-12-15 2015-10-21 情報処理装置及び情報処理装置の制御方法

Country Status (5)

Country Link
US (1) US10152158B2 (ja)
EP (1) EP3236340B1 (ja)
JP (1) JP6463963B2 (ja)
CN (1) CN107003778B (ja)
WO (1) WO2016098443A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038485A1 (ja) * 2022-08-15 2024-02-22 日産自動車株式会社 車両用入力装置及び車両用入力方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6541462B2 (ja) * 2015-06-25 2019-07-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2019239450A1 (ja) * 2018-06-11 2019-12-19 三菱電機株式会社 入力制御装置、操作装置および入力制御方法
DE102019204216A1 (de) * 2019-03-27 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer berührungsempfindlichen Bedieneinrichtung eines Kraftfahrzeugs sowie Kraftfahrzeug zur Durchführung des Verfahrens
CN111897414B (zh) * 2020-06-10 2024-01-30 中国联合网络通信集团有限公司 控制物体速度的方法、***及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009261A (ja) * 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
WO2012102055A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 電子機器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010008078A1 (ja) * 2008-07-17 2012-01-05 株式会社キャメロット 情報端末
WO2010064423A1 (ja) 2008-12-04 2010-06-10 三菱電機株式会社 表示入力装置
US20120231853A1 (en) * 2009-11-09 2012-09-13 Camelot Co., Ltd. Information terminal and input control program
JP2012027875A (ja) * 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
US20120036468A1 (en) * 2010-08-03 2012-02-09 Nokia Corporation User input remapping
JP5461352B2 (ja) 2010-09-21 2014-04-02 アルパイン株式会社 車載用ナビゲーション装置及び車載用ナビゲーション装置の手書き入力方法
JP2012118652A (ja) * 2010-11-30 2012-06-21 Sharp Corp メニュー表示制御装置
US20120317516A1 (en) * 2011-06-09 2012-12-13 Casio Computer Co., Ltd. Information processing device, information processing method, and recording medium
DE102012005084A1 (de) * 2012-03-13 2013-09-19 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Eingabevorrichtung
US20140035827A1 (en) * 2012-07-31 2014-02-06 Elwha LLC, a liability company of the State of Delaware Touch screen display compensated for a carrier-induced motion
US9229529B2 (en) * 2013-12-19 2016-01-05 Sony Corporation Apparatus and control method based on motion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009009261A (ja) * 2007-06-27 2009-01-15 Pioneer Electronic Corp タッチパネル表示装置およびタッチパネル制御方法
WO2012102055A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 電子機器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038485A1 (ja) * 2022-08-15 2024-02-22 日産自動車株式会社 車両用入力装置及び車両用入力方法

Also Published As

Publication number Publication date
EP3236340B1 (en) 2021-04-07
CN107003778A (zh) 2017-08-01
JP2016115107A (ja) 2016-06-23
US20170308214A1 (en) 2017-10-26
EP3236340A1 (en) 2017-10-25
CN107003778B (zh) 2020-03-20
US10152158B2 (en) 2018-12-11
EP3236340A4 (en) 2018-06-27
JP6463963B2 (ja) 2019-02-06

Similar Documents

Publication Publication Date Title
WO2016098443A1 (ja) 情報処理装置及び情報処理装置の制御方法
JP4678534B2 (ja) ナビゲーション装置及び地図スクロール処理方法
JP5172048B2 (ja) ナビゲーション装置及び携帯情報端末
JP4783603B2 (ja) 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体
JP5225820B2 (ja) 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
KR20130112949A (ko) 관성 센서로부터의 사용자 입력을 결정하는 방법 및 장치
JP5409874B2 (ja) ナビゲーション装置及び携帯情報端末
JP5232370B2 (ja) 地図表示装置
JP2008045914A (ja) ナビゲーション装置
JP7023775B2 (ja) 経路案内プログラム、経路案内方法及び情報処理装置
JP5283321B2 (ja) ナビゲーション装置
JP2016223898A (ja) 位置算出装置、位置算出システム及び位置算出方法
JP2008298740A (ja) ナビゲーション装置
JP2004108894A (ja) カーナビゲーション装置
JP5755512B2 (ja) ナビゲーション装置および地図表示方法
JP2007292834A (ja) 地図表示装置およびナビゲーション装置
JP4989982B2 (ja) ナビゲーション装置
JP2009250868A (ja) ナビゲーション装置
JP2011191651A (ja) 地図表示装置
WO2021125181A1 (en) Display control device and display control method
JP5345822B2 (ja) ナビゲーション装置
JP2006133454A (ja) 画像表示装置
JP2009294132A (ja) ナビゲーション装置
JP2006244402A (ja) グラフィカルユーザインタフェース
JP2017167091A (ja) 運転支援装置、運転支援方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15869651

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15523554

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015869651

Country of ref document: EP