WO2011046208A1 - モバイル機器 - Google Patents

モバイル機器 Download PDF

Info

Publication number
WO2011046208A1
WO2011046208A1 PCT/JP2010/068175 JP2010068175W WO2011046208A1 WO 2011046208 A1 WO2011046208 A1 WO 2011046208A1 JP 2010068175 W JP2010068175 W JP 2010068175W WO 2011046208 A1 WO2011046208 A1 WO 2011046208A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
acceleration
display screen
input
hand
Prior art date
Application number
PCT/JP2010/068175
Other languages
English (en)
French (fr)
Inventor
多田 佳広
裕一郎 中田
純士 藤野
祥嗣 上平
宣幸 山田
吉田 武司
田中 雅英
Original Assignee
ローム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009239166A external-priority patent/JP2011087168A/ja
Priority claimed from JP2009242039A external-priority patent/JP2011090421A/ja
Priority claimed from JP2009245535A external-priority patent/JP2011091749A/ja
Application filed by ローム株式会社 filed Critical ローム株式会社
Priority to CN201080056604.8A priority Critical patent/CN102648615B/zh
Priority to US13/502,173 priority patent/US20120206414A1/en
Publication of WO2011046208A1 publication Critical patent/WO2011046208A1/ja
Priority to US14/557,928 priority patent/US9632543B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • H04W52/0254Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Definitions

  • the present invention relates to a mobile device.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2007-280461
  • an acceleration sensor is mounted on a portable content player, and the tilt angle of the content player's axis is detected. It has been proposed to configure such that cursor movement and scrolling are performed.
  • GUI Graphic User Interface
  • the use of a touch panel in the display unit is the use of a touch panel in the display unit.
  • the present invention is to provide a mobile device that is easy to use.
  • a mobile device includes an acceleration detection unit that detects acceleration to a device, a condition identification unit, and an output of the acceleration detection unit and an output of the condition detection unit. It is set as the structure (1st structure) which has an electric power feeding control part which determines whether the electric power feeding to an apparatus is started.
  • the condition identification unit includes a state identification unit that identifies the first state and the second state
  • the power supply control unit includes the acceleration detection unit that detects acceleration.
  • the state identification unit includes a light emitting unit and a light receiving unit capable of receiving reflected light of the light from the light emitting unit.
  • a configuration for identifying the first state and the second state may be used.
  • the condition identification unit is a non-contact input unit that detects movement around the device by a light emitting unit and a light receiving unit capable of receiving reflected light of the light emitting unit.
  • the power supply control unit may be configured to determine whether or not to start power supply to the device based on a combination of the output of the light receiving unit and the acceleration detection of the acceleration detection unit (fourth configuration). .
  • the condition identifying unit identifies whether or not the acceleration detected by the acceleration detecting unit matches a predetermined pattern
  • the power feeding control unit is configured to detect the acceleration detection.
  • a configuration in which power supply to the device is started when the acceleration detected by the unit matches a predetermined pattern, and power supply to the device is not started if the acceleration is not in the predetermined pattern even when the acceleration detection unit detects the acceleration (The fifth configuration is preferable.
  • the condition identification unit includes a contact detection unit that detects contact of a human body with the device, and the power supply control unit detects acceleration by the acceleration detection unit.
  • the contact detection unit detects contact with the human body
  • power supply to the device is started, and even if the acceleration detection unit detects acceleration, the power supply to the device is not detected when the contact unit does not detect contact with the human body. It is good to make it the structure (6th structure) which does not start.
  • the mobile device having the first configuration includes a display screen, and an input unit that performs input based on display on the display screen and gravity acceleration detected by the acceleration detection unit (seventh configuration). It is good to.
  • the mobile device having the first configuration is displayed on the display screen, a display control unit that displays different instructions for input on the display screen, and the display screen.
  • a configuration (eighth configuration) including a determination unit that determines whether an input based on an instruction is made on the display screen is preferable.
  • the mobile device includes an acceleration detection unit that detects acceleration to the device, a display screen, an input unit that performs input based on display on the display screen and gravity acceleration detected by the acceleration detection unit. It is set as the structure (9th structure) which has.
  • the mobile device having the ninth configuration further includes a motion detection unit that detects the movement of the hand moved on the display screen, and the input unit includes motion detection by the motion detection unit and acceleration detection. It is good to make it the structure (10th structure) which inputs based on the acceleration detection by a part.
  • the display screen is a rectangle having a long side and a short side
  • the input means is configured so that the mobile device has a vertically long display screen based on detection by the acceleration detection unit. That detects whether the position is a position that becomes a horizontal position or a landscape position, and inputs the same meaning based on the movement of the hand in the same direction regardless of the position of the display screen based on the detection result (Eleventh configuration) is preferable.
  • the mobile device having the ninth configuration may have a configuration (a twelfth configuration) further including an updating unit that updates the reference value for detecting the gravitational acceleration necessary for input.
  • the mobile device having the ninth configuration further includes an infrared light emitting unit and an infrared light receiving unit that receives the infrared light of the infrared light emitting unit that is reflected from a hand that is moved on the display screen.
  • the input means inputs a first meaning in relation to the display screen based on information from the acceleration detection unit, and also displays the display screen based on information from the infrared light receiving unit. It is preferable to adopt a configuration (13th configuration) for inputting the second meaning in the relationship
  • the mobile device having the ninth configuration further includes an infrared light emitting unit and an infrared light receiving unit that receives the infrared light of the infrared light emitting unit that is reflected from a hand that is moved on the display screen.
  • a configuration in which the input means inputs the same meaning in relation to the display screen regardless of whether the information is from the acceleration detection unit or the information from the infrared light receiving unit (fourteenth configuration). It is good to.
  • the mobile device is based on a display screen, a display control unit that displays different instructions for input on the display screen, and the instructions displayed on the display screen. And a determination unit that determines whether or not an input has been made on the display screen (fifteenth configuration).
  • the mobile device having the fifteenth configuration further includes a movement detection unit that detects movement of the hand moved on the display screen, and the display control unit moves the hand to be moved on the display screen.
  • the instruction is displayed on the display screen, and the determination unit determines whether the movement detection unit has detected a movement corresponding to the instruction displayed on the display screen (sixteenth configuration). Good.
  • the display control unit gives different instructions on the display screen in the case of a right-hand operation and a left-hand operation in response to an input having the same meaning on the display screen. It is good to make it the structure (17th structure) displayed.
  • the mobile device having the fifteenth configuration is based on the output of the motion detection unit that detects the movement of the hand that is moved on the display screen, and the motion detection unit that is different for right hand operation and left hand operation. And an input unit that inputs the same meaning (18th configuration).
  • the mobile device having the fifteenth configuration further includes a motion detection unit that detects the movement of the hand moved on the display screen, and the determination unit is configured to perform the right hand operation and the left hand operation.
  • the detection result of the motion detection unit may be configured to determine that the input has the same meaning based on different determination criteria (19th configuration).
  • the mobile device having the fifteenth configuration includes an input unit, a camera unit that captures a direction facing the display screen, a face recognition unit that recognizes a face by processing an image of the camera unit,
  • a configuration may further include a control unit that performs input by the input unit when a face that faces the display screen is recognized by the face recognition unit.
  • FIG. 5 (A) shows an upper surface
  • FIG.5 (B) shows a back surface
  • FIG. 8 is an operation screen diagram similar to FIG. 7, showing a state of a “return” operation from FIG. 8B to FIG. 8A. It is an operation screen figure in the said Example, and shows the change of operation in the case of selecting function modes other than a telephone function from an initial screen, and a display.
  • FIG. 10 is a screen operation diagram after the state change of FIG. 9, and shows a cursor movement operation between FIG. 10 (A) and FIG. 10 (B). It is an operation screen figure in the said Example, and shows the state of the "advance” operation from FIG. 11 (A) to the "menu” screen of FIG. 11 (B). It is an operation screen figure in the said Example, and shows the state of the "advance” operation from FIG.
  • FIG. 1 is a top external view of an example of a mobile device according to an embodiment of the present invention.
  • the embodiment is configured as the mobile phone 2, most of the area on the upper surface is occupied by the display unit 4 that also serves as an input unit.
  • the display unit 4 is illuminated by a backlight.
  • an infrared light receiving sensor 6 made of a photodiode is provided at the lower right, and infrared light emitting units 8, 10 and 12 made of LEDs are respectively provided at the upper right and the lower left and right.
  • the infrared light receiving sensor 6 and the infrared light emitting sections 8, 10, and 12 are each covered with an infrared transmitting cover provided around the display section 4, so that they cannot be seen from the outside in terms of design.
  • Infrared light emitted from the infrared light emitting units 8, 10 and 12 in a time-sharing manner is reflected by an operator's finger or hand moved on the display unit 4 in association with the display. Then, when the reflected light is received by the infrared light receiving sensor 6, the position of the operator's finger or hand, the presence / absence of the movement and the direction thereof are detected, and this is input to the mobile phone 2.
  • the magnitude of the absolute output of the infrared light emitting unit 12 provided in the vicinity of the infrared light receiving sensor 6 is mainly information on the approach of a hand or a finger.
  • the relative difference in the output changes of the infrared light emitting units 8 and 12 arranged in the vertical direction is mainly information on the vertical movement of the hand or finger, and the output changes of the infrared light emitting units 10 and 12 arranged in the horizontal direction are mainly described.
  • the relative difference is mainly information on the left and right movements of the hand or finger.
  • the relative difference in the output changes of the infrared light emitting units 8 and 10 on the diagonal line is also information on the left and right movements of the hand or finger.
  • the mobile phone 2 is provided with an acceleration sensor, and tilt, vibration, shaking, etc. of the mobile phone 2 detected by the acceleration sensor are also input to the mobile phone 2. Details of the input to the mobile phone 2 will be described later.
  • the mobile phone 2 has a rectangular shape as shown in FIG. 1, and is usually used by being held with one hand in a vertically long state as shown in FIG.
  • the input operation by the infrared light receiving sensor 6 and the infrared light emitting units 8, 10, and 12 is configured on the assumption that the input operation is mainly performed by the movement of the thumb of one hand holding the vertically long mobile phone 2.
  • the display of the display unit 4 in FIG. 1 is an initial screen such as a standby screen in a state where the mobile phone 2 is turned on, but the display related to the input operation in the layout in this state holds the mobile phone 2.
  • the upper area 14 of the display unit 4 is mainly allocated to display information such as images and sentences.
  • the mobile phone 2 is configured to be able to handle one-handed operation when the mobile phone 2 is held with the right hand and with the left hand.
  • FIG. 1 shows a display when the mobile phone 2 is held with the right hand.
  • the inner camera 13 can capture the face of the operator who is looking at the display unit 4 and is also used when taking a selfie.
  • the mobile phone 2 is configured to be able to recognize the face of the image of the inner camera 13, and unless the face of the operator looking at the display unit 4 can be detected by this face recognition function, the infrared light receiving sensor 6 and the infrared light emitting Even when the units 8, 10, and 12 detect the movement of the object on the display surface 4, the input operation cannot be performed. Accordingly, it is possible to prevent malfunction when a hand or the like crosses the display surface 4 carelessly when there is no operation intention. In addition, it is also possible to prevent malfunction due to the output of the acceleration sensor by combining such face recognition information by the inner camera 13 with detection of the tilt, vibration, and shaking of the mobile phone 2 by the acceleration sensor.
  • FIG. 2 is a top external view of an embodiment of the mobile device similar to FIG. 1, but is a display when the mobile phone 2 is held with the left hand.
  • the display of the lower area of the display unit 4 is changed symmetrically with that of FIG. 1, and input is made in accordance with the movement of the right thumb and the mirror movement of the left thumb. Is changed.
  • the reference data table for determining the movement of the thumb is also changed from the right hand to the left hand.
  • the emission intensity of the infrared light emitting units 8, 10 and 12 is also changed for the right hand and the left hand.
  • the display change between FIG. 1 and FIG. 2 and the accompanying change in the reference data table identify the initial movement pattern of the finger on the display unit 4 and identify the movement specific to the right thumb or the left thumb. This is done automatically by determining whether the movement is normal. Therefore, basically, even if the manual switching operation is not performed, if the left and right hands are changed and the thumb operation is started, the display and the reference data table are automatically switched at the initial stage.
  • the right side of the mobile phone 2 is tapped with the right thumb
  • the left side of the mobile phone 2 is tapped with the left thumb to determine which side of the acceleration sensor has been tapped. Since the determination is made, it is also possible to switch manually.
  • the basic function selection unit 16 including a menu list such as “phone book”, “menu”, “mail”, “camera” and the like. There is. These selections can be made by detecting the tilt or vibration by the acceleration sensor and detecting the movement of the finger on the basic function selection unit 16 by the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6. Details thereof will be described later.
  • the “advance” finger trajectory instruction mark 18 is an instruction to input by moving the thumb on the mark clockwise as instructed, and details thereof will be described later.
  • the date / time display 20 can be adjusted or changed by moving a finger on these displays after performing a predetermined operation procedure. Does not react even if moves.
  • FIG. 3 is a top external view of the mobile phone 2 showing a screen that appears when the selection of “mail” is confirmed in the basic function selection unit 16 of FIG.
  • the selection and confirmation operation of the menu list in the basic function selection unit 16 will be described later, and the display that appears as a result of the confirmation of selection will be described with reference to FIGS. 3 and below, the display on the premise of the one-hand operation in FIGS. 7 to 12 will be described only in the case of holding the mobile phone 2 with the right hand according to FIG. 1, and the description in the case of the left-hand operation will be omitted. This is because when the mobile phone 2 is held with the left hand, it can be understood that the display is basically changed symmetrically in the same manner as in FIG.
  • an input dial 22 is displayed in the lower area of the display unit 4.
  • characters “a”, “ka”, “sa”, “ta”, “ta”, “inclination and vibration detection by an acceleration sensor, or finger movement detection by the infrared light emitting units 8, 10, and 12 and the infrared light receiving sensor 6. Select each line of “N”. A thick frame cursor is displayed on the selected line as shown by “ka” in FIG.
  • kana-kanji conversion is performed each time the thumb is moved on the window movement trajectory mark 26 along the arrow direction, and after confirming the conversion by tapping the mobile phone 2 from the back side, the window is again displayed along the arrow direction.
  • the input character is moved from the input window 24 to the display window in the upper area 14.
  • characters such as hiragana, katakana, and alphanumeric are changed, and the input dial 22 is changed each time.
  • the “advance” finger trajectory instruction mark 18 is also displayed in FIGS. 1 and 2, but here, it is used for input to advance the display screen.
  • the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 cover not only the lower region of the display unit 4 but also the upper region 14. Therefore, it is possible to input by a hand movement in the upper region 14 by a two-hand operation. For example, when the mobile phone 2 is held with the right hand, the right thumb does not reach the upper region 14 of the display unit 4 in FIG. 3, but when the left hand is swung left and right on the upper region 14, this is the infrared light emitting unit. 8, 10, and 12 and the infrared light receiving sensor 6, and page feed of the display window in the upper region 14 is executed. Similarly, when the left hand is swung up and down on the upper area 14, this is detected by the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6, and the display window in the upper area 14 is scrolled.
  • FIG. 4 is a top external view of the mobile phone 2 showing a screen that appears when the thumbnail display of the image is selected.
  • the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the entire display unit 4 is assigned to the thumbnail display regardless of the upper region and the lower region. Thumbnail designation input at this time is made possible by detection of tilt and vibration by the acceleration sensor and detection of hand movements by the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6.
  • hand movement for example, it is a two-handed operation in which the mobile phone 2 is held with the left hand and the right hand is moved left and right and up and down.
  • the selected image is displayed by the thick cursor 32, and the thick cursor 32 is moved by the operation of tilting or shaking the mobile phone 2 or the operation of moving the hand on the display unit 4 as described above.
  • the mobile phone 2 is tapped with the middle finger or the like from the back side while the thick frame cursor 32 is on any image, the selection is confirmed and the image is enlarged and displayed. If the image is a landscape image at this time, an enlarged image is displayed in the upper area 14 and an operation display for one-hand operation appears in the empty lower area.
  • FIG. 5A is a top external view of the mobile phone 2 showing a screen in such a state of side-holding operation.
  • the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • FIG. 5A illustrates a case where the menu list display of “Guide in front of the station” is performed as an example of horizontal display. Even when the “procedure in front of the station” display as shown in FIG.
  • the menu designation input at this time can also be performed by detecting tilt and vibration by the acceleration sensor and detecting both-hand operation by the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6.
  • the selected menu is displayed with a thick cursor 34, and when the mobile phone 2 is tapped with the middle finger or the like from the back side with the thick cursor 34 on any of the menus, the selection is confirmed and the detailed information display screen is displayed. .
  • the mobile phone 2 In the case of sending the horizontal cursor 34 in the horizontal writing menu as shown in FIG. 5A in the vertical direction by the movement of the hand, for example, the mobile phone 2 is held with the left hand and the right hand is moved up and down on the display unit 4. Two-handed operation. As a result, the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 detect the movement of the right hand and move the thick frame cursor 34.
  • the horizontal writing menu is displayed not only in the case of horizontal holding as shown in FIG. 5A, but also in the “phone book”, “menu”, “mail”, “camera” in the basic function selection unit 16 in FIG. It is also used in the case of vertical holding such as four menu displays.
  • the entire display unit 4 may be used for horizontal writing menu display. Even in such a case, for example, by holding the mobile phone 2 with the left hand and moving the right hand up and down on the display unit 4, the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 detect this, and the cursor Move up and down.
  • the vertical direction in the case of horizontal holding as shown in FIG. 5A is the line direction connecting the infrared light emitting unit 10 and the infrared light emitting unit 12, whereas as shown in FIG.
  • the vertical direction in the case of vertical holding is a line direction connecting the infrared light emitting unit 8 and the infrared light emitting unit 12. Therefore, when the hand is moved in the vertical direction in the case of holding vertically or horizontally, the outputs of the infrared light emitting units 8, 10, and 12 are different. Therefore, the horizontal acceleration or the vertical holding is identified by the gravitational acceleration detected by the acceleration sensor, and the determination reference data table of the output of the infrared light emitting units 8, 10, 12 is switched between the horizontal holding and the vertical holding. As a result, the cursor can be moved up and down by a unified hand movement in the vertical direction regardless of whether it is horizontally held or vertically held.
  • the thumbnail display of the image is adopted not only when the image is vertically held as shown in FIG. 4 but also when it is horizontally held.
  • the outputs of the infrared light emitting units 8, 10, and 12 are different depending on whether the cursor is moved vertically or vertically depending on the movement of the hand. Therefore, also when detecting the movement of the hand when the thick cursor 32 is moved up, down, left and right as shown in FIG. 4, the acceleration sensor identifies whether the hand is held horizontally or vertically, and the output of the infrared light emitting units 8, 10, 12 is The judgment reference data table is switched between horizontal holding and vertical holding. As a result, the cursor can be moved in the up / down / left / right direction by unified hand movements in the up / down / left / right direction regardless of whether it is horizontally held or vertically held.
  • the acceleration sensor detects this, and the horizontally long display unit 4 as shown in FIG. A horizontally enlarged image can be displayed.
  • the page turning of each image is performed by the left and right movement of the hand, and the zoom operation of the image is performed in the vertical direction of the hand. It can be done by movement.
  • the outputs of the infrared light emitting units 8, 10, and 12 due to the left and right hand movements and the vertical movements of the hands are different depending on whether they are held vertically or horizontally.
  • FIG. 5B is an external view of the back surface of the mobile phone 2 and is illustrated in a side-holding state similar to FIG. 5A, but particularly for explaining matters related to the side-holding state. Rather, they are shown for explaining the features related to the back surface configuration.
  • the rear camera 42 is provided on the rear surface of the mobile phone 2 so that the user can take a picture while viewing the image displayed on the display unit 4.
  • a back infrared light emitting unit 35 and a back infrared light receiving sensor 37 are provided in the vicinity thereof.
  • the rear infrared light emitting unit 35 and the rear infrared light receiving sensor 37 are covered with an infrared transmission cover, like the rear infrared light receiving sensor 6 and the infrared light emitting units 8, 10, and 12 on the upper surface. .
  • the back infrared light receiving sensor 37 detects the state of reflection of infrared rays from the back infrared light emitting unit 35, so that the mobile phone 2 is placed in close contact with a desk or the like with the back in the back, and the mobile phone 2. Is configured so that it can be discriminated from the state held by the hand.
  • the rear camera 42 further functions as the rear infrared light receiving sensor 37 to increase the detection capability.
  • the dedicated rear infrared light receiving sensor 37 can be omitted.
  • the mobile phone 2 is in a so-called “standby” state for most of the time, and the display is turned off and the power consumption of the internal configuration is minimized.
  • the display of the mobile phone 2 is turned on to activate the function, the back surface or the side surface of the mobile phone 2 is tapped with the middle finger or the thumb.
  • the acceleration sensor of the mobile phone 2 determines that the activation operation has been performed by detecting the vibration caused by the tap, turns on the display, and activates various functions.
  • the acceleration sensor is supplied with a weak current in a standby state, and the acceleration sensor can always detect vibration for a start operation in a low power consumption mode lower than normal operation. Is done.
  • the acceleration sensor it is necessary to prevent the acceleration sensor from mistaking the vibration other than the tap intended for activation as the activation operation.
  • the rear infrared light emitting unit 35 and the rear infrared light receiving in FIG. The combination of the sensors 37 is a means for preventing such erroneous activation.
  • the infrared light emitting unit 35 emits weak infrared light intermittently, and the back infrared light receiving sensor 37 is placed in a state where the reflection of the infrared light can be detected. Accordingly, the reflected light increases due to the approach of the desk surface when the mobile phone 2 is placed on a desk or the like with the back face behind, and the reflected light is maximized and stabilized by the close contact with the desk surface.
  • the infrared light emitting unit 35 and the back infrared light receiving sensor 37 are arranged close to each other, and the infrared light emitting unit 35 even if the back surface of the mobile phone 2 is in close contact with a desk surface or the like.
  • the rear infrared light receiving sensor 37 is disposed at a position slightly sinking from the rear surface of the mobile phone 2 so as not to be blocked by the desk surface. As described above, the reflected light change pattern peculiar when the mobile phone 2 is placed on the desk surface is detected by the infrared light receiving sensor 37, and the mobile phone 2 is then lifted from the time of detection of the reflected light pattern change. Until the point of time when the reflected light attenuation is detected, even if the acceleration sensor detects vibration, the activation is prohibited. As a result, it is possible to prevent erroneous start-up when someone hits the desk on which the mobile phone 2 is placed, or when the mobile phone 2 is always placed on a vehicle seat that vibrates.
  • the combination of the infrared light emitting unit 12 and the infrared light receiving sensor 6 that are close to each other is also provided with a similar erroneous start prohibiting function, so that the cellular phone 2 can be placed on a desk or seat with the face down. It is possible to cope with the case.
  • the momentary impact when the mobile phone 2 is placed on a desk or the like is detected by an acceleration sensor, and the increase pattern of reflected light from the approach of the desk surface to the close contact and the impact at the time of close contact with the desk surface by the acceleration sensor
  • You may comprise so that starting prohibition may be started more reliably by detecting that the mobile phone 2 is placed on a desk or the like by a combination of detection.
  • the activation prohibition may be canceled based on a combination of detection of an increase in reflected light when the mobile phone 2 is lifted and acceleration detection when the mobile phone 2 is lifted.
  • This combination is not limited to the combined use of reflected light increase detection output and acceleration detection output.
  • the functions of the rear camera 42 and the rear infrared light emitting unit 35 are stopped, and the functions of the rear camera 42 and the rear infrared light emitting unit 35 are activated when the acceleration sensor detects acceleration.
  • Combinations as configured are also possible. According to such a combination, the reflected light intensity at the time of close contact with the back surface is stored, and the reflected light intensity detected when the acceleration is detected is compared with the stored reflected light intensity, thereby detecting the acceleration.
  • FIG. 6 is a block diagram of the mobile phone 2 in the embodiment of the mobile device of the present invention as described above.
  • a mobile phone control unit 36 including a microcomputer is driven by a predetermined clock to control the mobile phone 2 and performs a normal mobile phone function in cooperation with the telephone function unit 38.
  • the storage unit 40 stores a computer program necessary for the function of the mobile phone function unit 36 and stores necessary data.
  • text data such as a telephone directory and image data taken by the rear camera 42 are also stored.
  • the acceleration sensor 44 detects the tilt, vibration, impact, etc. of the mobile phone 2 as input information and sends the detection information to the mobile phone control unit 36.
  • the LED driver 46 controls light emission of the infrared light emitting units 8, 10, 12 made of LEDs in a time-sharing manner based on an instruction from the mobile phone control unit 36. Further, the photodiode driver 48 detects the light reception state of the infrared light receiving sensor 6 formed of a photodiode based on an instruction from the mobile phone control unit 36 and sends it to the mobile phone control unit 36. At this time, since the LED driver 46 and the PD driver 48 are linked in a time-sharing manner, it is possible to identify which infrared light emitting unit 8, 10, 12 the output of the infrared light receiving sensor 6 is based on.
  • the LED driver 46 can change the light emission intensity of the infrared light emitting units 8, 10 and 12 by PWM control or the like. As already described, the detection of the movement of the left thumb and the movement of the right thumb can be performed. Depending on the case, the emission intensity can be changed.
  • the side electrostatic sensor 49 detects whether or not the mobile phone 2 is held by the operator's hand, and sends the detection result to the mobile phone control unit 36 to thereby accelerate the acceleration sensor 44 when there is no operation intention. And erroneous detection of operation input by the infrared light receiving sensor 6 is eliminated. Specifically, unless it is detected that the mobile phone 2 is held by the operator's hand, the mobile phone 2 is placed on a desk or a vehicle seat by prohibiting activation by the acceleration sensor 44. It is possible to prevent erroneous start-up from the standby state. In this way, even by the direct detection of the operator's holding by the side electrostatic sensor 49, it is possible to prevent erroneous activation similar to the combination of the rear camera 42 and the rear infrared light emitting unit 35.
  • the audio output unit 43 reproduces audio content such as music stored in the storage unit 40 and has a function of converting audio content data into an audio signal, and an external accessory such as a speaker and an earphone using the audio signal as an audio signal. Have an output terminal for outputting an audio signal.
  • the acceleration sensor 44 also serves as an input unit for adjusting the volume of the audio signal by the audio output unit 43, and detects the tap location or tap rhythm pattern to the mobile phone 2 to increase or decrease the volume.
  • FIG. 7 is an operation screen diagram showing the details of the operation, and the case of one-hand operation as shown in FIGS. 1 to 3 is described. Only a lower area of the display screen 4 is shown in order to list screen changes due to operations. The same components as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted unless necessary.
  • FIG. 7A shows a display screen similar to that in FIG. 1, and is an initial screen in a state where the mobile phone 2 is turned on as described in FIG. In order to turn on the mobile phone 2, the mobile phone 2 is tapped a plurality of times with a predetermined rhythm with the middle finger or the like from the back.
  • This predetermined rhythm is one of means for preventing unintentional power on due to inadvertent vibration of the mobile phone 2, and a favorite rhythm that does not occur in nature can be registered in advance.
  • the malfunction prevention function based on the predetermined rhythm registration can also be employed to prevent malfunction when the functions are activated by turning on the display from a standby state in which the mobile phone 2 is powered on.
  • the “advance” finger trajectory instruction mark 18 is hatched, which indicates that the finger has been detected to move along the trajectory.
  • the display is changed to the telephone mode shown in FIG. 7B, and the dial number board 50 and the like are displayed.
  • the broken line arrow 52 indicates the display change direction from FIG. 7A to FIG. 7B.
  • the dial number can be input by detecting an inclination or vibration by the acceleration sensor 44 and detecting a thumb operation by the infrared light emitting units 8, 10, and 12 and the infrared light receiving sensor 6.
  • a thick frame cursor 54 is displayed on the selected number, and when the mobile phone 2 is tapped with the middle finger or the like from the back side with the thick frame cursor 54 on any number, the number is fixed and the number display window 56 is displayed. Input is made.
  • the input of the dial number is completed and the finger is moved along the “advance” finger locus instruction mark 18 in the state of FIG. 7B, a call to the dial destination is executed.
  • reception starts and the state shifts to the state of FIG. 7B. .
  • FIG. 8 is a view similar to FIG. 7, but in FIG. 8B, the movement of the counterclockwise finger along the locus is detected so that the “return” finger locus instruction mark 30 is hatched. Indicates a state. When this detection is performed, first, when a number is input in the number display window 56, one number is detected each time a finger movement along the "return” finger locus instruction mark 30 is detected. It will be canceled one by one. This makes it possible to correct erroneous input. In addition, when the movement of the finger along the “return” finger locus instruction mark 30 is detected in the state where the number is not input to the number display window 56, the initial screen shown in FIG. Return to. In the call state, communication is interrupted when movement of the finger along the “return” finger locus instruction mark 30 is detected from the screen of FIG.
  • the input detection by the combination of the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 described above is based on detection of relative movement between the mobile phone 2 and a hand or a finger. Therefore, even if the finger or hand moves as intended, if there is an unintentional blur on the mobile phone 2 itself, the relative movement is a combination of the movement of the finger or hand and the blur of the mobile phone 2 itself.
  • the outputs of the light emitting units 8, 10, and 12 may not always accurately reflect the intention of moving a finger or hand.
  • the acceleration sensor 44 detects the shake of the mobile phone 2 itself, and corrects the output of the infrared light emitting units 8, 10, and 12 to information when the mobile phone 2 itself has no shake. . In addition, this correction learns not only the blur information detected at that time, but also individual differences in blurring of the mobile phone 2 that are specific to one-handed and two-handed operations when moving a finger or hand. Such learning information is also taken into consideration.
  • FIG. 9 shows changes in operation and display when a function mode other than the telephone function is selected from the initial screen.
  • the mobile phone 2 is tapped a plurality of times with a predetermined rhythm with the middle finger or the like from the back side in the same manner as when the power is turned on.
  • a favorite rhythm that does not occur in nature can be registered in advance. This rhythm may be the same as when the power is turned on, or a different one may be registered.
  • the acceleration sensor 44 detects this touch, the state changes from FIG. 9 (A) to FIG. 9 (B) as indicated by the broken arrow 52, and “phone” is displayed to indicate that the basic function selection unit 16 is activated.
  • the thick frame cursor 60 is displayed in any of the four menu lists “book”, “menu”, “mail”, and “camera”.
  • FIG. 10 shows a cursor movement operation in a state where the basic function selection unit 16 is activated through the progress from FIG. 9 (A) to FIG. 9 (B).
  • the movement of the thick frame cursor 60 in this state is performed when the acceleration sensor 44 detects the inclination of the mobile phone 2. Specifically, when the upper surface of the mobile phone 2 is facing upward, when the upper side of the mobile phone 2 is relatively lifted, the thick frame cursor 60 moves upward as shown in FIG. 10 (A) to FIG. 10 (B). Move down from. Conversely, when the lower side of the cellular phone 2 is relatively lifted when the upper surface of the cellular phone 2 is facing upward, the thick frame cursor 60 is viewed from below as shown in FIGS. 10 (B) to 10 (A). Move upward.
  • the operation for resetting the reference position may be performed not only by the movement of the thumb in the one-hand operation but also by moving the empty hand in the two-hand operation so as to cross the entire display unit 4. Then, the gravitational acceleration detected by the acceleration sensor 44 at the inclination of the mobile phone 2 for which the reference position has been reset is stored in the storage unit 40, and with this stored value as a reference, this and the subsequent detection output of the acceleration sensor 44 are carried by the mobile Comparison is made by the telephone control unit 36 to determine which of the upper side and the lower side of the mobile phone 4 has been lifted relatively thereafter. In this way, since the reference position is reset each time the finger or hand is shaken on the display unit 4, even if the posture is changed while holding the mobile phone 2, the thick frame cursor 60 moves unintentionally. Can be prevented.
  • FIG. 11A shows that the finger has moved along the locus of the “advance” finger locus instruction mark 18 in the state where the thick frame cursor 60 is in the “menu” in the menu list of the basic function selection unit 16.
  • Sections 8, 10, and 12 and the infrared light receiving sensor 6 indicate a state where selection of “menu” in the menu list is confirmed.
  • the “advance” finger locus instruction mark 18 is hatched.
  • the display is changed to the detailed menu selection mode shown in FIG. 11B as indicated by an arrow 52, and a plurality of detailed menu icons 64 are displayed. Become so. Selection of the detailed menu icon 64 can be performed by any of detection of tilt and vibration by the acceleration sensor 44 and detection of thumb operation by the infrared light emitting units 8, 10, and 12 and the infrared light receiving sensor 6.
  • a thick frame cursor 66 is displayed.
  • the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 detect this. Then, the selection of the detailed menu icon is confirmed and the transition to the next screen is performed.
  • the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 are activated. This is detected, and the screen from FIG. 11 (B) to FIG. 11 (A) is restored.
  • FIG. 12A shows that the finger moves along the locus of the “advance” finger locus instruction mark 18 in the state where the thick frame cursor 60 is in “mail” in the menu list of the basic function selection unit 16.
  • Sections 8, 10, and 12 and infrared light receiving sensor 6 indicate a state where selection of “mail” in the menu list is confirmed.
  • the display change from FIG. 12 (A) to FIG. 12 (B) as shown by the arrow 52 is performed, and the mail input screen is displayed. Is done. This is the same as FIG. 3, and the details of the operation have been described with reference to FIG.
  • FIG. 12B when the finger is moved along the locus to the “return” finger locus instruction mark 30, the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 are detected, and characters are input to the input window 24. In this case, each time a finger movement along the “return” finger locus instruction mark 30 is detected once, the character is canceled one by one. In addition, when a character is moved along the “return” finger locus instruction mark 30 in a state where no character is input in the input window 24, the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 detect this, and FIG. 12 (B) returns to the screen of FIG. 12 (A).
  • FIG. 13 is a basic flowchart showing functions of the mobile phone control unit 36 of FIG. 6 in the embodiment of the present invention.
  • the flow starts when the main power supply of the mobile phone 2 is turned on.
  • step S2 the mobile phone 2 is initially started up and the functions of each unit are checked.
  • step S4 a standby screen for right-hand operation as shown in FIG.
  • step S6 the infrared light emitting units 8, 10, 12 and the infrared light receiving sensor 6 on the front surface, the infrared light emitting unit 35 and the infrared light receiving sensor 37 on the back surface, the side electrostatic sensor 49, and the acceleration sensor 44 are activated.
  • step S8 it is checked whether or not the non-detection state by these sensors continues for a predetermined time. If the non-detection state continues, the process proceeds to step S10 to enter a power saving mode in which the backlight of the display unit 4 is turned off and the clock cycle of the mobile phone control unit 36 is reduced.
  • step S10 the infrared light emitting units 8, 10, 12, 35 and the infrared light receiving sensors 6, 37 are further deactivated. In the activated state, these light emitting / receiving units repeatedly emit and receive light at a predetermined cycle and detect the movement of hands and fingers, but in the inactive state, at least the infrared light emitting units 8, 10, 12, and 35 Light emission is stopped.
  • step S12 activation for returning from the power saving mode to the normal operation mode is performed, and processing for activating the light emitting / receiving section is started.
  • This process is a process for detecting the lifting of the mobile phone 2 or the like and starting it automatically, the details of which will be described later. Then, the result of this process is checked in step S14, and it is confirmed whether or not the activation to the normal mode has been performed. If activation to the normal operation cannot be confirmed, the process returns to step S12, and thereafter, steps S12 and S14 are repeated to wait for activation. On the other hand, if the activation to the normal operation is confirmed in step S14, the process proceeds to step S16. If it is confirmed in step S8 that no detection has occurred for a predetermined time, the process directly proceeds to step S16. This is because the normal operation mode is continued without entering the power saving mode.
  • step S16 it is checked whether the movement of the hand or finger by the light emitting / receiving unit is detected. If any detection is made, the process proceeds to step S18, and the process for switching the screen of the display unit 4 to the right-hand operation screen as shown in FIG. 1 or the left-hand operation screen as shown in FIG. 2 based on the detected movement. I do. As described above, this process identifies the initial movement pattern of the finger on the display unit 4 and determines whether the movement is specific to the right thumb or the left thumb. Then, after switching left and right as necessary, the process proceeds to step S20. If no movement of the hand or finger by the light emitting / receiving unit is not detected in step S16, the process directly proceeds to step S20.
  • step S20 it is checked whether the mobile phone 2 has received an incoming call. If there is an incoming call, the process proceeds to step S22, and it is checked whether or not the light emitting / receiving unit has detected the movement of the finger tracing the “advance” finger locus instruction mark 18 in FIG. If there is this movement during an incoming call, it means that the receiving operation has been performed. When this movement is detected, the process proceeds to a call process in step S24. Call processing is processing during normal phone calls. On the other hand, if the receiving operation as described above is not detected in step S22, the process returns to step S16, and thereafter, steps S16 to S22 are repeated as long as the incoming call state continues, and the receiving operation is waited.
  • step S24 processing for detecting input to various mobile phones 2 by the light emitting / receiving section or the acceleration sensor 44 as described with reference to FIGS. 1 to 12 is performed. Note that step S26 also includes a left-right switching process similar to step S18. Details of the input detection process in step S26 will be described later.
  • step S28 processing for detecting input to various mobile phones 2 by the light emitting / receiving section or the acceleration sensor 44 as described with reference to FIGS. 1 to 12 is performed.
  • step S26 also includes a left-right switching process similar to step S18. Details of the input detection process in step S26 will be described later.
  • step S30 Details of the input handling process in step S30 will be described later.
  • the process proceeds to step S32.
  • the process directly proceeds to step S32.
  • step S32 it is checked whether or not the main power supply is turned off, and if main power supply off is not detected, the process returns to step S8.
  • Step S8 to Step S32 are repeated, and the response to various inputs, the transition to the power saving mode, and the return to the normal operation mode are executed.
  • the main power supply is detected to be off in step S32, the flow ends.
  • FIG. 14 is a flowchart showing details of the activation / light emitting / light receiving unit activation processing in step S12 of FIG.
  • step S42 it is checked in step S42 whether or not there is a predetermined pattern tap for activation on the mobile phone 2. This check is executed by collating the detection pattern obtained by the acceleration sensor 44 with the detection pattern table. If a predetermined pattern tap is not detected in step S42, the process proceeds to step S44, and it is checked whether there is an incoming call to the mobile phone 2. If no incoming call is detected, the process proceeds to step S46.
  • step S46 it is checked whether a predetermined acceleration by the acceleration sensor 44 is detected. Even in the power saving mode, the acceleration sensor 44 is always activated although the check cycle is slow, and acceleration can be detected.
  • the process proceeds to step S48, and the infrared light emitting units 12, 35 and the infrared light receiving sensors 6, 37 are activated.
  • the reason why the light emitting unit 12 is activated on the surface is that it is close to the infrared light receiving sensor 6 and has the same contact detection function as that of the rear infrared light emitting unit 35.
  • step S50 the rear camera 42 is turned on.
  • step S52 the outputs of the front infrared light receiving sensor 6, the rear infrared light receiving sensor 37, and the rear camera 42 are stored, and the process proceeds to step S54.
  • step S54 the side electrostatic sensor 49 detects whether or not the mobile phone 4 is held by the operator's hand. If there is no detection, the process proceeds to step S56, where it is checked whether the outputs of both the front infrared light receiving sensor 6 and the rear infrared light receiving sensor 37 are below a predetermined value. This means that it is checked whether both of the front surface and the back surface of the mobile phone 2 are not close to a surface that causes strong reflected light from the infrared light emitting units 12 and 35. To do.
  • step S56 it means that at least the front surface or the back surface of the mobile phone 2 is close to some surface, so the process proceeds to step S58, and the output of the infrared light receiving sensor 6 on the front surface is stored in step S52.
  • step S58 is not applicable, the surface of the mobile phone 2 may be in a state of being placed on some surface, so the process proceeds to step S60, and the output of the back infrared light receiving sensor 37 is stored in step S52.
  • Check if the output has changed more than the specified value This means that it is checked whether or not the mobile phone 2 is moving from some surface close to the back surface of the mobile phone 2.
  • step S62 the output of the rear camera 42 is determined from the output stored in step S52.
  • step S64 it is checked whether or not the mobile phone 2 is moving from some surface close to the back surface of the mobile phone 2. Even if it does not correspond to step S62, since there is a possibility that the back surface of the mobile phone 2 is still placed on some surface, the process proceeds to step S64.
  • step S64 it is checked whether or not a predetermined time has elapsed since the first acceleration was detected in step S46. If no time has elapsed, the process proceeds to step S68 to check whether acceleration detection by the acceleration sensor 44 is continued. If the acceleration detection continues, the process returns to step S54, and thereafter, as long as the acceleration detection continues, the steps S54 to S68 are repeated until the predetermined time elapses, so that one of the steps S54 to S64 is applicable. Wait for the state to do. On the other hand, if it is confirmed in step S68 that the acceleration detection is not continued, the process proceeds to step S70. Further, when the predetermined time has elapsed in step S64, it is considered that the mobile phone 4 remains in close contact with some surface even if acceleration detection is continued, and the repetition of steps S54 to S68 is stopped. Control goes to step S70.
  • step S70 the infrared light emitting units 12 and 35 and the infrared light receiving sensors 6 and 37 are deactivated, and in step S72, the rear camera 42 is turned off to end the flow.
  • step S72 the infrared light emitting units 8, 10, 12, 35 and the infrared light receiving sensors 6, 37 are activated in step S74.
  • step S76 the mobile phone 2 is immediately returned to the start mode. This is because in these cases, it is certain that the mobile phone 2 should be activated. And a flow is complete
  • step S74 when a state corresponding to any of step S54 to step S64 occurs, the process immediately proceeds to step S76, and the mobile phone 2 is immediately returned to the start mode. Then, the rear camera 42 that was turned on in step S50 is turned off in step S72, and the flow ends.
  • the mobile phone 2 when a predetermined acceleration is detected in step S46 and it is determined that the acceleration is caused by lifting the mobile phone 2 by checking from step S54 to step S64, the mobile phone 2 is automatically activated. Return to mode. If none of the steps S54 to S64 correspond, even if acceleration is detected in step S46, the mobile phone 2 is placed on a desk or a vehicle seat or the mobile phone 2 is put in a pocket. In the state, it is considered that there was only some acceleration and there was no intention of activation, and activation is prohibited.
  • FIG. 15 is a flowchart showing details of the input detection process in step S26 of FIG.
  • step S82 it is checked in step S82 whether the current display on the display unit 4 is a one-hand operation screen. If it is a one-hand operation screen, the process proceeds to step S84, and it is checked whether movement of the hand or finger by the light emitting / receiving unit is detected. If there is any detection, the process proceeds to step S86, and the process for switching the screen of the display unit 4 to the right hand operation screen as shown in FIG. 1 or the left hand operation screen as shown in FIG. 2 based on the detected movement. I do. Then, after switching left and right as necessary, the process proceeds to step S88.
  • step S84 If no movement of the hand or finger by the light emitting / receiving unit is not detected in step S84, the process directly proceeds to step S88. Also, when it is confirmed in step S82 that the one-hand operation screen display state is not displayed, the process directly proceeds to step S88.
  • step S88 it is checked whether an acceleration of a pattern other than that assumed for input detection is detected.
  • correction for canceling the absolute movement of the mobile phone 2 is performed, and the process proceeds to step S90.
  • the significance of step S90 is that, as already described, the detection output of the light emitting / receiving unit includes the blurring effect of the mobile phone 2 itself, and the detection output does not accurately reflect the intention of moving the finger or hand. It is a countermeasure. In other words, when an unexpected acceleration is detected, it is determined that an unintentional blur has occurred in the mobile phone 2 due to the movement of the finger or hand, and the absolute movement of this pre is canceled.
  • the detection output is corrected when a finger or hand is moved with respect to the mobile phone 2 without blur.
  • step S88 the process directly proceeds to step S92.
  • step S92 gravity acceleration is detected, and in step S94, it is checked whether the screen of the mobile phone 2 has been changed between the vertical screen and the horizontal screen based on the detection output. If there is a change, a vertical / horizontal replacement input detection process is performed in step S96, and the process proceeds to step S98. Details of the vertical / horizontal interchange input detection process will be described later. On the other hand, if the vertical screen / horizontal screen change is not detected in step S94, the process directly proceeds to step S98. In step S98, input detection by the light emitting / receiving unit is performed in consideration of the above processing.
  • step S100 the presence / absence of gravity acceleration inversion is detected. This is to see whether or not the gravitational acceleration is reversed between the state in which the display unit 4 is looked down from above and the state in which the user lies down and looks up from the bottom.
  • the top-and-bottom replacement process in step S102 is performed, and the process proceeds to step S104.
  • the process directly proceeds to step S104.
  • step S104 it is checked whether or not the mobile phone 2 is in a stopped state without detecting acceleration for a predetermined time. If this is not the case, the process advances to step S106 to detect whether the light emitting / receiving unit has detected a predetermined movement of the finger or hand. This predetermined movement is a relatively simple operation such as a finger or a hand crossing once on the display unit 4. When this movement is detected in step S106, the process proceeds to step S108, the rotation detection reference position is reset and stored, and the process proceeds to step S110. In addition, when the mobile phone 2 is stationary for a predetermined time or longer and no acceleration is detected for a predetermined time in step S104, the process proceeds to step S108, and the rotation detection reference position is reset and stored in the stationary position.
  • the mobile phone 2 is automatically reset / stored when the mobile phone 2 is stationary for a predetermined time. Also, if the finger or hand moves across the display unit 4 before the predetermined time elapses, the mobile phone 2 is reset / stored immediately. You can remember.
  • step S108 the significance of step S108 is to make the absolute horizontal state not necessarily the reference position when the thick frame cursor 60 is moved on the menu in FIG. 10, for example. That is, when the display unit 4 is at a predetermined angle, the rotation detection reference position is reset in step S108, and the gravitational acceleration at that time is stored in the storage unit 40. The rotation of the mobile phone 2 can be detected by comparison with the gravitational acceleration detected at (1).
  • step S110 the above processing is taken into account, input detection by the acceleration sensor 44 is performed, and the flow ends.
  • the light receiving / light emitting unit input detection information in step S98 in FIG. 15 and the acceleration input detection information in step S110 are information sources of the input correspondence processing in step S30 in FIG.
  • FIG. 16 is a flowchart showing details of the input handling process in step S30 of FIG.
  • step S112 it is checked in step S112 whether the display on the current display unit 4 is a standby screen as shown in FIG. If it is the standby screen, the process proceeds to step S114, and it is checked whether or not the finger movement of the “advance” operation by the light emitting / receiving unit is detected. When this is detected, the screen shifts to a telephone call screen in step S116. This corresponds to the operation described in FIG. Next, the call processing of step S118 is entered. When a call is made from a call and the call is terminated or the call is terminated, the process proceeds to step S120. If no “advance” operation is detected in step S114, the process directly proceeds to step S120.
  • step S120 the acceleration sensor 44 checks whether the mobile phone 2 has been tapped a plurality of times at a predetermined rhythm. When this is detected, the process proceeds to step S122, the menu screen is changed, and the process proceeds to step S124. This corresponds to the operation described in FIG. On the other hand, if a predetermined number of rhythm taps are not detected in step S120, the process directly proceeds to step S124. If it is not detected in step S112 that the current standby screen is being displayed, the process proceeds directly to step S124.
  • step S124 it is checked whether the display on the current display unit 4 is a menu screen as shown in FIG. If it is the menu screen, the process proceeds to step S126, and it is checked whether or not a “return” operation by the light emitting / receiving unit has been detected. If this operation is not detected, the process proceeds to step S128, and it is checked whether or not an input acceleration due to the tilting of the mobile phone 2 is detected. If there is a detection, the process proceeds to step S130, the cursor is moved in the detection direction, and the process proceeds to step S132. On the other hand, if no acceleration input is detected in step S128, the process directly proceeds to step S132. In step S132, it is checked whether or not an “advance” operation by the light emitting / receiving unit has been detected.
  • step S132 If it is detected in step S132 that the “advance” operation is detected, the menu is determined in step S134 and the function screen corresponding to the determined menu is displayed. This corresponds to the operation described in FIG. 11 or FIG. On the other hand, if no “advance” operation is detected in step S132, the process returns to step S126, and step S126 to step S132 are repeated unless a “return” operation or “advance” operation is detected. During this time, arbitrary cursor movements in steps S128 and S130 are possible.
  • step S136 it is checked whether or not acceleration input is detected by the acceleration sensor 44. If there is no detection, the process proceeds to step S138, and the presence / absence of detection of light emission / light reception unit input is checked. If detection is confirmed here, it will progress to step S140 and will perform the operation
  • step S140 When the cursor movement or the corresponding input execution process in step S140 is completed, the flow ends. Note that the flow is also terminated when there is no detection of light emitting / light receiving unit input in step S138. Furthermore, when a “return” operation is detected in step S126, the flow is terminated after the screen is returned to the standby screen in step S142. If the menu screen is not displayed in step S124, the process proceeds to step S144 to check whether it is a function screen. If it is the function screen, the process proceeds to step S136 and the flow of acceleration detection is entered. On the other hand, if it is not a function screen in step S144, it means that the standby screen is displayed, and the flow is immediately terminated.
  • FIG. 17 is a flowchart showing details of the vertical / horizontal interchange input detection processing in step S96 of FIG.
  • step S152 it is checked in step S152 whether the gravitational acceleration in the vertical position screen state is detected. If the gravity position is in the vertical position, the process proceeds to step S154 to set the vertical position in the vertical position. This is because, even if the vertical position is the same, if the top and bottom are reversed, the light emission / light receiving unit detection output will be different.
  • step S156 it is checked whether the light emitting / receiving unit has detected movement of a hand or a finger in the short side direction of the screen.
  • step S158 the input is performed with the right or left detection direction as an operation in the left-right direction, and the process proceeds to step S160.
  • step S156 the process directly proceeds to step S160.
  • step S160 it is checked whether the light emitting / receiving unit has detected movement of a hand or a finger in the long side direction of the screen.
  • the process proceeds to step S162, where an input is performed as an up / down operation together with the up / down detection direction, and the flow is terminated.
  • step S156 the flow is immediately terminated.
  • step S166 it is checked whether the light emitting / receiving unit has detected movement of a hand or a finger in the long side direction of the screen. When the corresponding movement is detected, the process proceeds to step S168, where the input is performed with the right or left detection direction as an operation in the left-right direction, and the process proceeds to step S170. On the other hand, if there is no corresponding detection in step S166, the process directly proceeds to step S170.
  • step S170 it is checked whether the light emitting / receiving unit has detected movement of a hand or a finger in the short side direction of the screen.
  • the process proceeds to step S172, where the input is performed together with the upper or lower detection direction as an up / down operation, and the flow is ended. On the other hand, if there is no corresponding detection in step S170, the flow is immediately terminated.
  • FIG. 18 is a flowchart showing details of the left / right switching process in step S18 of FIG. 13 and step S86 of FIG.
  • step S184 it is checked in step S184 whether the right-hand pattern is displayed. If the right hand pattern is displayed, the process proceeds to step S186, and it is checked whether or not a predetermined time has elapsed since the light emitting / receiving section first detected a movement. If it has not elapsed, the process proceeds to step S188 to perform light emission / light reception unit input detection processing. This process is the same as step S98 in FIG. 15, but the details will be described later.
  • step S190 it is checked whether the left hand movement feature is detected based on the detection process in step S188. This is a characteristic movement when, for example, a finger is swung from the base of the thumb when the user moves the thumb with the mobile phone 2 with the left hand. If there is no detection, the process proceeds to step S192 to check whether the left side surface of the mobile phone 2 has been tapped. This corresponds to acceleration detection when the mobile phone 2 is held with the left hand and the mobile phone 2 is tapped with the thumb. When such tap acceleration is detected in step S192, the process proceeds to step S194. Also, when the left hand movement feature is detected in step S190, the process proceeds to step S194.
  • step S192 if the left side tap is not detected in step S192, the process returns to step S186 and waits until a predetermined time elapses until a left hand-specific movement is detected or the left side is tapped.
  • step S194 it is possible to automatically shift to step S194 through detection of left hand movement, and if the detection is not successful, it is possible to immediately shift to step S194 by a left thumb tap.
  • step S194 the display is first switched to the left hand pattern in step S194.
  • step S194 switching to the left-hand LED intensity is performed.
  • step S198 the motion detection pattern is switched to that for the left hand.
  • a detection pattern for detecting a clockwise movement of the thumb along the “advance” finger locus instruction mark 18 in FIG. 1 is counterclockwise along the “advance” finger locus instruction mark 18 in FIG. This corresponds to switching to a detection pattern for detecting that the thumb has moved around.
  • the flow is finished. Note that the flow is also terminated when a predetermined time has elapsed in step S186. This corresponds to the case where the mobile phone 2 is held with the right hand in the right hand pattern display and it is not necessary to switch left and right.
  • Step S200 it is checked whether or not a predetermined time has elapsed since the light emitting / receiving unit first detected a movement. If not, the process proceeds to step S202, and light emission / light reception unit input detection processing is performed. Based on the detection result, in step S204, it is checked whether or not the right hand movement feature is detected.
  • step S206 it is checked whether the right side surface of the mobile phone 2 has been tapped.
  • the process proceeds to step S208.
  • the process proceeds to step S208.
  • the process returns to step S200, and until the predetermined time elapses, it waits for a right hand specific motion to be detected or for the right side to be tapped.
  • step S208 the display is switched to the right-hand pattern.
  • step S210 switching to the right-hand LED intensity is performed.
  • step S212 the motion detection pattern is switched to that for the right hand.
  • the flow is finished. Note that the flow is also terminated when a predetermined time has elapsed in step S200. This corresponds to the case where the mobile phone 2 is held with the left hand in the left hand pattern display and it is not necessary to switch between left and right.
  • FIG. 19 is a flowchart showing details of the light emission / light receiving unit input detection processing in step S98 of FIG. 15 and steps S188 and S202 of FIG.
  • step S221 it is first checked in step S221 whether face recognition has been performed based on the image processing of the image of the inner camera 13. If the face can be recognized, the process proceeds to step S222 and the subsequent steps. If the face cannot be recognized, the flow is immediately terminated. As described above, unless the face of the operator who is looking at the display unit 4 can be detected, the infrared light receiving sensor 6 and the infrared light emitting units 8, 10, and 12 cannot be input. This is to prevent malfunction when a hand or the like crosses the display surface 4 carelessly when there is no intention of operation.
  • step S224 the light emitting unit 8 is caused to emit light, and in step S226, the output of the light receiving sensor 6 is sampled in order to detect the presence / absence and intensity of the reflected light. This result is stored as the reflected light intensity of the light emitting unit 8 in the next step S228.
  • the reflected light intensity is basically zero.
  • step S230 the light emitting unit 10 is caused to emit light, and in step S232, the output of the light receiving sensor 6 is sampled in order to detect the presence / absence and intensity of the reflected light. This result is stored as the reflected light intensity of the light emitting unit 10 in the next step S234. Further, in step S236, the light emitting unit 12 is caused to emit light, and in step S238, the output of the light receiving sensor 6 is sampled in order to detect the presence or absence and intensity of the reflected light. This result is stored as reflected light intensity of the light emitting unit 12 in the next step S240. As described above, since the light emitting units 8, 10 and 12 emit light in a time division manner, the output of the light receiving sensor 6 is grasped from which light emitting unit is the intensity of reflected light based on the timing.
  • next step S242 it is checked whether or not a predetermined number of time-lapse samples sufficient for determining the movement trajectory of the finger or the like have been acquired by the time-division reflected light detection as described above.
  • the process returns to Step S224, and Steps S224 to S242 are repeated until the predetermined number of samples is detected in Step S242.
  • this is converted into a movement locus in step S244, and compared with a table corresponding to the operation pattern in step S246. Then, it is checked whether or not there is a table that matches the motion trajectory detected in step S248.
  • step S250 If there is a table that matches, the input operation is specified in step S250 based on this table, and the flow ends. If there is no matching table in step S248, the process proceeds to step S252 to check whether a predetermined time has elapsed. If no time has elapsed, the process returns to step S224, and steps S224 to S252 are repeated until a predetermined time elapses or an input is specified.
  • the first technical feature disclosed in the present specification is that an acceleration detection unit that detects acceleration to a device, a state identification unit that distinguishes between a first state and a second state, and an acceleration detection unit that accelerates And when the state identification unit identifies the first state device, power supply to the device is started, and when the state detection unit identifies the second state device even if the acceleration detection unit detects acceleration, A mobile device having a power supply control unit that does not start power supply is provided. Accordingly, power supply to the device is automatically started by an operation such as lifting the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the state identification unit includes a light emitting unit and a light receiving unit capable of receiving reflected light of the light emitted from the light emitting unit, and the first state and the second state are determined according to the light receiving state of the light receiving unit.
  • the state identifying unit identifies the first state when the output of the light receiving unit is less than or equal to the predetermined value, and identifies the second state otherwise. Whether the output of the light receiving unit is less than or equal to a predetermined value depends on whether the mobile device is close to an object that reflects light from the light emitting unit. Thus, power supply to the device can be automatically started, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the state identifying unit identifies the first state when the output change of the light receiving unit is greater than or equal to a predetermined value, and identifies the second state otherwise. Whether or not the output change of the light receiving unit is greater than or equal to a predetermined value depends on whether or not the mobile device is moving such that the distance from the object that reflects the light of the light emitting unit changes, and thus is identified. Accordingly, power supply to the device is automatically started by an operation such as lifting the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the light emitting part and the light receiving part are arranged close to each other on the back or surface of the mobile device. This makes it possible to identify whether acceleration was detected when the mobile device was lifted from a desk, etc., or whether acceleration was detected while the mobile device was still on the desk, etc. By this operation, power supply to the device is automatically started, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the state identification unit includes a light emitting unit that emits light so that the camera unit can receive reflected light, and the output change of the camera unit is greater than or equal to a predetermined value. Is identified as being in the first state, otherwise it is identified as being in the second state. Whether or not the output change of the camera unit is greater than or equal to a predetermined value depends on whether or not the mobile device is moving such that the distance from the object that reflects the light of the light emitting unit changes, so this is identified. Accordingly, power supply to the device is automatically started by an operation such as lifting the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented. And such identification becomes possible by utilizing the camera part which originally has a light receiving capability.
  • the light emitting part emits infrared light. Accordingly, the light receiving unit or the camera unit receives the reflected light based on the light emission from the light emitting unit without being confused with natural light, and distinguishes between the first state and the second state according to the light receiving state of the light receiving unit. it can.
  • the light emitting unit starts light emission when the acceleration sensor detects the acceleration.
  • the acceleration sensor detects the acceleration.
  • light is automatically emitted when acceleration is detected and it is necessary to distinguish between the first state and the second state according to the light receiving state of the light receiving unit. Can do.
  • the power supply control unit stops power supply to the device when the mobile device is not operated for a predetermined time or more.
  • power supply is automatically stopped, and power supply to the device is automatically started by an operation that can be regarded as intended for use, such as lifting the mobile device.
  • the state identification unit identifies the first state when the acceleration detected by the acceleration detection unit matches a predetermined pattern, and if not, the state identification unit is the second state. Identify. Accordingly, power supply to the device is automatically started by acceleration applied with the intention of using the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the state identification unit includes a contact detection unit that detects contact of the human body with the device, and identifies the first state when the contact detection unit detects contact of the human body. Otherwise, it is identified as being in the second state.
  • power supply to the device is automatically started by acceleration detection accompanied by human contact such as lifting the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the light emitting unit and the light receiving unit capable of receiving the reflected light of the light emitting unit have a non-contact input unit by detecting movement around the device, The first state and the second state are identified according to the light receiving state in the light receiving / receiving unit of the non-contact input unit.
  • power supply to the device is automatically started by the acceleration detection accompanying the contact of the human body such as lifting the mobile device, and it is not intended. Incorrect power supply based on acceleration detection can be prevented.
  • a non-contact input unit that detects movement around the device by a light emitting unit and a light receiving unit capable of receiving reflected light of the light emitting unit, and an acceleration detection dormitory that detects acceleration to the device
  • a power supply control unit that determines whether or not to start power supply to the device by a combination of the output of the light receiving unit in the non-contact input unit and the acceleration detection of the acceleration detection input unit.
  • the combination of the non-contact input unit and the acceleration detection input unit automatically starts power supply to the device by, for example, lifting the mobile device, and prevents erroneous power supply based on unintended acceleration detection. Appropriate power supply control becomes possible.
  • the power supply control unit starts power supply to the device when the acceleration detection unit detects acceleration and the output of the light receiving unit is equal to or less than a predetermined value, and the acceleration detection unit detects acceleration. When the output of the light receiving unit is not less than a predetermined value, power supply to the device is not started.
  • the power supply control unit starts power supply to the device when the acceleration detection unit detects the acceleration and the output change of the light receiving unit is greater than or equal to a predetermined value, and the acceleration detection unit If the output change of the light receiving unit is not greater than or equal to the predetermined value even when the signal is detected, power supply to the device is not started.
  • an acceleration detector that detects acceleration to the device, and when the acceleration detected by the acceleration detector matches a predetermined pattern, power supply to the device is started and the acceleration detector detects the acceleration.
  • a mobile device having a power supply control unit that does not start power supply to the device is provided. Accordingly, power supply to the device is automatically started by acceleration applied with the intention of using the mobile device, and erroneous power supply based on unintended acceleration detection can be prevented.
  • the apparatus has a state identification unit that identifies the state of the device, and the power supply control unit starts power supply to the device by a combination of the state identification result by the state identification unit and the acceleration detection of the acceleration detection unit.
  • the acceleration detected by the acceleration detection unit matches a predetermined pattern
  • power supply to the device is started with priority over the above combination. In this way, even when no acceleration matching the predetermined pattern is detected, power supply is determined by appropriate estimation, and when the intended use of the mobile device is clear by detecting the acceleration of the predetermined pattern, this is prioritized. Start feeding.
  • a contact detection unit that detects contact of the human body with the device, an acceleration detection unit that detects acceleration to the device, the acceleration detection unit detects acceleration, and the contact detection unit detects contact with the human body.
  • a mobile device having a power supply control unit that starts power supply to the device when it is detected and does not start power supply to the device when the contact detection unit detects no contact with the human body even when the acceleration detection unit detects acceleration Provided.
  • the apparatus has a state identification unit that identifies the state of the device, and the power supply control unit starts power supply to the device by a combination of the state identification result by the state identification unit and the acceleration detection of the acceleration detection unit.
  • the acceleration detection unit detects acceleration
  • the contact detection unit detects human contact
  • power supply to the device is started in preference to the above combination. In this way, even when contact with the human body is not detected, such as when a part other than the contact detection unit is held, power supply is determined by proper estimation, and when the intended use of the mobile device is clear through contact detection Gives priority to this and starts supplying power to the equipment.
  • power supply to the device is automatically started by an operation such as lifting the mobile device, and unintended acceleration detection is performed. Accordingly, it is possible to prevent erroneous power supply based on the mobile device and to provide a mobile device that is easy to use.
  • the second technical feature disclosed in the present specification includes an acceleration detection unit that detects acceleration to the device, a display screen, a motion detection unit that detects a movement of a hand moved on the display screen, Provided is a mobile device having input means for performing input based on motion detection by a motion detection unit and acceleration detection by an acceleration detection unit. This provides an easy-to-use mobile device having useful input means utilizing the information of the motion detection unit and the acceleration detection unit.
  • the display screen is a rectangle having a long side and a short side
  • the input means has a position where the display screen becomes vertically long and a horizontal position based on the detection of the acceleration detection unit. Which position is in the posture is detected, and the same meaning is input based on the movement of the hand in the same direction regardless of the posture of the display screen based on the detection result.
  • the posture of the motion detection unit provided in the mobile device is also rotated by 90 degrees. Therefore, if the same meaning is input according to the movement of the hand as it is, the movement of the hand must be 90 degrees different between the case of the portrait and the case of the landscape, and the user is confused.
  • the above specific features detect the posture of the mobile device based on the detection of the acceleration detector, and have the same meaning based on the movement of the hand in the same direction regardless of the posture. It is configured to allow input.
  • the input means performs the same meaning input based on the left and right hand movements on the display screen regardless of the orientation of the display screen.
  • the input unit performs the same meaning input based on the movement of the hand in the vertical direction on the display screen regardless of the orientation of the display screen.
  • the motion detection unit includes an infrared light receiving unit that receives infrared light from an infrared light emitting unit and an infrared light emitting unit that reflects from a hand moved on the display screen.
  • the input means updates the reference value for detecting gravitational acceleration according to the movement of the hand by the motion detector when performing input based on the input acceleration detected by the acceleration detector.
  • the input means corrects the detection information of the motion detection unit with the information of the acceleration detection unit.
  • the input means performs correction by subtracting the absolute movement information of the mobile device by the acceleration detection unit from the relative movement detection information of the screen and the hand movement by the movement detection unit.
  • the movement of the hand on the display screen detected by the motion detector is a relative movement between the display screen and the hand, but the mobile device is held by the hand, so when trying to move the hand relative to the display screen At the same time, the display screen may be blurred, making it impossible to input as intended.
  • by subtracting the acceleration detection unit information from the detection information of the motion detection unit as described above it is possible to perform comfortable input as intended on a screen without blurring.
  • an acceleration detection unit that detects acceleration to the device, a display screen, an input unit that performs input based on display screen display and input acceleration detected by the acceleration detection unit, and input necessary
  • a mobile device having update means for updating a reference value for gravity acceleration detection.
  • the operation becomes inconvenient if the reference position of the mobile device is in an absolute horizontal state.
  • the reference position updating means is provided as described above, the reference position can be updated in an arbitrary posture of the mobile device, and thereafter, input based on the posture change of the mobile device is performed based on the updated reference position. It becomes possible. Therefore, for example, even if the orientation of the body is changed while holding the mobile device, it is possible to prevent an unintended input from being made thereafter.
  • the update unit is a determination unit that determines that the gravitational acceleration detected by the acceleration detection unit does not change for a predetermined time.
  • the updating unit is a motion detection unit that detects a hand motion with respect to the mobile device.
  • the infrared light of the acceleration detector that detects the acceleration to the device, the display screen, the infrared light emitter, and the infrared light emitter reflected from the hand moved on the display screen is received.
  • the first meaning is input in relation to the display screen based on the information from the infrared light receiving unit and the acceleration detection unit, and the relationship with the display screen is based on the information from the infrared light receiving unit.
  • a mobile device having an input means for inputting a second meaning is provided.
  • the information on the movement of the hand relative to the mobile device and the information on the acceleration applied to the mobile device by tilting or tapping the mobile device can be used in relation to the display screen.
  • a plurality of meanings can be easily input by natural operations.
  • one of the first and second meanings is selection of a selection item on the display screen, and the other is determination of selection. This makes it easy to select a selection item on the display screen according to gravity, for example, by tilting the mobile device, and to determine the selection by moving the hand on the display screen without touching the display screen. And natural input becomes possible.
  • an infrared detector that detects acceleration to the device, a display screen, an infrared light emitter, and infrared light reflected by the infrared light emitter reflected from a hand moved on the display screen is received.
  • a mobile device having an infrared light receiving unit and an input means for inputting the same meaning in relation to the display screen regardless of whether the information is received from the acceleration detecting unit or the information from the infrared light receiving unit Is done.
  • the input when inputting the same meaning in relation to the display screen, the input is performed using both the movement of the hand relative to the mobile device and the action of applying acceleration such as tilting the mobile device. It is possible to input the same meaning with a natural operation according to the case.
  • the input means selects a selection item on the display screen regardless of whether the information is from the acceleration detection unit or the information from the infrared light receiving unit.
  • the mobile device is tilted for sequential selection of selection items, and hand movement is used when making a selection by jumping to a distant position. It can be carried out.
  • an easily input mobile device can be provided.
  • a third technical feature disclosed in the present specification includes a display screen, a motion detection unit that detects a motion of a hand moved on the display screen, and an instruction of a hand motion to be moved on the display screen.
  • a mobile device having a display control unit to be displayed on a display screen and a determination unit that determines whether the motion detection unit has detected a motion corresponding to an instruction displayed on the display screen.
  • the above features can accurately guide the desired hand movement when judging hand movement. According to a specific feature, a predetermined input is performed based on the determination of the determination unit, but the above feature can accurately guide the movement of the hand for performing this input.
  • the motion detection unit includes an infrared light receiving unit and an infrared light receiving unit that receives infrared light of the infrared light emitting unit that is reflected from a hand moved on the display screen.
  • the display control unit displays a trajectory of a hand movement to be moved on the display screen on the display screen. This makes it possible to intuitively guide hand movements.
  • the determination unit determines whether the motion detection unit has detected a motion along the locus displayed on the display screen.
  • the display control unit displays on the display screen the direction of the hand movement to be moved along the locus on the display screen.
  • the display control unit displays on the display screen an input having a different meaning depending on the direction of the hand movement to be moved along the trajectory.
  • the display control unit can display a plurality of instructions having different directions of movement of the hand to be moved on the display screen in association with a plurality of meaning inputs.
  • the display control unit does not display an instruction when the determination by the determination unit is not performed. As a result, it is possible to prevent confusion such as leading to useless hand movements that do not contribute to judgment, and to provide mobile devices that are easy to use for the user.
  • a mobile device having a display control unit that displays different instructions on the display screen for right-handed operation and left-handed operation for the same meaning on the display screen.
  • the right hand and the left hand are not forced to impose an unnatural movement as if the right hand was moved parallel to the symmetrical left hand.
  • the same meaning can be input by natural movement.
  • the display control unit displays instructions for symmetrical arrangement on the display screen in the case of the right hand operation and the case of the left hand operation.
  • the display control unit displays instructions for symmetrical arrangement on the display screen in the case of the right hand operation and the case of the left hand operation.
  • the display device has a motion detection unit that detects the movement of the hand moved on the display screen, and the display control unit performs the right hand operation and the left hand operation based on the detection of the motion detection unit.
  • different instructions are displayed on the display screen.
  • the right hand operation state and the left hand operation state are easily switched based on the movement of the right hand or the left hand itself.
  • the device has an acceleration detection unit that detects acceleration to the device, and the display control unit indicates different instructions for right hand operation and left hand operation based on the detection of the acceleration detection unit. Is displayed on the display screen.
  • the same meaning is based on the output of the display screen, the motion detection unit that detects the movement of the hand moved on the display screen, and the motion detection unit that is different for right hand operation and left hand operation.
  • a mobile device characterized by having an input unit for inputting the above. As a result, even if the input is performed in such a manner that the right hand and the left hand are symmetrical with each other, the input can be processed as the same meaning.
  • the motion detecting unit includes an infrared light receiving unit and an infrared light receiving unit that receives infrared light of the infrared light emitting unit that is reflected from a hand that is moved on the display screen. Changes the light emission intensity of the infrared light emitting part between right hand operation and left hand operation. As a result, even if the input is performed in such a manner that the right hand and the left hand are symmetrical with each other, an appropriate infrared reflected light output can be obtained in any case.
  • the display screen, a motion detection unit that detects the movement of the hand moved on the display screen, and the detection result of the detection unit in the case of right hand operation and in the case of left hand operation are based on different criteria.
  • a mobile device having a determination unit that determines an input having the same meaning is provided. As a result, even if the detection results of the result detection unit that are input with movements that are symmetrical with each other between the right hand and the left hand are different, this can be processed as input having the same meaning.
  • a display screen an input unit, a camera unit that captures a direction that opposes the display screen, a face recognition unit that recognizes a face by processing an image of the camera unit, and a display by the face recognition unit
  • a mobile device that performs input by an input unit when a face opposing the screen is recognized.
  • the input unit includes a motion detection unit that detects the movement of the hand moved on the display screen. This prevents erroneous input when a hand or the like crosses the display screen carelessly when there is no intention of operation.
  • an easily input mobile device can be provided.
  • the present invention provides a mobile device that is easy to use.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本明細書中に開示されているモバイル機器は、機器への加速度を検知する加速度検知部と、条件識別部と、前記加速度検知部の出力と前記条件検知部の出力との組み合わせにより機器への給電を開始するか否かを決定する給電制御部とを有する。

Description

モバイル機器
 本発明は、モバイル機器に関する。
 モバイル機器に関してはその使用を容易にするため種々の提案が行われている。例えば特開2007-280461(特許文献1)には、携帯型コンテンツプレーヤーに加速度センサを搭載し、コンテンツプレーヤーの軸の傾斜角を検出することにより、その検出結果に応じてリストのスクロール、リスト上でのカーソル移動、スクロールが行われるよう構成することが提案されている。一方、モバイル機器への入力装置としてはGUI(Graphical User Interface)の採用も一般化している。その一例は表示部におけるタッチパネルの利用である。
特開2007-280461公報
 しかしながら、モバイル機器に関してはその使用を容易にするためには、まだ種々検討すべき課題が多い。
 本発明は、本願の発明者らが見出した上記の課題に鑑み、使用の容易なモバイル機器を提供することにある。
 上記目的を達成するために、本発明に係るモバイル機器は、機器への加速度を検知する加速度検知部と、条件識別部と、前記加速度検知部の出力と前記条件検知部の出力との組み合わせにより機器への給電を開始するか否かを決定する給電制御部とを有する構成(第1の構成)とされている。
 なお、上記第1の構成から成るモバイル機器は、前記条件識別部は、第1状態と第2状態とを識別する状態識別部を有し、前記給電制御部は、前記加速度検知部が加速度を検知し且つ前記状態識別部が前記第1状態を識別したとき機器への給電を開始するとともに前記加速度検知部が加速度を検知しても前記状態識別部が前記第2状態を識別したときは機器への給電を開始させない構成(第2の構成)にするとよい。
 また、上記第2の構成から成るモバイル機器において、前記状態識別部は、発光部と前記発光部の光の反射光を受光可能な受光部を有し、前記受光部の受光状態に応じて前記第1状態と前記第2状態とを識別する構成(第3の構成)にするとよい。
 また、上記第1の構成から成るモバイル機器において、前記条件識別部は、発光部と前記発光部の光の反射光を受光可能な受光部により機器周辺の動きを検知することによる非接触入力部を有し、前記給電制御部は、前記受光部の出力と前記加速度検知部の加速度検知との組み合わせにより機器への給電を開始するか否かを決定する構成(第4の構成)にするとよい。
 また、上記第1の構成から成るモバイル機器において、前記条件識別部は、前記加速度検知部が検知する加速度が所定のパターンに合致するか否かを識別し、前記給電制御部は、前記加速度検知部が検知する加速度が所定のパターンに合致するとき機器への給電を開始するとともに前記加速度検知部が加速度を検知してもその加速度が所定のパターンでないときは機器への給電を開始させない構成(第5の構成)にするとよい。
 また、上記第1の構成から成るモバイル機器において、前記条件識別部は、機器への人体の接触を検知する接触検知部を有し、前記給電制御部は、前記加速度検知部が加速度を検知し且つ前記接触検知部が人体の接触を検知しているとき機器への給電を開始するとともに前記加速度検知部が加速度を検知しても前記接触部が人体の接触を検知しないときは機器への給電を開始させない構成(第6の構成)にするとよい。
 また、上記第1の構成から成るモバイル機器は、表示画面と、前記表示画面による表示と前記加速度検知部が検出する重力加速度に基づいて入力を行う入力手段とを有する構成(第7の構成)にするとよい。
 また、上記第1の構成から成るモバイル機器は、表示画面と、前記表示画面上における入力のための異なった指示を前記表示画面上に表示させる表示制御部と、前記表示画面上に表示された指示に基づく入力が前記表示画面上でなされたかどうかを判断する判断部とを有する構成(第8の構成)にするとよい。
 また、本発明に係るモバイル機器は、機器への加速度を検知する加速度検知部と、表示画面と、前記表示画面による表示と前記加速度検知部が検出する重力加速度に基づいて入力を行う入力手段とを有する構成(第9の構成)とされている。
 なお、上記第9の構成から成るモバイル機器は、前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有し、前記入力手段は、前記動き検知部による動き検知および前記加速度検知部による加速度検知に基づいて入力を行う構成(第10の構成)にするとよい。
 また、上記第10の構成から成るモバイル機器において、前記表示画面は長辺と短辺を有する矩形であるとともに、前記入力手段は前記加速度検知部の検知に基づいてモバイル機器が前記表示画面が縦長になる位置と横長になる位置のいずれの姿勢にあるかを検出し、この検出結果に基づいて前記表示画面の姿勢にかかわらず同じ方向の手の動きに基づいて同じ意味づけの入力を行う構成(第11の構成)にするとよい。
 また、上記第9の構成から成るモバイル機器は、入力に必要な重力加速度検知の基準値を更新する更新手段をさらに有する構成(第12の構成)にするとよい。
 また、上記第9の構成から成るモバイル機器は、赤外発光部と、前記表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部とをさらに有するとともに、前記入力手段は、前記加速度検知部からの情報に基づいて前記表示画面との関係で第一の意味づけの入力を行うとともにともに前記赤外受光部からの情報に基づいて前記表示画面との関係で第二の意味づけの入力を行う構成(第13の構成)にするとよい。
 また、上記第9の構成から成るモバイル機器は、赤外発光部と、前記表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部とをさらに有するとともに、前記入力手段は、前記加速度検知部からの情報および前記赤外受光部からの情報のいずれであっても前記表示画面との関係で同じ意味づけの入力を行う構成(第14の構成)にするとよい。
 また、本発明に係るモバイル機器は、表示画面と、前記表示画面上における入力のための異なった指示を前記表示画面上に表示させる表示制御部と、前記表示画面上に表示された指示に基づく入力が前記表示画面上でなされたかどうかを判断する判断部とを有する構成(第15の構成)とされている。
 なお、上記第15の構成から成るモバイル機器は、前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有するとともに、前記表示制御部は、前記表示画面上で動かすべき手の動きの指示を前記表示画面上に表示させ、前記判断部は、前記動き検知部が前記表示画面上に表示された指示に対応する動きを検知したかどうかを判断する構成(第16の構成)にするとよい。
 また、上記第15の構成から成るモバイル機器において、前記表示制御部は、前記表示画面上おける同じ意味の入力に対し、右手操作の場合と左手操作の場合で異なった指示を前記表示画面上に表示させる構成(第17の構成)にするとよい。
 また、上記第15の構成から成るモバイル機器は、前記表示画面上で動かされる手の動きを検知する動き検知部と、右手操作の場合と左手操作の場合で異なる前記動き検知部の出力に基づいて同じ意味の入力を行う入力部とをさらに有する構成(第18の構成)にするとよい。
 また、上記第15の構成から成るモバイル機器は、前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有するとともに、前記判断部は、右手操作の場合と左手操作の場合で前記動き検知部の検知結果を異なる判断基準に基づいて同じ意味の入力と判断する構成(第19の構成)にするとよい。
 また、上記第15の構成から成るモバイル機器は、入力部と、前記表示画面に対向する方向を撮像するカメラ部と、前記カメラ部の画像を処理して顔を認識する顔認識部と、前記顔認識部により前記表示画面に対向する顔が認識されるとき前記入力部による入力を行う制御部とをさらに有する構成(第20の構成)にするとよい。
 本発明によると、使用の容易なモバイル機器を提供することが可能となる。
本発明の実施の形態に係るモバイル機器の実施例における右手操作用の上面外観図である。 上記実施例における左手操作用の上面外観図である。 上記実施例において「メール」の選択が確定した時の上面外観図である。 上記実施例において画像のサムネイル表示が選択された時の上面外観図である。 上記実施例のモバイル機器が横持されたときの外観図であり、図5(A)は上面を、図5(B)は、背面をそれぞれ示す。 上記実施例における携帯電話のブロック図である。 上記実施例における操作画面図であり、図7(A)から図7(B)への「進み」操作の状態を示す。 図7と同様の操作画面図であり、図8(B)から図8(A)への「戻り」操作の状態を示す。 上記実施例における操作画面図であり、初期画面から電話機能以外の機能モードを選択する場合の操作と表示の変化を示すものである。 図9の状態変化を経た後の画面操作図であり、図10(A)および図10(B)間のカーソル移動操作を示すものである。 上記実施例における操作画面図であり、図11(A)から図11(B)の「メニュー」画面への「進み」操作の状態を示す。 上記実施例における操作画面図であり、図12(A)から図12(B)の「メール」画面への「進み」操作の状態を示す。 上記実施例における図6の携帯電話制御部の機能を示す基本フローチャートである。 図13のステップS12の詳細を示すフローチャートである。 図13のステップS26の詳細を示すフローチャートである。 図13のステップS30の詳細を示すフローチャートである。 図15のステップS96の詳細を示すフローチャートである。 図13のステップS18および図15のステップS86の詳細を示すフローチャートである。 図15のステップS98および図18のステップS188とステップS202の詳細を示すフローチャートである。
 図1は、本発明の実施の形態に係るモバイル装置の実施例における上面外観図である。実施例は、携帯電話2として構成されているが、その上面における面積の大半は入力部を兼ねた表示部4で占められている。表示部4はバックライトにより照明される。表示部4の周囲には、右下方にフォトダイオードからなる赤外線受光センサ6が設けられるとともに、右上方および左右下方にそれぞれLEDからなる赤外線発光部8、10および12が設けられている。なお、これら赤外線受光センサ6および赤外線発光部8、10、12はそれぞれ表示部4の周囲に設けられる赤外線透過カバーで覆われているので、意匠上は外部から見えない。赤外線発光部8、10および12からそれぞれ時分割で発光される赤外光は表示と関連して表示部4上で動かされる操作者の指または手によって反射される。そして、これらの反射光が赤外線受光センサ6によって受光されることにより、操作者の指または手の位置および動きの有無とその方向が検出され、これが携帯電話2への入力となる。
 なお、赤外線受光センサ6に近接して設けられている赤外線発光部12の絶対的な出力の大小は、主に手または指の接近の情報となる。一方、上下方向に並ぶ赤外線発光部8,12の出力変化の相対的な差は主に手または指の上下の動きの情報となるとともに、左右方向に並ぶ赤外線発光部10,12の出力変化の相対的な差は、主に手または指の左右の動きの情報となる。また、対角線上にある赤外線発光部8,10の出力変化の相対的な差も、手または指の左右の動きの情報となる。但し、実際には赤外線発光部8、10、12の発光に基づく赤外線受光センサ6の情報は上記のように明確に区分されるわけではなく、総合的に分析判断される。また、携帯電話2には加速度センサが設けられており、この加速度センサにより検知される携帯電話2の傾き、振動、揺れなども携帯電話2への入力となる。これら携帯電話2への入力の詳細については後述する。
 携帯電話2は図1のように矩形形状をしており、通常は図1のような縦長状態において片手で保持して使用される。そして、赤外線受光センサ6および赤外線発光部8、10、12による入力操作は、主にこのような縦長状態の携帯電話2を保持する片手の親指の動きによって行うことを想定して構成される。図1における表示部4の表示は携帯電話2に電源が入った状態の待受け画面等の初期画面のものであるが、この状態におけるレイアウトでの入力操作関連の表示は、携帯電話2を保持する片手の親指が自然に届く範囲に集中して配置され、表示部4の上方領域14は、主に画像や文章などの情報表示に割り当てられている。また、携帯電話2を右手で持った場合と左手で持った場合の片手操作にもそれぞれ対応できるよう構成されている。図1は携帯電話2を右手で持った場合の表示である。
 内側カメラ13は、携帯電話2をテレビ電話として利用する場合において、表示部4を見ている操作者の顔を写すことができるとともに、自分撮りの際にも利用されるものである。携帯電話2は、内側カメラ13の画像について顔認識が可能なよう構成されており、この顔認識機能によって表示部4を見ている操作者の顔が検知できない限り、赤外線受光センサ6および赤外線発光部8、10、12が表示面4上での物体の移動を検知しても入力操作を行うことができないよう構成される。これによって、操作の意図がないときに、不用意に表示面4上を手などが横切った場合における誤動作を防止することができる。なお、このような内側カメラ13による顔認識情報を加速度センサによる携帯電話2の傾き、振動、揺れの検知と組み合わせることにより、加速度センサの出力による誤動作を防止することも可能である。
 図2は、図1と同様のモバイル機器の実施例における上面外観図であるが、携帯電話2を左手で持った場合の表示である。この場合、図2に示すように表示部4の下方領域の表示が図1と左右対称に入れ代わっており、右手親指の動きと鏡面対称の左手親指の動きに応じて入力がなされるよう表示が変更される。この表示の変更に対応し、親指の動きを判定する基準データテーブルも右手用から左手用に変更される。さらに、上記の基準データテーブルの変更に伴い、赤外線発光部8、10および12の発光強度も右手用と左手用に変更される。これらは、赤外線受光センサ6および赤外線発光部8、10、12の配置が左右対称でないことに対応するためである。なお、図1と図2の間の表示の変更およびこれに伴う基準データテーブルの変更は、表示部4の上での指の初期移動のパターンを識別し、右手親指特有の動きか左手親指特有の動きかを判定することで自動的に行われる。従って、基本的には手動で切換え操作をしなくても左右の手を持ち替えて親指操作を開始すればその初期において表示および基準データテーブルが自動的に切換わる。また、右手操作の場合は右手親指で携帯電話2の右側面をタップし、左手操作の場合は左手親指で携帯電話2の左側面をタップすることで加速度センサがいずれの側面がタップされたかを判定するので、手動で切換えを行うことも可能である。
 図1および図2において、表示部4の下方領域における入力操作関連表示としては、まず、「電話帳」、「メニュー」、「メール」、「カメラ」などのメニューリストからなる基本機能選択部16がある。これらの選択は加速度センサによる傾きや振動の検知および赤外線発光部8、10、12と赤外線受光センサ6による基本機能選択部16上での指の動き検知によって可能である。その詳細は後述する。また、「進み」指軌跡指示マーク18はその指示どおりに時計回りにマーク上で親指を動かすことによって入力指示が実行されるものであるが、この詳細についても後述する。なお、日付/時刻表示20は、所定の操作手続きをした上でこれらの表示上で指を動かすことにより、その調整や変更が可能であるが、通常は入力部ではなく、これらの上で指が動いても反応はしない。
 図3は、図1の基本機能選択部16において「メール」の選択が確定した時に現れる画面を示した携帯電話2の上面外観図である。基本機能選択部16におけるメニューリストの選択と確定操作については、後述することとし、図3以下図5までは、選択が確定した結果現れる表示について説明する。また、図3以下、図7から図12における片手操作を前提とした表示は図1に準じ、右手で携帯電話2を持った場合についてのみ説明し、左手操作の場合の説明は省略する。携帯電話2を左手で持った場合については、図2と同様にして基本的に表示が左右対称に入れ代わるものとして理解すればよいからである。
 図3においても、図1と同じ構成には同一の番号を付し、説明は省略する。後述する操作手続きによりメール機能が選択され、図3の状態となった場合、表示部4の下方領域には、入力文字盤22が表示される。文字入力にあたっては、加速度センサによる傾きや振動の検知または赤外線発光部8、10、12と赤外線受光センサ6による指の動き検知により「あ」、「か」、「さ」、「た」、「な」、…の各行を選択する。選択されている行には図3の「か」のように太枠カーソルが表示される。またカ行における「か」、「き」、「く」、「け」、「こ」の段の選択は、カ行にカーソルがある状態で携帯電話2を裏側から中指などでタップする毎に変更され、その結果が入力ウインドウ24のカーソル部分に「こ」のように現れる。
 また、矢印方向に沿ってウインドウ移動軌跡マーク26の上で親指を動かす毎に仮名漢字変換が行われ、携帯電話2を裏側からタップすることで変換を確定した後、再度矢印方向に沿ってウインドウ移動軌跡マーク26の上で親指を動かすと、入力ウインドウ24から上方領域14にある表示ウインドウへの入力文字移動が実行される。さらに、右手親指を所定回数振ると、ひらがな、カタカナ、英数などの文字変更が行われ、入力文字盤22がその都度変更される。「進み」指軌跡指示マーク18は、図1や図2でも表示されているが、ここでは、表示画面を進める入力に用いられ、指示通りに指を動かすと、宛先入力画面、題名入力画面、本文入力画面のうちの未入力画面にその都度画面が進められるとともに、全ての画面が入力された段階で指示通りに指を動かすと送信が実行される。一方、図3では、「戻り」指軌跡指示マーク30も表示され、この指示に沿って親指を反時計回りに動かすと入力文字のクリアや画面戻りなどの実行が行われる。
 なお、赤外線発光部8、10、12と赤外線受光センサ6は表示部4の下方領域だけでなく、上方領域14もカバーしている。従って、両手操作によって上方領域14での手の動きにより入力を行うことが可能である。例えば携帯電話2を右手で持っている場合であると、図3における表示部4の上方領域14には右手親指は届かないが、上方領域14の上で左手を左右に振るとこれが赤外線発光部8、10、12と赤外線受光センサ6により感知され、上方領域14における表示ウインドウのページ送りが実行される。同様にして、上方領域14の上で左手を上下に振るとこれが赤外線発光部8、10、12と赤外線受光センサ6により感知され、上方領域14における表示ウインドウのスクロールが実行される。
 図4は、画像のサムネイル表示が選択された時に現れる画面を示した携帯電話2の上面外観図である。図1と同じ構成には同一の番号を付し、説明は省略する。後述する操作手続きにより図4のような画像サムネイル表示となった場合は上方領域と下方領域の区別なく表示部4全体がサムネイル表示に割り当てられる。このときのサムネイル指定入力は、加速度センサによる傾きや振動の検知および赤外線発光部8、10、12と赤外線受光センサ6による手の動きの検知によって可能となる。手の動きによる場合は例えば左手で携帯電話2を持ち、右手を左右上下に移動させるような両手操作となる。選択画像は太枠カーソル32で表示され、上記のように携帯電話2を傾けたり振ったりする動作または表示部4上で手を移動させる動作により太枠カーソル32が移動する。そして太枠カーソル32がいずれかの画像上にある状態で携帯電話2を裏側から中指などでタップすると選択が確定して、その画像が拡大表示される。このとき横長画像であると、拡大画像が上方領域14に表示されるとともに、空いた下方領域には片手操作用の操作表示が現れる。
 このように一枚の画像が拡大された状態においては、さらに一枚ずつの画像のページめくりと画像のズーム操作が可能である。これらの操作はいずれも、赤外線発光部8、10、12と赤外線受光センサ6による手の動きの検知によって可能となる。具体的には、表示されている一枚の拡大画像の上で手を左方向に動かすことによって次のページへのページめくりが行われ、次の拡大画像が表示される。一方、表示されている一枚の拡大画像の上で手を右方向に動かすことによって前のページへのページ戻しが行われ、一枚前の拡大画像が表示される。次に、表示されている一枚の拡大画像の上で手を上方向に動かすことによってその画像がズームアップされるとともに、手を下方向に動かすことによってその画像がズームダウンされる。サムネイル表示に戻るときは、下方領域に表示されている「戻り」指軌跡指示マーク30を指でなぞる。
 携帯電話2は、図1から図4のような縦持ちだけでなく横持ちでも操作できる。この縦持ちと横持ちの変更は加速度センサによって検知され、操作と表示の切り替えが行われる。図5(A)は、このような横持ち操作の状態の画面を示す携帯電話2の上面外観図である。図1と同じ構成には同一の番号を付し、説明は省略する。図5(A)は、横持ち表示の例として、「駅前案内」のメニューリスト表示が行われている場合を図示している。後述する操作手続きにより図5(A)のような「駅前案内」表示となった場合も、上方領域と下方領域の区別なく表示部4全体が「駅前案内」のメニューリスト表示に割り当てられる。このときのメニュー指定入力も、加速度センサによる傾きや振動の検知および赤外線発光部8、10、12と赤外線受光センサ6による両手操作の検知によって可能となる。選択されたメニューには太枠カーソル34で表示され、いずれかのメニュー上に太枠カーソル34がある状態で携帯電話2を裏側から中指などでタップすると選択が確定し、詳細情報表示画面となる。
 図5(A)のような横書きメニューの太枠カーソル34を手の動きで縦方向に送る場合は、例えば左手で携帯電話2を持ち、右手を表示部4の上で上下方向に移動させるような両手操作となる。これによって、赤外線発光部8、10、12と赤外線受光センサ6が右手の動きを検知して太枠カーソル34を移動させる。なお、横書きメニューの表示は、図5(A)のような横持ちの場合だけでなく、図1の基本機能選択部16における「電話帳」、「メニュー」、「メール」、「カメラ」の4つのメニュー表示のように縦持ちの場合にも採用される。そして縦持ちの場合においても、図1のような下方領域だけでなく表示部4全体を横書きメニュー表示に充てる場合もある。このような場合でも、例えば左手で携帯電話2を持ち、右手を表示部4の上で上下方向に移動させることにより赤外線発光部8、10、12と赤外線受光センサ6がこれを検知してカーソルを上下に移動させる。
 ここで注意すべきは、図5(A)のような横持ちの場合における上下方向は、赤外線発光部10および赤外発光部12を結んだ線方向であるのに対し、図1のような縦持ちの場合における上下方向は、赤外線発光部8および赤外発光部12を結んだ線方向であることである。従って、縦持ちの場合と横持ちの場合で、手を同様に上下方向に移動させた場合、赤外線発光部8、10、12の出力は異なったものとなる。そこで、加速度センサが検知する重力加速度により横持ちか縦持ちかを識別し、赤外線発光部8、10、12の出力の判定基準データテーブルを横持ち用と縦持ち用の間で切り換える。これによって、横持ちか縦持ちかにかかわらず、統一した上下方向の手の動きによりカーソルを上下方向に移動させることができる。
 同様にして、画像のサムネイル表示も、図4のような縦持ちの場合だけでなく、横持ちの場合にも採用される。ここでも、手の動きによりカーソルを左右方向に動かすときと上下方向に動かすときで、縦持ちの場合と横持ちの場合で赤外線発光部8、10、12の出力は異なったものとなる。そこで、図4のような太枠カーソル32を上下左右に動かす場合の手の動きの検知についても、加速度センサにより横持ちか縦持ちかを識別し、赤外線発光部8、10、12の出力の判定基準データテーブルを横持ち用と縦持ち用の間で切り換える。これによって、横持ちか縦持ちかにかかわらず、統一した上下左右方向の手の動きによりカーソルを上下左右方向に移動させることができる。
 なお、図4において拡大画像が上方領域14に表示された状態において、携帯電話2を横持ちにすると、加速度センサがこれを検知し、図5(A)におけるような横長の表示部4一杯に横長拡大画像を表示することができる。このようにして横持ち状態で一枚の画像が拡大された状態においても、さらに一枚ずつの画像のページめくりを手の左右方向の動きで行うとともに、画像のズーム操作を手の上下方向の動きで行うことが可能である。ここにおいても、手の左右方向の動きと上下方向の動きによる赤外線発光部8、10、12の出力は縦持ちの場合と横持ちの場合で異なったものとなる。従って、手の上下左右の動きによるページめくりとズーム操作においても、加速度センサにより横持ちか縦持ちかを識別し、赤外線発光部8、10、12の出力の判定基準データテーブルを横持ち用と縦持ち用の間で切り換える。これによって、横持ちか縦持ちかにかかわらず、統一した上下左右方向の手の動きによりページめくりとズーム操作を行うことができる。
 図5(B)は、携帯電話2の背面の外観図であり、図5(A)と同様の横持ち状態で図示しているが、特に横持ち状態に関連する事項を説明するためのものではなく、背面構成に関する特徴を説明するために図示したものである。図5(B)において、背面カメラ42は、表示部4に表示される画像を見ながら撮影ができるよう、携帯電話2の背面に設けられている。携帯電話2の背面にはさらに、背面赤外発光部35およびこれに近接して背面赤外線受光センサ37が設けられている。背面赤外発光部35および背面赤外線受光センサ37は、上面の背面赤外線受光センサ6および赤外線発光部8、10、12と同様、赤外線透過カバーで覆われているので、意匠上は外部から見えない。背面赤外線受光センサ37は、背面赤外発光部35からの赤外線の反射状態を検知することによって、携帯電話2が背面を背にして机等に密着して置かれている状態と、携帯電話2が手に持たれている状態とを識別できるよう構成される。なお、携帯電話2の背面形状によっては、上記の構成において、さらに背面カメラ42を背面赤外線受光センサ37として機能させることにより検知能力を高める。なお、背面カメラ42を赤外受光センサ37として機能させるときは、専用の背面赤外線受光センサ37を省略するよう構成することも可能である。
 ここで、携帯電話2の電源管理について説明する。携帯電話2は大半の時間、いわゆる「待受」状態にあり、表示をオフするとともに内部構成の消費電力も最低限に抑えられている。そして、携帯電話2の表示をオンにして機能を起動する場合には、携帯電話2の背面または側面を中指または親指でタップする。携帯電話2の加速度センサは、このタップによる振動を検知することにより起動操作がなされたものと判断して表示をオンするとともに諸機能を起動する。この目的のため、加速度センサには待受状態において微弱電流が供給されるとともに、加速度センサは通常動作よりも低い低電力消費モードにて起動操作のための振動を常時検知することができるよう構成される。このように構成する場合、起動を意図したタップ以外の振動を加速度センサが起動操作と誤認しないようにすることが必要となるが、図5(B)における背面赤外発光部35と背面赤外線受光センサ37の組合せは、このような誤起動を防ぐための手段となっている。
 具体的には、待受状態において、赤外発光部35は微弱な赤外光を間欠的に発光するとともに背面赤外線受光センサ37はこの赤外光の反射を検知できる状態に置かれている。従って、携帯電話2が背面を背にして机等に置かれる場合の机面の接近により反射光が増加していくとともに机面への密着によって反射光が最大となり安定する。なお、これを可能とするため、赤外発光部35と背面赤外線受光センサ37は互いに近接して配置されるとともに、携帯電話2の背面自体が机面などに密着しても赤外発光部35と背面赤外線受光センサ37が机面によって塞がれないよう携帯電話2の背面表面から少し沈んだ位置に配置される。以上のようにして、携帯電話2が机面に置かれる場合に特有の反射光変化パターンが赤外線受光センサ37によって検知され、この反射光パターン変化の検知時点から次に携帯電話2が持ち上げられた時の反射光の減衰検知時点までは、加速度センサが振動を検知しても起動を禁止する。これによって携帯電話2が置かれている机に誰かがぶつかった場合や、携帯電話2が常に振動がある車両のシートに置かれていた場合などにおける誤起動を防止することができる。さらに、互いに近接している赤外線発光部12と赤外線受光センサ6の組合せにも同様の誤起動禁止機能を持たせることにより、携帯電話2の上面がうつ伏せになった状態で机や座席に置かれた場合にも対応することができる。また、このようにして上面側と背面側に同様の誤起動禁止手段を設けることにより、携帯電話2をポケットに入れているときの体の振動による誤起動を防止することができる。
 なお、携帯電話2が机上等に置かれた瞬間の衝撃を加速度センサで検知するよう構成し、机面の接近から密着への反射光の増加パターンおよび加速度センサによる机面への密着時における衝撃検知の組合せによって携帯電話2が机上等に置かれたことを検知することでより確実に起動禁止をスタートさせるよう構成してもよい。また、起動禁止の解除についても、携帯電話2が持ち上げられた時の反射光の増加検知と持ち上げ時の加速度検知の組合せに基づいて起動禁止を解除するよう構成してもよい。
 この組合せは、反射光増加検知出力と加速度検知の検知出力の組合せ利用には限らない。例えば、起動禁止がスタートした後は背面カメラ42および背面赤外発光部35の機能を停止させ、加速度センサが加速度を検知した段階で背面カメラ42および背面赤外発光部35の機能を起動するよう構成するような組合せも可能である。このような組合せによれば、背面密着時の反射光強度を記憶しておき、加速度が検知された段階で検知した反射光強度を記憶された反射光強度と比較することで、加速度の検知が携帯電話2の持ち上げによるものか携帯電話2の背面が机上等に密着したままの状態のものか識別することができるので、常時背面カメラ42および背面赤外発光部35の機能を起動しておく必要がなくなり、省電の効果がある。
 図6は、以上のような本発明のモバイル機器の実施例における携帯電話2のブロック図である。図1と同じ構成には同一の番号を付し、説明は省略する。マイクロコンピュータを含む携帯電話制御部36は、所定のクロックにより駆動されて携帯電話2を制御するとともに、電話機能部38と共同して通常の携帯電話機能を実行する。記憶部40は、携帯電話機能部36の機能に必要なコンピュータプログラムを格納するとともに、必要なデータを記憶する。また、電話帳などのテキストデータや背面カメラ42で撮影された画像データなども記憶する。加速度センサ44は、既に説明したように携帯電話2の傾き、振動、衝撃などを入力情報として検知し、携帯電話制御部36に検知情報を送る。LEDドライバ46は携帯電話制御部36の指示に基づきLEDからなる赤外線発光部8、10、12の発光を時分割で制御する。また、フォトダイオードドライバ48は携帯電話制御部36の指示に基づきフォトダイオードからなる赤外線受光センサ6の受光状況を検知し携帯電話制御部36に送る。このとき、LEDドライバ46およびPDドライバ48が時分割で連携しているため、赤外線受光センサ6の出力がどの赤外線発光部8、10、12の発光に基づくものかを識別することができる。また、LEDドライバ46はPWM制御等により赤外線発光部8、10、12の発光強度を変化させることができ、既にのべたように、左手親指の動きの検知の場合と右手親指の動きの検知の場合とでそれぞれの発光強度を変化させることが出来る。
 また、側面静電センサ49は、携帯電話2が操作者の手によって保持されているかどうかを検知し、検知結果を携帯電話制御部36に送ることによって、操作の意図がないときにおける加速度センサ44や赤外線受光センサ6による操作入力の誤検出を排除する。具体的には、携帯電話2が操作者の手によって保持されていることが検知されない限り、加速度センサ44による起動を禁止することによって、携帯電話2が机上や車両のシートにおかれている場合における待受状態からの誤起動を防止することが可能となる。このようにして、側面静電センサ49による操作者の保持の直接検知によっても、背面カメラ42と背面赤外発光部35の組合せによるのと同様の誤起動防止が可能となる。
 オーディオ出力部43は、記憶部40に記憶された楽曲等のオーディオコンテンツを再生するものでオーディオコンテンツデータを音声信号に変換する機能を有するとともに、これを音声信号とするスピーカおよびイヤホンなど外部のアクセサリにオーディオ信号を出力するための出力端子を有する。加速度センサ44はオーディオ出力部43によるオーディオ信号のボリューム調節の入力部を兼ねており、携帯電話2へのタップ箇所またはタップリズムパターンを検知してボリュームのアップダウンを行う。
 図7は、操作の詳細を示す操作画面図であり、図1から図3のような片手操作の場合について説明している。そして、操作による画面変化を一覧するため、表示画面4の下方領域のみを図示している。また、図1と同じ構成には、同一の番号を付し、必要のない限り説明は省略する。図7(A)は図1と同様の表示画面であり、図1で説明したように携帯電話2に電源が入った状態の初期画面のものである。なお、携帯電話2の電源を入れるには、携帯電話2を背面から中指などで所定リズムにて複数回タップする。この所定リズムは、不用意な携帯電話2への振動で意図せず電源が入るのを防止する手段の一つであり、自然では生じないような好みのリズムを予め登録しておくことができる。なお、この所定リズム登録による誤動作防止機能は、携帯電話2に電源が入っている待受状態から表示をオンして諸機能を起動する場合の誤起動防止にも採用できる。
 また、図7(A)においては「進み」指軌跡指示マーク18にハッチングが入れられているが、これは軌跡に沿って指が動いたことを検知した状態であることを示す。そして、この検知が行われると、図7(B)に示す電話モードに表示が変更され、ダイヤル数字盤50等が表示される。破線矢印52は、このような図7(A)から図7(B)への表示変更方向を示す。ダイヤルナンバーの入力は、加速度センサ44による傾きや振動の検知および赤外線発光部8、10、12と赤外線受光センサ6による親指操作の検知によって可能となる。選択されたナンバーには太枠カーソル54が表示され、いずれかのナンバー上に太枠カーソル54がある状態で携帯電話2を裏側から中指などでタップするとナンバーが確定してナンバー表示窓56への入力が行われる。なお、ダイヤルナンバーの入力が終わって図7(B)の状態で「進み」指軌跡指示マーク18に沿って指を動かすと、ダイヤル先への発呼が実行される。因みに、図7(A)の待受け状態において外部からの着信があったとき、「進み」指軌跡指示マーク18に沿って指を動かすと、受信が始まり、図7(B)の状態に移行する。
 図8は、図7と同様の図であるが、図8(B)において、「戻り」指軌跡指示マーク30にハッチングがあるように、軌跡に沿って反時計回りの指の動きを検知した状態であることを示す。そして、この検知が行われると、まず、ナンバー表示窓56にナンバーが入力されている場合、「戻り」指軌跡指示マーク30に沿った指の動きが一回検知される毎にナンバーが一つずつキャンセルされていく。これによって、誤入力の訂正が可能となる。また、ナンバー表示窓56にナンバーが入力されていない状態において、「戻り」指軌跡指示マーク30に沿った指の動きが検知されると破線矢印58に示すように図8(A)の初期画面に戻る。なお、通話状態において、図8(B)の画面から「戻り」指軌跡指示マーク30に沿った指の動きが検知されると通信が遮断される。
 なお、図7(A)および図8(A)の表示状態において指の動きに反応するのは「進み」指軌跡指示マーク18上での動きだけである。換言すると、基本機能選択部16の表示の上で指を動かしても携帯電話2は反応しない。また、図7(B)および図8(B)では本機能選択部16の表示が消えている。従って、図7または図8のいずれの場合も基本機能選択部16の誤作動が起こることはなく、もっぱら電話機能だけが可能となる。このように、本発明では、表示部4の表示状態と赤外線発光部8、10、12と赤外線受光センサ6による手や指の動きの検知を連携させることで誤入力を防止している。
 以上説明した赤外線発光部8、10、12と赤外線受光センサ6の組合せによる入力検知は、携帯電話2と手または指との相対移動の検知に基づくものである。従って、指や手を意図通りに動かしたとしても、手持ちの携帯電話2自体に意図せぬブレがあると相対移動は指や手の動きと携帯電話2自体のブレを合成したものとなり、赤外線発光部8、10、12の出力は必ずしも指や手を動かした意図を正確に反映しない場合がある。これに対処するため、加速度センサ44は携帯電話2自体のブレを検知し、赤外線発光部8、10、12の出力を、携帯電話2自体にブレがなかったものとした場合の情報に補正する。また、この補正は、その時点に検出されるブレの情報だけでなく、指または手を動かした時における片手操作および両手操作に特有の携帯電話2のブレの癖の個人差を学習し、このような学習情報も加味して行われる。
 図9は初期画面から電話機能以外の機能モードを選択する場合の操作と表示の変化を示すものである。基本機能選択部16を活性化するには、電源オンの場合と同様にして、携帯電話2を裏側から中指などで所定リズムにて複数回タップする。この所定リズムは、不用意な携帯電話2への振動で意図せず電源が入るのを防止するため、自然では生じないような好みのリズムを予め登録しておくことができる。このリズムは電源オンと同じものにしてもよく、また異なったものを登録してもよい。加速度センサ44がこのタッチを検知すると、破線矢印52に示すように図9(A)から図9(B)の状態となり、基本機能選択部16が活性化されたことを示すために、「電話帳」、「メニュー」、「メール」、「カメラ」の4つのメニューリストいずれかに太枠カーソル60が表示される。
 図10は、図9(A)から図9(B)への経過を経て基本機能選択部16が活性化された状態におけるカーソル移動操作を示すものである。この状態における太枠カーソル60の移動は、加速度センサ44が携帯電話2の傾きを検知することにより行われる。具体的には、携帯電話2の上面が上を向いている場合、携帯電話2の上側を相対的に持ち上げたとき図10(A)から図10(B)のように太枠カーソル60は上方から下方に移動する。逆に、携帯電話2の上面が上を向いている場合に携帯電話2の下側を相対的に持ち上げたとき図10(B)から図10(A)のように太枠カーソル60は下方から上方に移動する。これは引力に従った移動を模している。一方、寝転がって、携帯電話2を見上げた場合のように携帯電話2の上面が下を向いている場合、携帯電話2の下側を相対的に持ち上げたとき図10(A)から図10(B)のように太枠カーソル60は上方から下方に移動する。また、携帯電話2の上面が下を向いている場合に携帯電話2の上側を相対的に持ち上げたとき図10(B)から図10(A)のように太枠カーソル60は下方から上方に移動する。これも引力に従った移動を模した移動となる。このように、図10の状態では、両方向矢印61で示すように携帯電話2の傾き方向に応じ、太枠カーソル60は図10(A)と図10(B)の間で上下移動する。
 なお、上記の移動における携帯電話2の傾き検知はあくまで相対的なものであり、携帯電話2の絶対的な姿勢に基づくものではない。次に、このような傾きの相対移動検知の際の基準の取り方について説明する。図10のように基本機能選択部16が活性化された状態において、親指を任意の方向に表示部4の下方領域を横切るよう振ると、これが赤外線発光部8、10、12と赤外線受光センサ6によって検知され、携帯電話2の傾き状態にかかわらず基準位置リセットが行われるとともに、その状態で太枠カーソル60の動きが停止する。この基準位置リセットの操作は、片手操作における親指の動きだけでなく、両手操作における空いている方の手が表示部4全体を横切るよう動かすことによって行ってもよい。そして基準位置リセットが行われた携帯電話2の傾きにおいて加速度センサ44が検知する重力加速度が記憶部40に記憶され、この記憶値を基準にして、これとその後の加速度センサ44の検知出力が携帯電話制御部36で比較され、携帯電話4の上側および下側のいずれがその後相対的に持ち上げられたかが判断される。このようにして、指または手を表示部4上で振るたびに基準位置リセットが行われるので、携帯電話2を持ちながら姿勢を変えても、太枠カーソル60が意に沿わない動きをするのを防止することができる。
 図11(A)は、基本機能選択部16のメニューリストにおける「メニュー」に太枠カーソル60がある状態において、「進み」指軌跡指示マーク18の軌跡に沿って指が動いたことを赤外線発光部8、10、12と赤外線受光センサ6が検知し、メニューリストにおける「メニュー」の選択が確定した状態を示す。そしてこのことを示すため、図11(A)では「進み」指軌跡指示マーク18にハッチングが入れられている。そして、このようにして「メニュー」選択の確定検知が行われると、矢印52に示すように図11(B)の詳細メニュー選択モードに表示が変更され、複数の詳細メニューアイコン64が、表示されるようになる。詳細メニューアイコン64の選択は、加速度センサ44による傾きや振動の検知および赤外線発光部8、10、12および赤外線受光センサ6による親指操作の検知のいずれによっても可能であり、選択された詳細メニューアイコンには太枠カーソル66が表示される。
 そして、詳細メニューアイコンの一つに太枠カーソル66がある状態で「進み」指軌跡指示マーク18の軌跡に沿って指を動かすと赤外線発光部8、10、12と赤外線受光センサ6がこれ検知し、詳細メニューアイコンの選択が確定して次の画面への移行が行われる。一方、詳細メニューアイコンのいずれに太枠カーソル66がある状態であっても「戻り」指軌跡指示マーク30の軌跡に沿って指を動かすと赤外線発光部8、10、12と赤外線受光センサ6がこれ検知し、図11(B)から図11(A)の画面への復帰が行われる。
 図12(A)は、基本機能選択部16のメニューリストにおける「メール」に太枠カーソル60がある状態において、「進み」指軌跡指示マーク18の軌跡に沿って指が動いたことを赤外線発光部8、10、12と赤外線受光センサ6が検知し、メニューリストにおける「メール」の選択が確定した状態を示す。そして、図11と同様にして「メール」選択の確定検知が行われると、矢印52に示すような図12(A)から図12(B)への表示変更が行われ、メール入力画面が表示される。これは、図3と同じものであり、その操作の詳細は図3で説明したので省略する。
 図12(B)において、「戻り」指軌跡指示マーク30に軌跡に沿って指を動かすと、赤外線発光部8、10、12と赤外線受光センサ6これを検知し、入力ウインドウ24に文字が入力されている場合、「戻り」指軌跡指示マーク30に沿った指の動きが一回検知される毎に文字が一つずつキャンセルされていく。また、入力ウィンドウ24に文字が入力されていない状態において、「戻り」指軌跡指示マーク30に沿って指を動かすと、赤外線発光部8、10、12と赤外線受光センサ6がこれ検知し、図12(B)から図12(A)の画面への復帰が行われる。
 図13は、本発明の実施例における図6の携帯電話制御部36の機能を示す基本フローチャートである。フローは携帯電話2の主電源のオンでスタートし、ステップS2で携帯電話2の初期立上を行うとともに各部の機能チェックを行う。そしてステップS4で表示部4に図1のような右手操作用の待受け画面が表示される。さらに、ステップS6で、表面の赤外線発光部8、10、12および赤外線受光センサ6、背面の赤外線発光部35および赤外線受光センサ37、側面静電センサ49、並びに加速度センサ44を活性化させる。
 次いでステップS8では、所定時間の間、これらのセンサによる無検知状態が続いているかどうかをチェックする。そして無検知状態が続いているとステップS10に進み、表示部4のバックライトを消すとともに携帯電話制御部36のクロック周期を落とすなどの省電力モードに入る。ステップS10では、さらに赤外線発光部8、10、12、35および赤外線受光センサ6、37を不活性化させる。これらの発光・受光部は、活性化状態では所定の周期で発光受光を繰り返し、手や指の動きを検知しているが、不活性状態では少なくとも赤外発光部8、10、12、35の発光が停止される。
 次いでステップS12では、このような省電力モードから通常動作モードに復帰するための起動を行うとともに発光・受光部を活性化させるための処理に入る。この処理は、携帯電話2の持ち上げなどを検知して自動的に起動させるための処理であるが、その詳細は後述する。そしてこの処理の結果をステップS14でチェックし、通常モードへの起動が行われたかどうかを確認する。そして通常動作への起動が確認できなければステップS12に戻り、以下、ステップS12およびステップS14を繰り返して起動を待つ。一方、ステップS14で通常動作への起動が確認されるとステップS16に移行する。なお、ステップS8において所定時間無検知でないことが確認されると直接ステップS16に移行する。この場合は、省電力モードに入らずに通常動作モードが継続されているからである。
 ステップS16では、発光・受光部による手又は指の動きが検知されたかどうかチェックする。そして何等かの検知があるとステップS18に進み、検知された動きに基づいて表示部4の画面を図1のような右手操作用と図2のような左手操作用の画面に切換えるための処理を行う。この処理は、既に述べたように、表示部4の上での指の初期移動のパターンを識別し、右手親指特有の動きか左手親指特有の動きかを判定するものである。そして、必要に応じ左右の切換えを実行した上でステップS20に移行する。なお、ステップS16の段階で発光・受光部による手又は指の動きが検知されないときは直接ステップS20に移行する。
 ステップS20では、携帯電話2に電話の着信があったかどうかチェックする。そして着信があればステップS22に進み、発光・受光部が図1または図2の「進み」指軌跡指示マーク18をなぞる指の動きを検知したかどうかチェックする。着信中にこの動きがあれば受話操作がなされたことを意味する。そしてこの動きが検知されるとステップS24の通話処理に進む。通話処理は通常の電話中の処理である。一方、ステップS22で上記のような受話操作が検知されない場合はステップS16に戻り、以下着信状態が続いている限りステップS16からステップS22を繰り返して受話操作を待つ。
 通話が終わって電話が切られるとステップS24の通話処理電話が完了し、ステップS26に移行する。なお受話処理がされないままで電話が切れ、ステップS20で着信状態が検知できなくなると直接ステップS26に進む。ステップS26では、図1から図12で説明したような発光・受光部または加速度センサ44による種々の携帯電話2への入力を検知する処理が行われる。なお、ステップS26にもステップS18と同様の左右切換処理が含まれている。ステップS26の入力検知処理の詳細については後述する。入力検知処理が終わるとステップS28に進み、なんらかの入力が検知されたかどうかがチェックされる。そして、ステップS28で入力が検知された場合は検知入力に応じ、ステップS30において図1から図12で説明したような種々の入力対応処理が実行される。ステップS30の入力対応処理の詳細は後述する。入力対応処理が終わるとステップS32に移行する。一方、ステップS28で入力検知が行われなかったことが確認された場合は直接ステップS32に移行する。
 ステップS32では、主電源がオフされたかどうかがチェックされ、主電源オフが検知されない場合はステップS8に戻る。以下、主電源がオフされない限りステップS8からステップS32が繰り返され、種々の入力への対応や省電力モードへの移行および通常動作モードへの復帰が実行される。一方、ステップS32で主電源のオフが検知されたときはフローを終了する。
 図14は、図13のステップS12における起動/発光・受光部活性化処理の詳細を示すフローチャートである。フローがスタートするとステップS42において携帯電話2に対する起動のための所定パターンのタップがあったかどうかチェックされる。このチェックは、加速度センサ44で得られた検知パターンと検知パターンテーブルとの照合により実行される。そしてステップS42で所定パターンのタップが検知されない場合はステップS44に進み、携帯電話2への着信があったかどうかがチェックされる。そして着信が検知されないときはステップS46に進む。
 ステップS46では、加速度センサ44による所定の加速度が検知されたかどうかがチェックされる。加速度センサ44は省電力モードにおいても、チェック周期が遅い状態ではあるが常に活性化されており、加速度の検知が可能である。そしてステップS46で加速度が検知されるとステップS48に進み、赤外線発光部12、35および赤外線受光センサ6、37を活性化させる。表面において特に発光部12を活性化させるのは赤外受光センサ6に近接していて背面赤外光発光部35と同様の密着検知機能が持たせられているからである。さらに、ステップS50では背面カメラ42をオンする。そしてステップS52において表面の赤外線受光センサ6、背面赤外光受光センサ37および背面カメラ42の出力を記憶してステップS54に進む。
 ステップS54では、携帯電話4が操作者の手によって保持されているかどうかを側面静電センサ49で検知する。検知がなければステップS56に進み、表面の赤外光受光センサ6および背面赤外光受光センサ37の両者の出力が所定以下であるかどうかをチェックする。これは、携帯電話2の表面および背面のいずれもが赤外線発光部12、35からの強い反射光の原因となるような面に近接していない状態にあるかどうかをチェックしていることを意味する。
 ステップS56に該当しないときは少なくとも携帯電話2の表面または背面が何らかの面に近接していることを意味するのでステップS58に進み、表面の赤外光受光センサ6の出力がステップS52で記憶された出力から所定以上変化しているかどうかチェックする。これは、携帯電話2の表面に近接する何らかの面から携帯電話2が移動しているかどうかをチェックしていることを意味する。ステップS58にも該当しないときは携帯電話2の表面が何らかの面に置かれたままの状態にある可能性があるのでステップS60に進み、背面赤外光受光センサ37の出力がステップS52で記憶された出力から所定以上変化しているかどうかチェックする。これは、携帯電話2の背面に近接する何らかの面から携帯電話2が移動しているかどうかをチェックしていることを意味する。
 ステップS60にも該当しないときは携帯電話2の背面が何らかの面に置かれたままの状態にある可能性があるのでステップS62に進み、背面カメラ42の出力がステップS52で記憶された出力から所定以上変化しているかどうかチェックする。これも、携帯電話2の背面に近接する何らかの面から携帯電話2が移動しているかどうかをチェックしていることを意味する。ステップS62に該当しないときも携帯電話2の背面が何らかの面に置かれたままの状態にある可能性があるのでステップS64に進む。
 ステップS64では、ステップS46で最初の加速度が検知されてから所定時間経過したどうかのチェックが行わる。そして、時間経過がなければステップS68に進み、加速度センサ44による加速度検知が継続しているかどうかチェックする。加速度検知が継続している場合はステップS54に戻り、以下、加速度検知が継続している限り所定時間が経過するまでの間ステップS54からステップS68を繰り返してステップS54からステップS64のいずれかに該当する状態を待つ。一方、ステップS68で加速度検知が継続していないことが確認されるとステップS70に移行する。また、ステップS64で所定時間が経過したときは、加速度検知が継続していても携帯電話4がなんらかの面に密着したままであるものと看做し、ステップS54からステップS68の繰り返しを停止してステップS70に移行する。
 ステップS70で赤外線発光部12、35および赤外線受光センサ6、37を不活性化するとともにステップS72で背面カメラ42をオフしてフローを終了する。一方、ステップS42で所定パターンのタップが検知されたとき、またはステップS44で着信が検知されたときは、ステップS74で赤外線発光部8、10、12、35および赤外線受光センサ6、37を活性化させるとともにステップS76に進んで直ちに携帯電話2を起動モードに復帰させる。これらの場合は、携帯電話2を起動すべき状態であることが確実であるからである。そして、ステップS72を経由してフローを終了する。なお、この場合は、元々背面カメラ42はオフのままなので、ステップS72では何も起こらない。
 一方、ステップS54からステップS64のいずれかに該当する状態が生じたときは直ちにステップS76に進んで直ちに携帯電話2を起動モードに復帰させる。そしてステップS50でオンされていた背面カメラ42をステップS72でオフしてフローを終了する。以上のようにして、ステップS46で所定の加速度が検知され、かつステップS54からステップS64のチェックによってその加速度が携帯電話2の持ち上げによって生じたと看做されたときは携帯電話2を自動的に起動モードに復帰させる。そしてステップS54からステップS64のいずれにも該当しないときは、ステップS46で加速度が検知されたとしても、携帯電話2が机や車両のシートに置かれた状態または携帯電話2がポケットに入れられた状態で何らかの加速度が加わっただけであって起動の意図はなかったものと看做し、起動を禁止する。
 なお、起動が禁止されたまま図14のフローが終了した場合、図13から明らかなようにステップS14からステップS12に戻るので図14のフローの実行が繰り返される。これによって、誤起動が防止されるとともに、種々の状況に従った起動が実行される。
 図15は、図13のステップS26における入力検知処理の詳細を示すフローチャートである。フローがスタートすると、ステップS82で現在の表示部4の表示が片手操作用画面かどうかチェックする。片手操作画面であればステップS84に進み、発光・受光部による手又は指の動きが検知されたかどうかチェックする。そして何等かの検知があるとステップS86に進み、検知された動きに基づいて表示部4の画面を図1のような右手操作用と図2のような左手操作用の画面に切換えるための処理を行う。そして、必要に応じ左右の切換えを実行した上でステップS88に移行する。なお、ステップS84の段階で発光・受光部による手又は指の動きが検知されないときは直接ステップS88に移行する。また、ステップS82で片手操作画面表示状態でないことが確認されたときも直接ステップS88に移行する。
 ステップS88では、入力検知のために想定されている以外のパターンの加速度が検知されたかどうかチェックする。そしてこのような加速度が検知されると、携帯電話2の絶対的動きをキャンセルする補正を行ってステップS90に移行する。ステップS90の意義は、既にのべたように、発光・受光部の検知出力に手持ちの携帯電話2自体のブレ影響が含まれ、検知出力が指や手を動かした意図を正確に反映しない場合の対策である。つまり、想定外の加速度が検知された時は、指や手を動かしたことに伴って携帯電話2自体に意図しないブレが生じたものと判断し、このプレの絶対的動きをキャンセルすることで、ブレのない携帯電話2に対して指や手を動かしたときの検知出力への補正を行うものである。これによって意図を反映した快適な入力が可能となる。なお、既に述べたように、この携帯電話2の動きをキャンセルする補正にあたっては、検出された絶対的動きの情報だけでなく、指や手を動かしたときの携帯電話2のブレの癖の個人差を学習し、このような学習情報も加味する。なお、ステップS88で想定外加速度が検知されなかったときは直接ステップS92に移行する。
 ステップS92では重力加速度を検知するとともに、ステップS94においてはその検知出力に基づき携帯電話2の画面が縦画面と横画面の間で変更されたかどうかチェックする。そして変更があればステップS96で縦横入換え入力検知処理を行ってステップS98に移行する。縦横入換え入力検地処理の詳細は後述する。一方、ステップS94で縦画面横画面変更検知がなかったときは直接ステップS98に移行する。ステップS98では、以上の処理を加味して発光・受光部による入力検知を行う。
 次いでステップS100では、重力加速度反転の有無を検知する。これは、通常のように表示部4を上から見下ろしている状態と、寝転がって表示部4を下から見上げた状態との間で重力加速度が反転しているか否かを見るものであって、重力加速度の反転が検知されるとステップS102の天地入換え処理を行ってステップS104に移行する。一方、ステップS100で重力加速度の反転が検知されない場合は直接ステップS104に移行する。
 ステップS104では、所定時間加速度の検知がなく携帯電話2が止まっている状態であるかどうかチェックする。これに該当しなければステップS106に進み、発光・受光部が指または手の所定の動きを検知したかどうか検知する。この所定の動きは、例えば表示部4の上を指または手が一回横切るなどの比較的単純な動作である。そしてステップS106でこの動きが検知されるとステップS108に進み、回転検出用基準位置のリセットおよび記憶を行ってステップS110に移行する。また、携帯電話2が所定時間以上静止することでステップS104において所定時間加速度検知がないときもステップS108に移行し、静止した位置において回転検出用基準位置のリセットおよび記憶が行われる。このようにして、所定時間携帯電話2を静止させると自動的にリセット/記憶がかかり、また、所定時間経過する前に指または手が表示部4を横切動きるよう振れば、直ちにリセット/記憶をかけることができる。
 ステップS108の意義は、既にのべたように、例えば図10において太枠カーソル60をメニューの上で動かす場合において、必ずしも絶対的な水平状態を基準位置にせずともよいようにすることにある。つまり、表示部4が所定の角度にあるときステップS108において回転検知用基準位置リセットが行われ、そのときの重力加速度が記憶部40に記憶されると、以後、この記憶値を基準にして新たに検出される重力加速度との比較により携帯電話2の回転が検知されるようになる。一方、ステップS104で静止状態が検出されずステップS106でも発光・受光部による所定動きが検知されないときは、直接ステップS110に移行する。ステップS110では、以上の処理を加味して加速度センサ44による入力検知を行い、フローを終了する。図15のステップS98による受光・発光部入力検知情報およびステップS110による加速度入力検知情報は、図13のステップS30における入力対応処理の情報元となる。
 図16は、図13のステップS30における入力対応処理の詳細を示すフローチャートである。フローがスタートするとステップS112で現在の表示部4の表示が図1または図2のような待受け画面かどうかチェックする。待受け画面であればステップS114に進み、発光・受光部による「進み」操作の指の動きが検知されたかどうかチェックする。これが検知されるとステップS116の電話発信画面に移行する。これは図7で説明した動作に該当する。次いで、ステップS118の通話処理に入る。発呼から通話が行われてこれが終了するか、または通話の実行が中止されるかして通話処理が終了するとステップS120に移行する。また、ステップS114で「進み」操作が検知されないときは直接ステップS120に移行する。
 ステップS120では、加速度センサ44によって携帯電話2が所定リズムにて複数回タップされたかどうかチェックする。これが検知されるとステップS122に進み、メニュー画面への変更を行ってステップS124に移行する。これは、図9で説明した動作に該当する。一方ステップS120で所定回のリズムタップが検知されない場合は直接ステップS124に移行する。また、ステップS112で現在待受け画面が表示中であることが検知できなかったときも直接ステップS124に移行する。
 ステップS124では、現在の表示部4の表示が図9のようなメニュー画面かどうかチェックする。メニュー画面であったときはステップS126に進み、発光・受光部による「戻り」操作が検知されたかどうかチェックする。そしてこの操作が検知されなかったときはステップS128に進み、携帯電話2が傾けられたことによる入力加速度が検知されたかどうかチェックする。そして検知があればステップS130に進み、検知方向にカーソルを移動させてステップS132に移行する。一方、ステップS128で加速度入力検知がなければ直接ステップS132に移行する。ステップS132では、発光・受光部による「進み」操作が検知されたかどうかチェックする。
 ステップS132に「進み」操作の検知があればステップS134でメニューを決定するとともに決定されたメニューに対応する機能画面に進む。これは、図11または図12で説明した動作に対応する。一方、ステップS132で「進み」操作の検知がないときはステップS126に戻り、以下「戻り」操作または「進み」操作が検知されない限りステップS126からステップS132を繰り返す。この間、ステップS128とステップS130による任意のカーソル移動が可能である。
 ステップS134で機能画面に進むと、次のステップS136では、加速度センサ44による加速度入力検知の有無がチェックされる。検知がない場合はステップS138に進み、発光・受光部入力検知の有無がチェックされる。ここで検知が確認されるとステップS140に進み検知入力に応じてカーソル移動又は該当する入力に応じた動作を実行する。また、ステップS136で加速度検知が行われたときもステップS140に進み検知入力に応じてカーソル移動又は該当する入力に応じた動作を実行する。このようにステップS136からステップS140の機能により、加速度入力および発光・受光部入力のそれぞれに対応する特有の入力が可能であるとともに、図3や図11(B)におけるカーソル移動のように加速度入力および発光・受光部入力のいずれでも同じ入力を行うことが可能となる。
 ステップS140のカーソル移動又は該当入力実行処理が完了するとフローが終了する。なお、ステップS138で発光・受光部入力検知がなかったときもフローを終了する。さらに、ステップS126で「戻り」操作が検知されたときはステップS142で画面が待受け画面に戻された上でフローを終了する。またステップS124で表示されているのがメニュー画面でなかったときはステップS144に進んで機能画面であるかどうかをチェックする。そして機能画面であったときはステップS136に移行して加速度検知のフローに入る。一方、ステップS144で機能画面でなかったときは待受け画面が表示されていることを意味するから直ちにフローを終了する。
 図17は、図15のステップS96における縦横入換え入力検知処理の詳細を示すフローチャートである。フローがスタートすると、ステップS152で縦位置画面状態の重力加速度が検知されているかどうかチェックする。そして縦位置重力状態であればステップS154に進み縦位置における天地を設定する。これは同じ縦位置でも天地が逆だと発光・受光部検知出力が異なってくるからである。そしてステップS156で発光・受光部が画面の短辺方向の手または指の移動を検知したかどうかチェックする。そして該当する動きが検知されるとステップS158に進み、左右方向の操作として右または左の検知方向とともに入力を行ってステップS160に移行する。一方ステップS156で該当する検知がなければ直接ステップS160に移行する。
 ステップS160では、発光・受光部が画面の長辺方向の手または指の移動を検知したかどうかチェックする。そして該当する動きが検知されるとステップS162に進み、上下方向の操作として上または下の検知方向とともに入力を行ってフローを終了する。一方ステップS156で該当する検知がなければ直ちにフローを終了する。
 これに対し、ステップS152で縦位置画面状態の重力加速度が検知されない場合は横意義画面状態であることを意味するからステップS164に移行し、横位置における天地を設定する。そしてステップS166で発光・受光部が画面の長辺方向の手または指の移動を検知したかどうかチェックする。そして該当する動きが検知されるとステップS168に進み、左右方向の操作として右または左の検知方向とともに入力を行ってステップS170に移行する。一方ステップS166で該当する検知がなければ直接ステップS170に移行する。
 ステップS170では、発光受光部が画面の短辺方向の手または指の移動を検知したかどうかチェックする。そして該当する動きが検知されるとステップS172に進み、上下方向の操作として上または下の検知方向とともに入力を行ってフローを終了する。一方ステップS170で該当する検知がなければ直ちにフローを終了する。
 以上のように図17のフローでは画面が縦位置状態であるか横位置状態であるかにかかわらず、左右方向の指または手の動きは左右方向の入力として、上下方向の指または手の動きは上下方向の入力として統一して処理する。これは、図1から図4の状態と図5の状態とを比較すればと明らかなように赤外線発光部8、10、12および赤外線受光センサ6の位置が90度回転しており、そのままでは、例えば左右方向に指または手を動かしたとき、画面が縦位置状態で左右の動きが入力されるとしても、横位置状態では上下方向の動きとして入力されてしまうことへの対策である。
 図18は、図13のステップS18および図15のステップS86における左右切換処理の詳細を示すフローチャートである。フローがスタートするとステップS184で右手用パターンが表示されているかどうかチェックする。右手用パターンが表示されていればステップS186に進み、最初に発光・受光部が動きを検知してから所定時間が経過したかどうかチェックする。未経過ならステップS188に進み、発光・受光部入力検知処理を行う。この処理は、図15のステップS98と同様のものであるがその詳細は後述する。
 そしてステップS190ではステップS188の検知処理に基づき左手の動きの特徴が検知されたどうかチェックする。これは、例えば左手で携帯電話2を持ってその親指を動かしたときの親指の付け根から指が振られる場合に特徴的な動きである。検知がなければステップS192に進み、携帯電話2の左側面がタップされたかどうかチェックする。これは例えば左手で携帯電話2を持ってその親指で携帯電話2をタップするときの加速度検知に該当する。そしてステップS192でこのようなタップの加速度が検知されるとステップS194に移行する。また、ステップS190で左手の動きの特徴が検知されたときもステップS194に移行する。一方、ステップS192で左側面タップが検出されなければステップS186に戻り、以下所定時間が経過するまで、左手特有の動きが検知されるか左側面がタップされるのを待つ。この構成により、左手の動きの検知を通じて自動的にステップS194に移行することが可能であるとともに検知がうまくいかないときは左手親指タップにより即座にステップS194に移行することができる。
 以上により左手操作が検知されてステップS194以降に進んだときは、まずステップS194で表示を左手用パターンに切換える。これは、例えば、図1の状態から図2の状態に表示部4の表示が切換わることを意味する。また、ステップS196では、左手用LED強度への切換が行われる。これは、例えば図1において発光部12よりも発光部10の発光強度が強くなるよう設定していたものを図2の状態において発光部10よりも発光部12の発光強度を強くする切換に該当する。これは、操作する手の親指の付け根近傍にある発光部の強度よりも、親指付け根から遠い発光部の強度が強くなるようにする切換である。さらにステップS198では、動き検知用パターンを左手用に切換える。これは、例えば図1において「進み」指軌跡指示マーク18に沿って時計回りに親指が動いたことを検知する検知用パターンを、図2における「進み」指軌跡指示マーク18に沿って反時計回りに親指が動いたことを検知する検知用パターンに切換えることに該当する。そしてこれらの処理が終わるとフローを終了する。なお、ステップS186で所定時間が経過したときもフローを終了する。これは、右手パターン表示において携帯電話2が右手で持たれており、左右切換をする必要のない場合に相当する。
 一方、ステップS184で右手用パターンの表示が行われていない場合は左手パターン表示が行われていることを意味するからステップS200に移行する。左手用パターンが表示されているときのステップS200以降の動作は、右手用パターンが表示されているときのステップS186と基本的に同じである。具体的には、まずステップS200において、最初に発光・受光部が動きを検知してから所定時間が経過したかどうかチェックする。未経過ならステップS202に進み、発光・受光部入力検知処理を行う。そしてこの検知結果に基づき、ステップS204では右手の動きの特徴が検知されたどうかチェックする。検知がなければステップS206に進み、携帯電話2の右側面がタップされたかどうかチェックする。そしてこのようなタップの加速度が検知されるとステップS208に移行する。また、ステップS204で右手の動きの特徴が検知されたときもステップS208に移行する。一方、ステップS206で右側面タップが検出されなければステップS200に戻り、以下所定時間が経過するまで、右手特有の動きが検知されるか右側面がタップされるのを待つ。
 ステップS208では、表示を右手用パターンに切換える。また、ステップS210では、右手用LED強度への切換が行われる。さらにステップS212では、動き検知用パターンを右手用に切換える。そしてこれらの処理が終わるとフローを終了する。なお、ステップS200で所定時間が経過したときもフローを終了する。これは、左手パターン表示において携帯電話2が左手で持たれており、左右切換をする必要のない場合に相当する。
 図19は、図15のステップS98および図18のステップS188とステップS202における発光・受光部入力検知処理の詳細を示すフローチャートである。フローがスタートすると、まずステップS221で内側カメラ13の画像の画像処理に基づいて顔認識がなされたかどうかチェックする。そして顔認識ができればステップS222以下に移行するが、顔認識ができない場合は直ちにフローを終了する。これは、既に述べたように、表示部4を見ている操作者の顔が検知できない限り、赤外線受光センサ6および赤外線発光部8、10、12による入力操作を行うことができないよう構成し、操作の意図がないときに、不用意に表示面4上を手などが横切った場合における誤動作を防止するものである。
 顔認識ができてステップS222に進むと、操作パターンの確認が行われる。そしてステップS224で発光部8を発光させ、ステップS226でその反射光の有無や強度を検知するため受光センサ6の出力をサンプリングする。この結果は次のステップS228において発光部8の反射光強度として記憶される。なお、表示部4上に指や手などがないときは基本的には反射光強度はゼロである。
 次いで、ステップS230で発光部10を発光させ、ステップS232でその反射光の有無や強度を検知するため受光センサ6の出力をサンプリングする。この結果は次のステップS234において発光部10の反射光強度として記憶される。さらに、ステップS236で発光部12を発光させ、ステップS238でその反射光の有無や強度を検知するため受光センサ6の出力をサンプリングする。この結果は次のステップS240において発光部12の反射光強度として記憶される。以上のように、発光部8、10および12は時分割で発光されるので、そのタイミングに基づき受光センサ6の出力がいずれの発光部からの反射光強度であるか把握される。
 次のステップS242では、以上のような時分割の反射光検知により、指などの移動軌跡を判定するに充分の所定数の経時サンプルが取得できたかどうかチェックされる。そして所定サンプル数に満たないときはステップS224にもどり、以下ステップS242で所定のサンプル数が検知されるまでステップS224からステップS242を繰り返す。ステップS242で所定のサンプル数が得られたことが確認されるとステップS244でこれを動き軌跡に変換し、ステップS246で操作パターンに対応するテーブルと比較する。そしてステップS248で検知した動き軌跡と一致するテーブルがあるどうかのチェックが行われ、一致するテーブルがあったときはこれに基づきステップS250で入力操作を特定してフローを終了する。なお、ステップS248で一致テーブルがないときはステップS252に進み、所定時間が経過しているかチェックする。そして経過がなければステップS224に戻り、以下所定時間が経過するか入力の特定が行われるまでステップS224からステップS252を繰り返す。
 以下では、本発明に開示されている技術的特徴について総括的に説明する。
<第1の技術的特徴>
 本明細書中に開示されている第1の技術的特徴は、機器への加速度を検知する加速度検知部と、第1状態と第2状態とを識別する状態識別部と、加速度検知部が加速度を検知し且つ状態識別部が第1状態機器を識別したとき機器への給電を開始するとともに加速度検知部が加速度を検知しても状態識別部が前記第2状態機器を識別したときは機器への給電を開始させない給電制御部とを有するモバイル機器を提供する。これによって、モバイル機器を持ち上げるなどの動作により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。具体的な特徴によれば、状態識別部は、発光部とこの発光部の光の反射光を受光可能な受光部を有し、受光部の受光状態に応じて第1状態と第2状態とを識別する。
 さらに具体的な特徴によれば、状態識別部は、受光部の出力が所定以下であるとき第1状態であると識別し、そうでないときは第2状態であると識別する。受光部の出力が所定以下であるかどうかは、モバイル機器が発光部の光を反射するような物体に近接しているかどうかに依存するので、これを識別することによりモバイル機器を持ち上げるなどの動作により自動的に機器への給電を開始するとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他のさらに具体的な特徴によれば、状態識別部は、受光部の出力変化が所定以上であるとき第1状態であると識別し、そうでないときは第2状態であると識別する。受光部の出力変化が所定以上であるかどうかは、モバイル機器が発光部の光を反射するような物体からの距離が変化するような移動をしているかどうかに依存するので、これを識別することによりモバイル機器を持ち上げるなどの動作により自動的に機器への給電を開始するとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他のさらに具体的な特徴によれば、発光部および受光部はモバイル機器の背面または表面において互いに近接して配置される。これによって、モバイル機器が机等から持ち上げられたことによって加速度が検知されたのか、またはモバイル機器が机等に置かれたままの状態で加速度が検知されたかの識別が可能となり、モバイル機器を持ち上げるなどの動作により自動的に機器への給電を開始するとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他のさらに具体的な特徴によれば、カメラ部を有するとともに、状態識別部はカメラ部が反射光を受光可能なよう発光する発光部を有していてカメラ部の出力変化が所定以上であるとき第1状態であると識別し、そうでないときは第2状態であると識別する。カメラ部の出力変化が所定以上であるかどうかは、モバイル機器が発光部の光を反射するような物体からの距離が変化するような移動をしているかどうかに依存するので、これを識別することによりモバイル機器を持ち上げるなどの動作により自動的に機器への給電を開始するとともに、意図しない加速度検知に基づく誤給電を防止することができる。そして、本来受光能力を備えているカメラ部を活用することによりこのような識別が可能となる。
 他のさらに具体的な特徴によれば、発光部は赤外光を発光する。これによって上記の受光部またはカメラ部が自然光と混同することなく発光部からの発光に基づく反射光を受光し、受光部の受光状態に応じて第1状態と第2状態とを識別することができる。
 他のさらに具体的な特徴によれば、発光部は、加速度センサが加速度を検知することにより発光を開始する。これによって無用の発光によってエネルギーをロスすることなく、加速度が検知されて受光部の受光状態に応じて第1状態と第2状態とを識別する必要が生じたときに自動的に発光を行うことができる。
 他の具体的な特徴によれば、給電制御部は、モバイル機器が所定時間以上操作されないとき機器への給電を停止する。これによって、モバイル機器が使用されていないと看做される時には自動的に給電を停止するとともに、モバイル機器を持ち上げるなど使用の意図有りと看做せる動作により自動的に機器への給電が開始し、且つ意図しない加速度検知に基づく誤給電を防止して給電停止状態を維持することができる。
 他の具体的な特徴によれば、状態識別部は、加速度検知部が検知する加速度が所定のパターンに合致するとき前記第1状態であると識別し、そうでないときは前記第2状態であると識別する。これによって、モバイル機器の使用を意図して加えた加速度により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他の具体的な特徴によれば、状態識別部は、機器への人体の接触を検知する接触検知部を有し、接触検知部が人体の接触を検知するとき第1状態であると識別し、そうでないときは第2状態であると識別する。これによって、モバイル機器を持ち上げるなど人体の接触を伴う加速度検知により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他の具体的な特徴によれば、発光部と前記発光部の光の反射光を受光可能な受光部により機器周辺の動きを検知することによる非接触入力部を有するとともに、状態識別部はこの非接触入力部の記受光部における受光状態に応じて前記第1状態と前記第2状態とを識別する。このようにして、本来受光能力を備えている非接触入力部を活用することにより、モバイル機器を持ち上げるなど人体の接触を伴う加速度検知により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 他の特徴によれば、発光部とこの発光部の光の反射光を受光可能な受光部により機器周辺の動きを検知することによる非接触入力部と、機器への加速度を検知する加速度検知入寮部と、非接触入力部における受光部の出力と加速度検知入力部の加速度検知との組み合わせにより機器への給電を開始するか否かを決定する給電制御部とを有するモバイル機器が提供される。この特徴では、非接触入力部と加速度検知入力部の組合せにより、例えばモバイル機器を持ち上げるなどの動作により自動的に機器への給電が開始されるとともに意図しない加速度検知に基づく誤給電を防止するなど、適切な給電制御が可能となる。
 具体的な特徴によれば、給電制御部は、加速度検知部が加速度を検知し且つ受光部の出力が所定以下であるとき機器への給電を開始するとともに加速度検知部が加速度を検知しても受光部の出力が所定以下かでないときは機器への給電を開始させない。また、他の具体的な特徴によれば、給電制御部は、加速度検知部が加速度を検知し且つ受光部の出力変化が所定以上であるとき機器への給電を開始するとともに加速度検知部が加速度を検知しても受光部の出力変化が所定以上でないときは機器への給電を開始させない。
 他の特徴によれば、機器への加速度を検知する加速度検知部と、加速度検知部が検知する加速度が所定のパターンに合致するとき機器への給電を開始するとともに加速度検知部が加速度を検知してもその加速度が所定のパターンでないときは機器への給電を開始しない給電制御部とを有するモバイル機器が提供される。これによって、モバイル機器の使用を意図して加えた加速度により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 具体的な特徴によれば、機器の状態を識別する状態識別部を有し、給電制御部は状態識別部による状態識別結果と加速度検知部の加速度検知との組み合わせにより機器への給電を開始するか否かを決定するとともに、加速度検知部が検知する加速度が所定のパターンに合致するときは上記の組合せに優先して機器への給電を開始する。このようにして、所定パターンに合致する加速度が検出されないときでも適切な推測により給電決定を行うとともに、所定パターンの加速度検知によりモバイル機器の使用意図が明確なときはこれを優先して機器への給電を開始する。
 他の特徴によれば、機器への人体の接触を検知する接触検知部と、機器への加速度を検知する加速度検知部と、加速度検知部が加速度を検知し且つ接触検知部が人体の接触を検知しているとき機器への給電を開始するとともに加速度検知部が加速度を検知しても接触部が人体の接触を検知しないときは機器への給電を開始しない給電制御部とを有するモバイル機器が提供される。これによって、モバイル機器を持ち上げるなど人体の接触を伴う加速度検知により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができる。
 具体的な特徴によれば、機器の状態を識別する状態識別部を有し、給電制御部は状態識別部による状態識別結果と加速度検知部の加速度検知との組み合わせにより機器への給電を開始するか否かを決定するとともに、加速度検知部が加速度を検知し且つ接触検知部が人体の接触を検知しているときは上記の組合せに優先して機器への給電を開始する。このようにして、接触検知部以外の部分が持たれた場合などのように人体の接触が検知されないときでも適切な推測により給電決定を行うとともに、接触検知によりモバイル機器の使用意図が明確なときはこれを優先して機器への給電を開始する。
 上記のように、本明細書中に開示されている第1の技術的特徴によれば、モバイル機器を持ち上げるなどの動作により自動的に機器への給電が開始されるとともに、意図しない加速度検知に基づく誤給電を防止することができ、使用の容易なモバイル機器を提供することができる。
<第2の技術的特徴>
 本明細書中に開示されている第2の技術的特徴は、機器への加速度を検知する加速度検知部と、表示画面と、表示画面上で動かされる手の動きを検知する動き検知部と、動き検知部による動き検知および加速度検知部による加速度検知に基づいて入力を行う入力手段とを有するモバイル機器を提供する。これによって動き検知部と加速度検知部の情報を活用した有用な入力手段を有する使用の容易なモバイル機器が提供される。
 具体的な特徴によれば、表示画面は長辺と短辺を有する矩形であるとともに、入力手段は加速度検知部の検知に基づいてモバイル機器が表示画面が縦長となるになる位置と横長になる位置のいずれの姿勢にあるかを検出し、この検出結果に基づいて表示画面の姿勢にかかわらず同じ方向の手の動きに基づいて同じ意味づけの入力を行う。
 矩形表示画面を有するモバイル機器にあっては、前記表示画面が縦長となるになる位置と横長になる位置のいずれの姿勢でもモバイル機器を保持することが可能であるが、このような姿勢の変更によりモバイル機器に備えられた動き検知部の姿勢も90度回転してしまう。従って、このままでは手の動きにより同じ意味づけの入力を行おうとすると、縦長の場合と横長の場合で手の動きも90度違ったものとしなければならなくなり、ユーザが混乱する。上記の具体的な特徴は、このような問題が起こらないよう、加速度検知部の検知に基づいてモバイル機器の姿勢を検出し、姿勢にかかわらず同じ方向の手の動きに基づいて同じ意味づけの入力を行うことができるよう構成したものである。
 さらに具体的な特徴によれば、入力手段は、表示画面の姿勢にかかわらず、表示画面上での左右方向の手の動きに基づいて同じ意味づけの入力を行う。また、他のさらに具体的な特徴によれば、入力手段は、表示画面の姿勢にかかわらず、表示画面上での上下方向の手の動きに基づいて同じ意味づけの入力を行う。
 他の具体的な特徴によれば、動き検知部は、赤外発光部と表示画面上で動かされる手から反射する赤外発光部の赤外光を受光する赤外受光部を有する。これによって、画面を直接タッチしなくても画面との関係で入力を行うことが可能であり、画面に指紋をつける心配がなくなる。
 他の具体的な特徴によれば、入力手段は、加速度検知部が検出する入力加速度に基づいて入力を行う際、動き検知部による手の動きに応じて重力加速度検知の基準値を更新する。これによって、これによって動き検知部と加速度検知部を組合せた入力手段を有する使用の容易なモバイル機器が提供される。
 さらに他の具体的な特徴によれば、入力手段は、動き検知部の検知情報を加速度検知部の情報で補正する。これによって動き検知部と加速度検知部の他の態様で組み合わせた入力手段を有する使用の容易なモバイル機器が提供される。
 さらに具体的な特徴によれば、入力手段は、動き検知部による画面と手の動きとの相対移動検知情報からの加速度検知部によるモバイル機器の絶対移動情報を差し引く補正を行う。動き検知部により検知される表示画面上での手の動きは表示画面と手との相対移動であるが、モバイル機器は手で保持されるので、表示画面に対して手を動かそうとしたときに同時に表示画面の方もブレてしまって意図通りの入力ができない場合がある。これに対し、上記のように動き検知部の検知情報からの加速度検知部情報を差し引くことによってブレのない画面に対して行った意図どおりの快適な入力が可能となる。
 他の特徴によれば、機器への加速度を検知する加速度検知部と、表示画面と、表示画面による表示と加速度検知部が検出する入力加速度に基づいて入力を行う入力手段と、入力に必要な重力加速度検知の基準値を更新する更新手段とを有するモバイル機器が提供される。
 モバイル機器を傾け、これを加速度検知部により検知させて表示画面を操作する場合、モバイル機器の基準位置を絶対的な水平状態とすると操作が不自由となる。これに対し、上記のように基準位置の更新手段を設ければ、モバイル機器の任意の姿勢で基準位置を更新でき、以後、更新された基準位置をもとにモバイル機器の姿勢変化による入力が可能となる。従って、例えばモバイル機器を持ちながら体の向きを変えても、その後、意に沿わない入力がなされるのを防止することができる。
 具体的な特徴によれば、更新手段は、加速度検知部の検知する重力加速度が所定時間変化しないことを判断する判断手段である。また、他の具体的な特徴によれば、更新手段は、モバイル機器に対する手の動きを検知する動き検知部である。これらの更新手段はモバイル機器を扱うユーザの自然な動作に則ったものであって、容易な入力操作を可能とする。
 他の特徴によれば、機器への加速度を検知する加速度検知部と、表示画面と、赤外発光部と、表示画面上で動かされる手から反射する赤外発光部の赤外光を受光する赤外受光部と、加速度検知部からの情報に基づいて表示画面との関係で第一の意味づけの入力を行うとともにともに、赤外受光部からの情報に基づいて前記表示画面との関係で第二の意味づけの入力を行う入力手段とを有するモバイル機器が提供される。
 上記の特徴によれば、モバイル機器に対する相対的な手の動きの情報と、モバイル機器を傾けたりタップしたりすることによりモバイル機器にかかる加速度の情報とを使い分けることによって、表示画面との関係で複数の意味づけの入力を自然な動作で容易に行うことができる。
 具体的な特徴によれば、第一および第二の意味づけの一方が表示画面上の選択項目の選択であるとともに他方は選択の決定である。これによって、例えばモバイル機器を傾けることによって重力に従った表示画面上の選択項目の選択を行うとともに、表示画面上での手の動きでその選択を決定する等、表示画面にタッチすることなく容易かつ自然な入力が可能となる。
 他の特徴によれば、機器への加速度を検知する加速度検知部と、表示画面と、赤外発光部と、表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部と、加速度検知部からの情報および前記赤外受光部からの情報のいずれであっても表示画面との関係で同じ意味づけの入力を行う入力手段とを有するモバイル機器が提供される。
 上記の特徴によれば、表示画面との関係で同じ意味づけの入力を行う際に、モバイル機器に対する相対的な手の動きと、モバイル機器を傾けるなどの加速度をかける動作を併用して入力を行うことができ、場合に応じた自然な動作で容易に同じ意味づけの入力を行うことができる。
 具体的な特徴によれば、入力手段は、加速度検知部からの情報および赤外受光部からの情報のいずれであっても表示画面上の選択項目の選択を行う。この場合、選択項目の順次選択にはモバイル機器を傾けるとともに、離れた位置に飛んで選択をおこなうときには手の動きを利用するなど、場合に応じた自然な動作で容易に同じ意味づけの入力を行うことができる。
 上記のように、本明細書中に開示されている第2の技術的特徴によれば、入力の容易モバイル機器を提供することができる。
<第3の技術的特徴>
 本明細書中に開示されている第3の技術的特徴は、表示画面と、表示画面上で動かされる手の動きを検知する動き検知部と、表示画面上で動かすべき手の動きの指示を表示画面上に表示させる表示制御部と、動き検知部が表示画面上に表示された指示に対応する動きを検知したかどうかを判断する判断部とを有するモバイル機器を提供する。
 上記の特徴によって手の動きの判断にあたり、目的の手の動きを的確に導くことができる。具体的な特徴によれば、判断部の判断に基づき所定の入力を行われるが、上記特徴はこの入力を行うための手の動きを的確に導くことが可能となる。
 他の具体的な特徴によれば、動き検知部は、赤外発光部と前記表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部を有する。これによって、画面を直接タッチしなくても画面との関係で入力を行うことが可能であり、画面に指紋をつける心配がなくなる。上記特徴は、このように画面を直接タッチしない場合において的確な手の動きを的確に導くことが可能となるものである。
 他の具体的な特徴によれば、前記表示制御部は前記表示画面上で動かすべき手の動きの軌跡を前記表示画面上に表示させる。これによって手の動きを直感的に導くことができる。さらに具体的な特徴によれば、判断部は、動き検知部が表示画面上に表示された前記軌跡に沿った動きを検知したかどうかを判断する。
 さらに具体的な特徴によれば、表示制御部は、表示画面上で軌跡に沿って動かすべき手の動きの方向を表示画面上に表示させる。これによって、手を軌跡に沿って動かす際の方向が明確になり、より的確に手の動きを導くことができる。さらに具体的な特徴によれば、表示制御部は、軌跡に沿って動かすべき手の動きの方向に応じて異なる意味の入力を前記表示画面上に表示させる。このように軌跡に方向を加えることにより手の動きにより入力できる情報量を増やすことができる。さらに具体的な特徴によれば、表示制御部は、動かすべき手の動きの方向の異なる複数の指示を複数の意味の入力に対応付けて前記表示画面上に表示させることができる。
 他の具体的な特徴によれば、表示制御部は、判断部による判断がおこなわれないときは指示の表示を行わない。これによって、判断に寄与しない無駄な手の動きを導くなどの混乱を防止し、ユーザにとって使い易いモバイル機器が提供できる。
 他の特徴によれば、表示画面と、表示画面上に同じ意味の入力に対し、右手操作の場合と左手操作の場合で異なった指示を前記表示画面上に表示させる表示制御部を有するモバイル機器が提供される。
 上記の特徴によって、モバイル機器を持った片手で同じ意味の入力を行うに際し、右手の動きをこれと対称形の左手に平行移動したような不自然な動きを強いることなく、右手と左手のそれぞれ自然な動きにより同じ意味の入力を行うことが可能となる。
 具体的な特徴によれば、表示制御部は、右手操作の場合と左手操作の場合で互いに左右対称配置の指示を表示画面上に表示させる。これによって、互いに対称の関係にある右手と左手のそれぞれ自然な動きにより同じ意味の入力を行うことが可能となる。例えば、親指で操作する場合、右手で持った場合は手の平の右側にある右手親指から、左手で持った場合は手の平の左側にある左手親指から自然な操作が可能となる。
 他の具体的な特徴によれば、表示画面上で動かされる手の動きを検知する動き検知部を有し、表示制御部は動き検知部の検知に基づいて、右手操作の場合と左手操作の場合で異なった指示を前記表示画面上に表示させる。これによって、右手または左手の動きにそのものに基づいて簡単に右手操作状態と左手操作状態が切換わる。
 他の具体的な特徴によれば、機器への加速度を検知する加速度検知部を有し、表示制御部は加速度検知部の検知に基づいて、右手操作の場合と左手操作の場合で異なった指示を表示画面上に表示させる。これによって、片手操作の際に親指で携帯電話をタップするなどにより、他方の手の助けを得なくても簡単かつ速やかに右手操作状態と左手操作状態を手動で切り替えることができる。
 他の特徴によれば、表示画面と、表示画面上で動かされる手の動きを検知する動き検知部と、右手操作の場合と左手操作の場合で異なる前記動き検知部の出力に基づいて同じ意味の入力を行う入力部とを有することを特徴とするモバイル機器が提供される。これによって、右手と左手で互いに対称になるような動きで入力を行ったとしても同じ意味の入力として処理することができる。
 具体的な特徴によれば、動き検知部は、赤外発光部と表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部を有し、入力部は右手操作の場合と左手操作の場合で前記赤外発光部の発光強度を変化させる。これによって、右手と左手で互いに対称になるような動きで入力を行ったとしてもいずれの場合も適切な赤外反射光出力を得ることができる。
 他の特徴によれば、表示画面と、表示画面上で動かされる手の動きを検知する動き検知部と、右手操作の場合と左手操作の場合で検知部の検知結果を異なる判断基準に基づいて同じ意味の入力と判断する判断部とを有するモバイル機器が提供される。これによって、右手と左手で互いに対称になるような動きで入力を行った結果検知部の検知結果が異なったとしてもこれを同じ意味の入力として処理することができる。
 他の特徴によれば、表示画面と、入力部と、表示画面に対抗する方向を撮像するカメラ部と、カメラ部の画像を処理して顔を認識する顔認識部と、顔認識部により表示画面に対抗する顔が認識されるとき入力部による入力を行うモバイル機器が提供される。
 通常、入力操作を行うときは、操作者は表示画面を見ており、その結果表示画面に対抗する方向を撮像するカメラ部には操作者の顔が撮像される。従って、上記の特徴より、表示画面を見ている操作者の顔を検知した上で、入力部による入力が行われるようになるので、操作者の顔が表示画面上にない状態で誤入力が反応して誤入力が生じるのを防止できる。
 具体的な特徴によれば、入力部は、表示画面上で動かされる手の動きを検知する動き検知部を有することを特徴とする。これによって、操作の意図がないときに、不用意に表示画面上を手などが横切った場合等における誤入力が防止される。
 上記のように、本明細書中に開示されている第3の技術的特徴によれば、入力の容易モバイル機器を提供することができる。
 本発明は、使用の容易なモバイル機器を提供するものである。
   4  表示画面
   6、8、10、12  動き検知部、非接触入力部
   36  表示制御部
   36  判断部
   8、10、12  赤外発光部
   6  赤外受光部
   13  カメラ部
   36  顔認識部
   44  加速度検知部
   36  入力部
   6、12、35、36、37、42  状態識別部
   36  給電制御部
   12、35  発光部
   6、37、42  受光部
   35、37、42  背面発光部・受光部
   6、12  表面受光部・発光部
   42  カメラ部
   49  接触検知部
   36、40  更新手段

Claims (20)

  1.  機器への加速度を検知する加速度検知部と、条件識別部と、前記加速度検知部の出力と前記条件検知部の出力との組み合わせにより機器への給電を開始するか否かを決定する給電制御部とを有することを特徴とするモバイル機器。
  2.  前記条件識別部は、第1状態と第2状態とを識別する状態識別部を有し、前記給電制御部は、前記加速度検知部が加速度を検知し且つ前記状態識別部が前記第1状態を識別したとき機器への給電を開始するとともに前記加速度検知部が加速度を検知しても前記状態識別部が前記第2状態を識別したときは機器への給電を開始させないことを特徴とする請求項1記載のモバイル機器。
  3.  前記状態識別部は、発光部と前記発光部の光の反射光を受光可能な受光部を有し、前記受光部の受光状態に応じて前記第1状態と前記第2状態とを識別することを特徴とする請求項2記載のモバイル機器。
  4.  前記条件識別部は、発光部と前記発光部の光の反射光を受光可能な受光部により機器周辺の動きを検知することによる非接触入力部を有し、前記給電制御部は、前記受光部の出力と前記加速度検知部の加速度検知との組み合わせにより機器への給電を開始するか否かを決定することを特徴とする請求項1記載のモバイル機器。
  5.  前記条件識別部は、前記加速度検知部が検知する加速度が所定のパターンに合致するか否かを識別し、前記給電制御部は、前記加速度検知部が検知する加速度が所定のパターンに合致するとき機器への給電を開始するとともに前記加速度検知部が加速度を検知してもその加速度が所定のパターンでないときは機器への給電を開始させないことを特徴とする請求項1記載のモバイル機器。
  6.  前記条件識別部は、機器への人体の接触を検知する接触検知部を有し、前記給電制御部は、前記加速度検知部が加速度を検知し且つ前記接触検知部が人体の接触を検知しているとき機器への給電を開始するとともに前記加速度検知部が加速度を検知しても前記接触部が人体の接触を検知しないときは機器への給電を開始させないことを特徴とする請求項1記載のモバイル機器。
  7.  表示画面と、前記表示画面による表示と前記加速度検知部が検出する重力加速度に基づいて入力を行う入力手段とを有することを特徴とする請求項1記載のモバイル機器。
  8.  表示画面と、前記表示画面上における入力のための異なった指示を前記表示画面上に表示させる表示制御部と、前記表示画面上に表示された指示に基づく入力が前記表示画面上でなされたかどうかを判断する判断部とを有することを特徴とする請求項1記載のモバイル機器。
  9.  機器への加速度を検知する加速度検知部と、表示画面と、前記表示画面による表示と前記加速度検知部が検出する重力加速度に基づいて入力を行う入力手段とを有することを特徴とするモバイル機器。
  10.  前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有し、前記入力手段は、前記動き検知部による動き検知および前記加速度検知部による加速度検知に基づいて入力を行うことを特徴とする請求項9記載のモバイル機器。
  11.  前記表示画面は長辺と短辺を有する矩形であるとともに、前記入力手段は前記加速度検知部の検知に基づいてモバイル機器が前記表示画面が縦長になる位置と横長になる位置のいずれの姿勢にあるかを検出し、この検出結果に基づいて前記表示画面の姿勢にかかわらず同じ方向の手の動きに基づいて同じ意味づけの入力を行うことを特徴とする請求項10記載のモバイル機器。
  12.  入力に必要な重力加速度検知の基準値を更新する更新手段をさらに有することを特徴とする請求項9記載のモバイル機器。
  13.  赤外発光部と、前記表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部とをさらに有するとともに、前記入力手段は、前記加速度検知部からの情報に基づいて前記表示画面との関係で第一の意味づけの入力を行うとともにともに前記赤外受光部からの情報に基づいて前記表示画面との関係で第二の意味づけの入力を行うことを特徴とする請求項9記載のモバイル機器。
  14.  赤外発光部と、前記表示画面上で動かされる手から反射する前記赤外発光部の赤外光を受光する赤外受光部とをさらに有するとともに、前記入力手段は、前記加速度検知部からの情報および前記赤外受光部からの情報のいずれであっても前記表示画面との関係で同じ意味づけの入力を行うことを特徴とする請求項9記載のモバイル機器。
  15.  表示画面と、前記表示画面上における入力のための異なった指示を前記表示画面上に表示させる表示制御部と、前記表示画面上に表示された指示に基づく入力が前記表示画面上でなされたかどうかを判断する判断部とを有することを特徴とするモバイル機器。
  16.  前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有するとともに、前記表示制御部は、前記表示画面上で動かすべき手の動きの指示を前記表示画面上に表示させ、前記判断部は、前記動き検知部が前記表示画面上に表示された指示に対応する動きを検知したかどうかを判断することを特徴とする請求項15記載のモバイル機器。
  17.  前記表示制御部は、前記表示画面上おける同じ意味の入力に対し、右手操作の場合と左手操作の場合で異なった指示を前記表示画面上に表示させることを特徴とする請求項15記載のモバイル機器。
  18.  前記表示画面上で動かされる手の動きを検知する動き検知部と、右手操作の場合と左手操作の場合で異なる前記動き検知部の出力に基づいて同じ意味の入力を行う入力部とをさらに有することを特徴とする請求項15記載のモバイル機器。
  19.  前記表示画面上で動かされる手の動きを検知する動き検知部をさらに有するとともに、前記判断部は、右手操作の場合と左手操作の場合で前記動き検知部の検知結果を異なる判断基準に基づいて同じ意味の入力と判断することを特徴とする請求項15記載のモバイル機器。
  20.  入力部と、前記表示画面に対向する方向を撮像するカメラ部と、前記カメラ部の画像を処理して顔を認識する顔認識部と、前記顔認識部により前記表示画面に対向する顔が認識されるとき前記入力部による入力を行う制御部とをさらに有することを特徴とする請求項15記載のモバイル機器。
PCT/JP2010/068175 2009-10-16 2010-10-15 モバイル機器 WO2011046208A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201080056604.8A CN102648615B (zh) 2009-10-16 2010-10-15 移动装置
US13/502,173 US20120206414A1 (en) 2009-10-16 2010-10-15 Mobile device
US14/557,928 US9632543B2 (en) 2009-10-16 2014-12-02 Mobile device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009-239166 2009-10-16
JP2009239166A JP2011087168A (ja) 2009-10-16 2009-10-16 モバイル機器
JP2009242039A JP2011090421A (ja) 2009-10-21 2009-10-21 モバイル機器
JP2009-242039 2009-10-21
JP2009-245535 2009-10-26
JP2009245535A JP2011091749A (ja) 2009-10-26 2009-10-26 モバイル機器

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/502,173 A-371-Of-International US20120206414A1 (en) 2009-10-16 2010-10-15 Mobile device
US14/557,928 Continuation US9632543B2 (en) 2009-10-16 2014-12-02 Mobile device

Publications (1)

Publication Number Publication Date
WO2011046208A1 true WO2011046208A1 (ja) 2011-04-21

Family

ID=43876257

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/068175 WO2011046208A1 (ja) 2009-10-16 2010-10-15 モバイル機器

Country Status (3)

Country Link
US (2) US20120206414A1 (ja)
CN (1) CN102648615B (ja)
WO (1) WO2011046208A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113563A (ja) * 2010-11-25 2012-06-14 Kyocera Corp 携帯電子機器
WO2013136548A1 (en) * 2012-03-13 2013-09-19 Nec Corporation A computer device
CN104331146A (zh) * 2014-12-02 2015-02-04 上海斐讯数据通信技术有限公司 省电控制方法
US9141761B2 (en) 2011-09-20 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for assisting user to maintain correct posture
EP2538307A3 (en) * 2011-06-20 2017-04-26 Sony Mobile Communications Japan, Inc. Electronic terminal, input correction method, and program

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101731346B1 (ko) * 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
US8797283B2 (en) * 2010-11-22 2014-08-05 Sony Computer Entertainment America Llc Method and apparatus for performing user-defined macros
US8543855B2 (en) * 2011-04-22 2013-09-24 Xerox Corporation Energy efficient multifunction printing systems and methods for exiting low power mode
WO2012159268A1 (en) * 2011-05-25 2012-11-29 Nokia Corporation An apparatus, method, computer program and user interface
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
US9128562B2 (en) 2012-05-25 2015-09-08 Sony Corporation Terminal apparatus, display system, display method, and recording medium for switching between pointer mode and touch-panel mode based on handheld activation
JP5785922B2 (ja) * 2012-10-03 2015-09-30 株式会社Nttドコモ 携帯端末、遷移方法及びプログラム
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
SE537579C2 (sv) * 2013-04-11 2015-06-30 Crunchfish Ab Bärbar enhet nyttjandes en passiv sensor för initiering av beröringsfri geststyrning
WO2014196156A1 (ja) 2013-06-07 2014-12-11 セイコーエプソン株式会社 電子機器及びタップ操作検出方法
CN103458111B (zh) * 2013-08-17 2015-09-02 广东欧珀移动通信有限公司 一种手机智能睡眠的方法
EP3044647A1 (en) 2013-09-11 2016-07-20 Google Technology Holdings LLC Electronic device and method for detecting presence and motion
US9213102B2 (en) 2013-09-11 2015-12-15 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US9740242B2 (en) 2014-01-06 2017-08-22 Leap Motion, Inc. Motion control assembly with battery pack
US20210383403A1 (en) * 2014-01-15 2021-12-09 Federal Law Enforcement Development Services, Inc. UV, SOUND POINT, iA OPERATING SYSTEM
US20150228255A1 (en) * 2014-01-28 2015-08-13 Kabushiki Kaisha Toshiba Electronic apparatus and control method for the same
JP2015167282A (ja) * 2014-03-03 2015-09-24 富士通株式会社 電子装置、電圧制御方法および電圧制御プログラム
JP6711276B2 (ja) * 2014-10-31 2020-06-17 ソニー株式会社 電子機器およびフィードバック提供方法
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
JP6603091B2 (ja) * 2015-10-05 2019-11-06 オリンパス株式会社 モバイル機器及びモバイル機器の給電制御方法
US9900556B1 (en) * 2017-06-28 2018-02-20 The Travelers Indemnity Company Systems and methods for virtual co-location
US11099204B2 (en) * 2018-09-28 2021-08-24 Varex Imaging Corporation Free-fall and impact detection system for electronic devices
CN109257807A (zh) * 2018-10-15 2019-01-22 珠海格力电器股份有限公司 一种显示切换***及其方法
CN113286087B (zh) * 2021-05-28 2022-09-02 杭州微影软件有限公司 一种屏幕控制方法、装置及一种热像仪
US11755095B2 (en) * 2021-07-19 2023-09-12 Stmicroelectronics S.R.L. Bag detection using an electrostatic charge sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352395A (ja) * 2000-06-07 2001-12-21 Sony Corp 携帯端末装置
JP2005275867A (ja) * 2004-03-25 2005-10-06 Matsushita Electric Ind Co Ltd 情報端末

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105671A (ja) * 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP2001322395A (ja) * 2000-05-15 2001-11-20 Minamihashi:Kk 凹凸模様形成用熱転写シート及び被転写体への凹凸模様形成方法
US7145454B2 (en) * 2004-01-26 2006-12-05 Nokia Corporation Method, apparatus and computer program product for intuitive energy management of a short-range communication transceiver associated with a mobile terminal
JP2005284596A (ja) * 2004-03-29 2005-10-13 Sony Corp 情報処理装置および方法、並びにプログラム
JP2006313313A (ja) * 2005-04-06 2006-11-16 Sony Corp 再生装置、設定切替方法および設定切替装置
US7577925B2 (en) * 2005-04-08 2009-08-18 Microsoft Corporation Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems
JP2007280461A (ja) 2006-04-04 2007-10-25 Sony Corp 再生装置、ユーザインターフェイス制御方法、プログラム
KR100881186B1 (ko) * 2007-01-04 2009-02-05 삼성전자주식회사 터치 스크린 디스플레이 장치
US8191011B2 (en) * 2008-09-18 2012-05-29 Microsoft Corporation Motion activated content control for media system
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
CN201315609Y (zh) * 2008-11-28 2009-09-23 深圳市隆宇世纪科技有限公司 具有计步器功能的手机
JP5358168B2 (ja) * 2008-12-08 2013-12-04 任天堂株式会社 ゲーム装置およびゲームプログラム
CN101504791A (zh) * 2009-02-23 2009-08-12 上海圈之圆网络科技有限公司 一种多功能智能终端的遥控装置
US8515398B2 (en) * 2009-08-25 2013-08-20 Lg Electronics Inc. Mobile terminal and method for managing phone book data thereof
US8531515B2 (en) * 2009-09-29 2013-09-10 Olympus Imaging Corp. Imaging apparatus
JP2011160147A (ja) * 2010-01-29 2011-08-18 Toshiba Corp 通信装置及び通信制御方法
JP2013015609A (ja) 2011-07-01 2013-01-24 Panasonic Industrial Devices Sunx Co Ltd 表示器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001352395A (ja) * 2000-06-07 2001-12-21 Sony Corp 携帯端末装置
JP2005275867A (ja) * 2004-03-25 2005-10-06 Matsushita Electric Ind Co Ltd 情報端末

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113563A (ja) * 2010-11-25 2012-06-14 Kyocera Corp 携帯電子機器
EP2538307A3 (en) * 2011-06-20 2017-04-26 Sony Mobile Communications Japan, Inc. Electronic terminal, input correction method, and program
US9898104B2 (en) 2011-06-20 2018-02-20 Sony Corporation Electronic terminal, input correction method, and program
US9141761B2 (en) 2011-09-20 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for assisting user to maintain correct posture
WO2013136548A1 (en) * 2012-03-13 2013-09-19 Nec Corporation A computer device
CN104331146A (zh) * 2014-12-02 2015-02-04 上海斐讯数据通信技术有限公司 省电控制方法
CN104331146B (zh) * 2014-12-02 2018-04-06 上海斐讯数据通信技术有限公司 省电控制方法

Also Published As

Publication number Publication date
CN102648615B (zh) 2015-11-25
CN102648615A (zh) 2012-08-22
US20120206414A1 (en) 2012-08-16
US9632543B2 (en) 2017-04-25
US20150084904A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
WO2011046208A1 (ja) モバイル機器
JP2011090421A (ja) モバイル機器
US9547382B2 (en) Mobile electronic device
US8970486B2 (en) Mobile device with user interaction capability and method of operating same
US8290707B2 (en) Mobile device with on-screen optical navigation
KR101442542B1 (ko) 입력장치 및 이를 구비한 휴대 단말기
EP2144139B1 (en) Mobile terminal and method of controlling operation thereof
EP2431853A2 (en) Character input device
US20110307842A1 (en) Electronic reading device
JP5058187B2 (ja) 携帯情報端末
US20120162267A1 (en) Mobile terminal device and display control method thereof
US20060061557A1 (en) Method for using a pointing device
JP2011087168A (ja) モバイル機器
JP2014002710A (ja) 入出力装置
US20160147313A1 (en) Mobile Terminal and Display Orientation Control Method
JP4190935B2 (ja) 携帯端末装置
JP2009086943A (ja) タッチ入力装置及びこれを具えた携帯電子機器
WO2006030002A1 (en) Mobile device with adaptive user interface
JP2014157553A (ja) 情報表示装置および表示制御プログラム
JP6183820B2 (ja) 端末、及び端末制御方法
US20160077551A1 (en) Portable apparatus and method for controlling portable apparatus
JP2011091749A (ja) モバイル機器
JP2013165334A (ja) 携帯端末装置
JP5993802B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法
JP6047066B2 (ja) 携帯機器、制御プログラムおよび携帯機器における制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080056604.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10823476

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13502173

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10823476

Country of ref document: EP

Kind code of ref document: A1