WO2011013782A1 - データ検索装置及びデータ検索方法 - Google Patents

データ検索装置及びデータ検索方法 Download PDF

Info

Publication number
WO2011013782A1
WO2011013782A1 PCT/JP2010/062858 JP2010062858W WO2011013782A1 WO 2011013782 A1 WO2011013782 A1 WO 2011013782A1 JP 2010062858 W JP2010062858 W JP 2010062858W WO 2011013782 A1 WO2011013782 A1 WO 2011013782A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
data
unit
movement
search
Prior art date
Application number
PCT/JP2010/062858
Other languages
English (en)
French (fr)
Inventor
栄三 藤澤
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US13/387,451 priority Critical patent/US8896554B2/en
Publication of WO2011013782A1 publication Critical patent/WO2011013782A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a data search device and a data search method for searching for data.
  • Patent Document 1 describes a portable terminal that detects a tilt angle of a portable terminal and state displacement associated with an operation such as “shake” or “tilt” as an instruction input. Further, the apparatus described in Patent Document 1 describes that an icon group representing information content is controlled from an inclination angle of a portable terminal, and an icon that moves from moment to moment is displayed on a display.
  • a search condition as a key is collated with information on each data, and data satisfying the search condition is extracted.
  • the object of the present invention is to provide a data search apparatus and a data search method capable of extracting desired data with higher operability.
  • the present invention provides a display unit that displays a plurality of data having different relevance ratios for search conditions as a group on a display screen, and a detection unit that detects movement of the group displayed on the display unit on the display screen; And a control unit that extracts data of the relevance ratio according to the degree of movement of the group detected by the detection unit from the group.
  • the detection unit is a touch panel unit that detects an input instruction input by touching an area where the group is displayed on the display unit.
  • control unit obtains a range of the relevance ratio that is a reference for extracting the data based on the degree of movement of the group, and extracts data having the relevance ratio within the range.
  • control unit extracts data having a relatively high relevance ratio when the degree of movement of the group is relatively high.
  • control unit separates and displays the data with a low relevance rate from the group based on the degree of movement of the group.
  • control unit displays data separated from the group as a new group.
  • control unit determines whether or not to extract the data from the group based on a display trajectory of the group corresponding to the movement of the group detected by the detection unit.
  • control unit determines that the display trajectory of the group is reciprocating, it is preferable that the control unit separates data having a relatively low precision from the group.
  • the detection unit detects a moving speed or a moving distance on the display screen of the group as a degree of movement of the group.
  • the present invention provides a casing, a display unit that displays a plurality of data having different relevance ratios for search conditions as a group, a detection sensor for detecting an acceleration or a moving state of the casing, and the detected And a control unit that extracts data of the relevance ratio according to acceleration or the movement state from the group.
  • the present invention also includes a step of displaying a plurality of data having different relevance ratios with respect to a search condition as a group on a display screen, a step of detecting movement of the displayed group on the display screen, and the detection. Extracting the data of the relevance ratio according to the degree of movement detected in the step from the group.
  • the data search apparatus and data search method according to the present invention can execute a search with high operability.
  • FIG. 1 is a block diagram showing a schematic configuration of a communication device and a mobile communication device according to a first embodiment of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of software of the portable communication device shown in FIG.
  • FIG. 3 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 4 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 5 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 6 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 7 is a diagram illustrating an example of the relevance ratio of each item object illustrated in FIG.
  • FIG. 8 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 9 is a diagram illustrating an example of the relevance ratio of each item object illustrated in FIG.
  • FIG. 10 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 11 is a diagram illustrating an example of the relevance ratio of each item object illustrated in FIG.
  • FIG. 12 is an explanatory diagram illustrating an example of an image displayed on the display device.
  • FIG. 13 is a diagram illustrating an example of the relevance ratio of each item object illustrated in FIG.
  • FIG. 14 is a flowchart illustrating an example of processing operation of the mobile communication device.
  • FIG. 15 is a flowchart illustrating an example of processing operation of the mobile communication device.
  • FIG. 16 is a flowchart illustrating an example of processing operation of the mobile communication device.
  • FIG. 15 is a flowchart illustrating an example of processing operation of the mobile communication device.
  • FIG. 17A is an explanatory diagram for explaining the operation of the mobile communication device.
  • FIG. 17-2 is an explanatory diagram for explaining the operation of the mobile communication device.
  • FIG. 17C is an explanatory diagram for explaining the operation of the mobile communication device.
  • FIG. 17D is an explanatory diagram for explaining the operation of the mobile communication device.
  • FIG. 18 is a block diagram showing a schematic configuration of the second embodiment of the communication device and the portable communication device of the present invention.
  • FIG. 19 is a block diagram showing a schematic configuration of software of the mobile communication device shown in FIG.
  • FIG. 20 is a diagram illustrating a plan view of a second embodiment of the communication device and the portable communication device of the present invention.
  • FIG. 21 is a graph illustrating an example of acceleration applied to the mobile communication device.
  • FIG. 21 is a graph illustrating an example of acceleration applied to the mobile communication device.
  • FIG. 22 is a graph illustrating an example of acceleration applied to the mobile communication device.
  • FIG. 23 is a flowchart illustrating an example of processing operation of the mobile communication device.
  • FIG. 24 is a graph illustrating an example of acceleration applied to the mobile communication device.
  • FIG. 25 is a graph illustrating an example of acceleration applied to the mobile communication device.
  • a mobile communication device more specifically a mobile phone
  • PHS Personal Handyphone System
  • PDA Personal Digital Assistant
  • portable and vehicle-mounted navigation devices notebook computers, game machines, and the like.
  • FIG. 1 is a block diagram showing a schematic configuration of a first embodiment of a search display device according to the present invention.
  • the present invention is applied to a mobile communication device.
  • the mobile communication device 10 basically includes a CPU (Central Processing Unit) 22, a communication unit 26, an audio processing unit 30, a display device 32, an input device 34, a ROM 36, and a RAM 38. And an internal storage 40 and an external storage interface (I / F, interface) 42.
  • the mobile communication device 10 is connected to the external storage 46 via the external storage I / F 42.
  • the mobile communication device 10 has various configurations as a mobile communication device, such as an imaging unit and various terminals.
  • the external shape of the mobile communication device 10 is composed of two members connected by a hinge, and various shapes such as a foldable shape, a shape in which the two members are slid, and a single box shape are available. can do.
  • the CPU 22 is a processing unit that comprehensively controls the overall operation of the mobile communication device 10. That is, the communication unit 26 and the various processes of the mobile communication device 10 are executed in an appropriate procedure according to the operation of the input device 34 and the software stored in the ROM 36 and the internal storage 40 of the mobile communication device 10. Control the operation of the display device 32 and the like.
  • Various processes of the mobile communication device 10 include, for example, a voice call performed via a circuit switching network, creation and transmission / reception of an e-mail, browsing of an Internet Web (World Wide Web) site, and the like.
  • the operations of the communication unit 26, the audio processing unit 30, the display device 32, and the like include, for example, transmission / reception of signals by the communication unit 26, input / output of audio by the audio processing unit 30, display of images by the display device 32, and the like. .
  • the CPU 22 executes processing based on programs (for example, operating system programs, application programs, etc.) stored in the ROM 36 and the internal storage 40.
  • the CPU 22 is constituted by, for example, a microprocessor unit (MPU: Micro Processing Unit), and executes various processes of the mobile communication device 10 described above in accordance with procedures instructed by the software. That is, the CPU 22 sequentially reads instruction codes from the operating system program, application program, and the like stored in the ROM 36 and the internal storage 40 and executes processing.
  • MPU Micro Processing Unit
  • the CPU 22 has a function of executing a plurality of application programs.
  • Examples of application programs executed by the CPU 22 include an image display application program that displays an image on the display device 32, an operation detection application program that calculates an operation input based on an input detected by the input device 34, There are a plurality of application programs such as a search application program for searching (described in detail later), an Internet application program for performing Internet communication, a mail application program for creating mail, and a telephone application program for making a call. .
  • the communication unit 26 establishes a radio signal line by a CDMA method or the like with the base station via a channel assigned by the base station, and performs telephone communication and information communication with the base station.
  • the audio processing unit 30 executes processing of an audio signal input to the microphone 50 and an audio signal output from the receiver 52.
  • the display device 32 includes a display panel such as a liquid crystal display (LCD, Liquid Crystal Display), an organic EL (Organic Electro-Luminescence) panel, and the like according to the image data supplied from the CPU 22 and the image data. Is displayed on the display panel.
  • a display panel such as a liquid crystal display (LCD, Liquid Crystal Display), an organic EL (Organic Electro-Luminescence) panel, and the like according to the image data supplied from the CPU 22 and the image data. Is displayed on the display panel.
  • LCD liquid crystal display
  • organic EL Organic Electro-Luminescence
  • the input device 34 is a touch panel arranged on the front surface of the display device 32, and detects the contact as an input when the operator touches the surface.
  • the input device 34 detects the touched position, the strength of the touch, and the like.
  • various types of touch panels such as a matrix switch, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method can be used.
  • a key to which various functions such as a power key, a call key, a numeric key, a character key, a direction key, a decision key, and a call key are displayed on the display device 32 is displayed by the operator.
  • the input device 34 detects the pressed position (the position where the touch has occurred).
  • the CPU 22 of the mobile communication device 10 performs the process on the assumption that the key operation corresponding to the position where the input device 34 detected contact is input.
  • a ROM (Read Only Memory) 36 is a read-only storage device, and stores firmware used for driving the mobile communication device 10 such as BIOS.
  • a RAM (Random Access Memory) 38 is a readable / writable storage device, and includes, for example, an SRAM (Static Random Access Memory, DRAM (Dynamic Random Access Memory), etc.
  • the ROM 36 and the RAM 38 constitute a main storage device.
  • computer programs and temporary data used in the software processing process are assigned by the CPU 22, and the assigned data are temporarily stored in the work area.
  • the internal storage (internal memory) 40 is a readable / writable storage device provided in the mobile communication device 10, for example, an EEPROM (flash memory or the like), a hard disk, or the like.
  • the internal storage 40 is used as an auxiliary storage device, and stores software and data used for processing by the CPU 22.
  • the internal storage 40 also has an image folder for storing communication and downloaded image data, a standby image folder for storing image files used for standby images, and the like.
  • the internal storage 40 stores and manages, for example, communication, downloaded audio data, software used by the CPU 22 to control the internal storage 40, the telephone number and mail address of the communication partner, and the like.
  • An address book, voice files such as dial tone and ring tone, temporary data used in software processing, and the like are stored.
  • the external storage I / F 42 is a terminal connected to the removable external storage 46.
  • the external storage (external memory) 46 is a storage device that can be attached to and detached from the mobile communication device 10 via the external storage I / F 42, such as a memory card such as an SD card (registered trademark) or a compact flash (registered trademark), A removable HDD (Hard Disk Drive) can be used.
  • a removable disk drive Removable Disk Drive
  • a removable disk may be combined.
  • FIG. 2 is a block diagram illustrating a schematic configuration of software of the mobile communication device 10.
  • each software application program
  • FIG. 2 shows software related to item object sieving search and image display as software
  • the mobile communication device 10 includes various software in addition to the software shown in FIG.
  • An object is an item to be operated by an operator, such as a group object (folder) or an item object (file, data).
  • folder not only a folder created by an operator but also a folder created by the mobile communication device 10 by sieving search and a set of files detected by sieving search are managed. Temporarily created folders are also included. Examples of the file include image data, audio data, Internet home page data, an address book that stores phone numbers and mail addresses together with names, and the like.
  • the software of the mobile communication device 10 includes a search unit 60 that performs a sieving search, a display unit 62 that controls an image displayed on the display device 32, and an input unit that detects an input from the input device 34. 64, and a content control unit 66 that transmits / receives data to / from the internal storage 40 and the external storage 46.
  • search unit 60 that performs a sieving search
  • display unit 62 that controls an image displayed on the display device 32
  • an input unit that detects an input from the input device 34.
  • 64 an input unit that detects an input from the input device 34.
  • a content control unit 66 that transmits / receives data to / from the internal storage 40 and the external storage 46.
  • the search unit 60 includes a search control unit 68, an object control unit 70, an object display unit 72, an object operation unit 74, an object management unit 76, an object information database 78, a content management unit 80, and a search index database. 82, a content information database 84, and a content access unit 86.
  • the search unit 60 reads a group object in which a plurality of item objects are collected, calculates a matching rate between each item object in the group object and the search condition, and the degree of movement of the group object when the group object moves Sieving search is performed by separating data with a low relevance rate from the group object based on. A method for determining data to be separated from the group object based on the degree of movement of the group object will be described later.
  • the search control unit 68 exchanges information with the object control unit 70 and the content management unit 80, and performs a sieving search for the item object based on information supplied from each unit.
  • the object control unit 70 exchanges information with the object display unit 72, the object operation unit 74, and the object management unit 76, and controls the behavior of various objects such as group objects, item objects, and key objects. Specifically, selection of an object to be displayed, determination of a position to display an object, creation of a new group object based on determination of the search control unit 68, determination of a group object to which each item object belongs, Move and so on.
  • the object display unit 72 sends information on the object to be displayed, determined based on the control by the object control unit 70, to the display control unit 88 of the display unit 62. That is, the object display unit 72 sends information indicating which group object and item object are displayed and how each object is displayed at which position to the display control unit 88.
  • the object operation unit 74 determines an object to be operated and an operation of the object based on the input signal sent from the input unit 64, and performs object control on the determined signal of the operation target object and the determined operation signal. Send to part 70.
  • the object management unit 76 has a function of managing each object, and the object information database 78 is a storage unit that stores information about each object.
  • information about each object information indicating which group object the object belongs to, information for calculating the relevance ratio of the object at the screening search, etc.
  • the object information database 78 stores information related to objects displayed on the screen of the display device 32.
  • the object management unit 76 appropriately reads information in the object information database 78, sends it to the object control unit 70, and updates the information stored in the object information database 78 when the information about the object is updated.
  • the content management unit 80 includes a search index database 82, a content information database 84, and a content access unit 86, and photographs, music data, address book data, etc. stored in the internal storage 40 and the external storage 46, etc. These files are read out via the content control unit 66, and each file is written into the internal storage 40 or the external storage 46.
  • the search index database 82 stores information on the relevance ratio used for the sieving search. It should be noted that the search index database 82 may store information related to search other than information related to the relevance ratio as necessary.
  • the content information database 84 stores audio data, image files, Internet sites, and the like as item objects. That is, file information (audio information and image information) corresponding to the item object displayed on the screen is stored.
  • the content information database 84 also stores file information of item objects other than the item objects displayed on the display device 32 as necessary.
  • the content access unit 86 exchanges information with the content control unit 66, reads the file information, software information, and the like acquired by the content control unit 66. Information is sent to the content control unit 66.
  • the display unit 62 includes a display control unit 88 and a drawing engine unit 90, generates an image signal of an image to be displayed on the display device 32 based on information sent from the object display unit 72 of the search unit 60, and Send to display device 32.
  • the display control unit 88 creates an image to be displayed based on information sent from the object display unit 72, that is, information on which object is displayed in which position and how.
  • the drawing engine unit 90 converts the image created by the display control unit 88 into an image signal, and sends the converted image signal to the display device 32. In this way, the display device 32 displays the image created by the display unit 62 based on the information sent from the search unit 60.
  • the display unit 62 When other software is activated, the display unit 62 generates an image based on information sent from various software other than the information sent from the object display unit 72.
  • the input unit 64 includes an input interface (I / F) control unit 92 and sends the operation of the operator detected by the input device 34 to the object operation unit 74.
  • the input interface control unit 92 converts the signal sent from the input device 34 into a signal that can be analyzed by the search unit 60, and sends the signal to the object operation unit 74.
  • the content control unit 66 has a file system 94, reads information from the internal storage 40 and / or the external storage 46, sends the read information to the content access unit 86, and receives the information sent from the content access unit 86. To the internal storage 40 and / or the external storage 46.
  • the file system 94 has a function of managing information reading and writing.
  • FIG. 3 to 6, 8, 10, and 12 are explanatory diagrams showing examples of images displayed on the display device 32.
  • FIGS. 7, 9, 11, and 13 are It is a figure which shows an example of the relevance rate of each item object shown by FIG.
  • the group objects 101 to 103 are folders in which a plurality of item objects 104 are stored.
  • the group object 101 named “Mr. A” and the group named “Mr. B” are grouped.
  • An object 102 and a group object 103 named “Mr. C” are displayed.
  • Each group object 101 to 103 has a group object display area surrounded by a dotted line. That is, the boundary line between the group object and another part is displayed.
  • a plurality of item objects 104 belonging to the group objects 101 to 103 are displayed inside the group objects 101 to 103, respectively.
  • the item object 104 is composed of an image file, and a thumbnail image of the image file is displayed as the item object 104 on the display device.
  • the calculated relevance ratio may be attached to each item object 104 as incidental information such as a tag, or a table in which each item object 104 is associated with the relevance ratio is searched using the search index database 82 (see FIG. 2). You may make it memorize in.
  • the group object displayed on the display panel corresponding to the touch area on the touch panel is selected, and is selected along with the touch on the touch panel.
  • a sieving search for a group object will be described.
  • the touch position on the touch panel in a state where an arbitrary group object is selected the display position of the selected group object is displaced by the movement of the touch position.
  • This contact movement causes the group object to move on the display and is displayed with movement.
  • the group object moves, the item object having a low matching rate is separated from the group object based on the degree of movement (speed, distance, etc. are exemplified) on the display screen, which is the display movement of the group object.
  • the threshold value of the matching rate which is a reference for screening the item object, is changed, and the item object having the matching rate equal to or lower than the threshold value is separated from the group object.
  • the threshold value is lowered when the group object is shaken slowly, and the threshold value is raised when the group object is shaken quickly. In the present embodiment, this is referred to as sieving search.
  • a set of item objects 104 separated from the group object 101 and moved from the inside of the group object 101 to the outside (downward in the figure) may be used as a new group object.
  • the new group object includes the item object 104 having a matching rate that is considerably low (for example, 30% to 0%).
  • search the item objects 104 having a considerably low precision (for example, 30% to 0%).
  • the threshold value of the matching rate is set higher than in the case described with reference to FIG. 4, and the item object 104 having a matching rate higher than that described with reference to FIG. To be separated.
  • the display position of the item object 104 having a relatively high precision for example, 60% to 0%
  • the item object 104 having a higher matching rate than the case described in FIG. 4 (for example, 100% to 61%, etc.) remains inside the group object 101, that is, the matching rate is higher than in the case described in FIG.
  • the item object 104 can be extracted (searched).
  • a set of item objects 104 separated from the group object 101 and moved from the inside of the group object 101 to the outside (downward in the figure) may be used as a new group object.
  • the new group object includes the item object 104 having a higher matching rate than the case described with reference to FIG. 4 (for example, 60% to 0%, etc.).
  • FIG. 6 a group object 101 named “Mr. A” including 15 item objects “a” to “o” is displayed on the display device.
  • FIG. 7 shows the precision of 15 item objects from “a” to “o”.
  • the accuracy rate of each item object is as follows: a> b> c> d> e> f> g> h> i> j> k> l> m> n> o It has become. It is assumed that the operator desires an item object having a medium precision (here, item objects “e” to “k”).
  • the operator touches the group object 101 named “Mr. A” and moves in the horizontal direction in the figure (the vertical direction in the figure, the diagonal direction in the figure, and other directions).
  • the sieving operation is performed, four item objects (here, “l” to “o”) whose relevance ratios included in the range of relevance ratios shown in dark hatching in FIG.
  • the display position of the item object) is moved from the inside of the group object 101 named “Mr. A” to the outside (downward in the figure) (separated and sieved).
  • the item object remains in the group object 101 named “Mr. A” with a certain degree of precision (here, 10 item objects from “a” to “k”).
  • FIG. 12 is a diagram illustrating an example of a display screen of the display device 32 after the above-described two sieving operations are performed.
  • the display screen of the display device 32 has a group object 101 named “Mr. A” including four item objects “a” to “d”, “l” to “o”.
  • FIG. 13 shows the precision of item objects included in each of the group objects 101, 101 ⁇ , and 101 ⁇ .
  • Extracting (retrieving) the item object 104 having a medium precision is effective in the following cases.
  • item objects having a considerably low matching rate four item objects from “l” to “o” in FIGS. 6 to 13
  • item objects having a considerably high matching rate in FIGS. 6 to 13.
  • the item objects having a medium precision Is effective when the operator wishes to visually confirm the seven item objects “e” to “k”. That is, it is possible to extract only the item objects that need to be determined whether or not to extract, and it is possible to perform appropriate extraction while reducing the number of item objects that are visually confirmed.
  • FIGS. 14 to 16 are flowcharts showing an example of the processing operation of the mobile communication device
  • FIGS. 17-1 to 17-4 are explanatory diagrams showing examples of images displayed on the display device 32.
  • FIGS. 17A to 17D only one group object is simplified, that is, the group object is made smaller and item objects included in the group object are omitted.
  • step S ⁇ b> 12 the search unit 60 determines whether the coordinates clicked (tapped) by the operator are on the group object. That is, the input device 34 detects an operation by the operator, the signal is input to the object operation unit 74 via the input unit 64, and the search unit 60 displays the coordinates clicked (tapped) by the operator as a group object. Determine if it is above. If it is determined in step S12 that the coordinates clicked (tapped) by the operator are not on the group object (No), the search unit 60 ends the process without executing the subsequent steps.
  • the search unit 60 determines in step S12 that the coordinates clicked (tapped) by the operator are on the group object (Yes), the search unit 60 performs initialization processing in step S14.
  • the initialization process includes, for example, clearing a sieving operation flag (which will be described in detail later), which is a flag indicating whether or not a sieving operation is being performed, to OFF.
  • the search unit 60 stores the clicked (tapped) coordinates in the object information database 78 as the starting position in step S16.
  • the reason why the starting position is stored in this way is to distinguish a simple movement operation of a group object from a sieving search operation, as will be described in detail later.
  • the coordinates other than the clicked (tapped) position of the starting point may be used.
  • the starting position may be the center, end, etc. of the group object.
  • step S18 the search unit 60 determines whether the group object has been reversed.
  • step S18 determines in step S18 that the group object has not been reversed (No) If the search unit 60 determines in step S18 that the group object has not been reversed (No), the process proceeds to step S50. Step S50 will be described in detail later.
  • step S20 determines whether the sieving operation flag is on (ON). Determine whether. Note that at the beginning of the operation by the operator, since the sieving operation flag is turned off in the initialization process (step S14) described above, the search unit 60 does not turn on the sieving operation flag. It is determined that there is no (No), and the process proceeds to step S22.
  • the search unit 60 stores the reverse rotation start coordinates of the group object in the object information database 78 as the folding position in step S22.
  • the reason for storing the folding position in this way is to prepare for the reciprocating operation of the group object by the operator, as will be described in detail later. Further, for example, the folding position may be the center part, the end part, or the like of the group object.
  • the search unit 60 sets the sieving operation flag to ON (ON) in step S24, and stores the current time in the object information database 78 as Tr in step S26.
  • the reason why the current time Tr is stored in this way is to calculate the moving speed of the group object as an example of the degree of movement of the group object, as will be described in detail later.
  • the time measurement can be executed by using time measurement means built in the apparatus or time measurement software.
  • step S20 determines in step S20 that the sieving operation is being performed, that is, the sieving operation flag is ON (ON)
  • the search unit 60 determines in step S32 that the starting position and the reverse position (position after the reverse movement). It is determined whether the distance between is less than the set distance Dj. That is, it is determined whether or not the operator has performed an operation of moving the group object into an area whose distance from the starting position is equal to or less than the distance Dj.
  • step S32 the search unit 60 determines that the distance between the starting position and the reverse position (the position after the reverse movement) is not less than the distance Dj (No), that is, the distance from the starting position by the operator to the group object. If it is determined that an operation to reversely move outside the area of the distance Dj or less is performed, the sieving operation is terminated and the sieving operation flag is turned off (OFF) as a mere movement operation of the group object by the operator in step S34. To. And the search part 60 performs the movement process which moves the display position of a group object as step S36. Thereafter, the search unit 60 advances the process to step S50.
  • step S32 the search unit 60 determines that the distance between the starting position and the reverse position (the position after the reverse movement) is equal to or less than the distance Dj (Yes), that is, the operator moves the group object from the starting position. If it is determined that an operation to move the distance to the area of the distance Dj or less is performed, in step S38, the return position is set as a new start position, the inverted coordinates are set as a new return position, and stored in the object information database 78. The reason for updating the starting point position and the folding position in this way is to prepare for the reciprocating operation of the group object by the operator, as will be described in detail later.
  • the search part 60 acquires present time as step S40, and calculates the time difference Td from the last inversion by following Formula.
  • Td (current time) ⁇ Tr (1)
  • step S42 the search unit 60 stores the current time as Tr in the object information database 78 for calculation of the next time difference Td.
  • the search unit 60 calculates the degree of movement of the group object as step S44.
  • Examples of the degree of movement of the group object include a movement distance and a movement speed of the group object on the display screen.
  • step S18 If it is determined in step S18 that the group object has not been reversed (No), the search unit 60 executes step S26, executes step S36, or executes step S46. Then, in step S50, it is determined whether the group object has been released by the operator.
  • step S50 determines in step S50 that the group object has not been released (No)
  • the search unit 60 ends the process. Note that the search unit 60 repeatedly performs the processing from step S16 to before the end of processing (end) until the group object is released by the operator. That is, the above determination is repeated until the group object is released by the operator, and processing corresponding to the subsequent operation is performed based on the degree of movement of the group object.
  • step S50 the search unit 60 determines in step S50 that the group object has been released (Yes)
  • step S52 the search unit 60 creates a new group object including the screened item object, and ends the process.
  • FIG. 15 is a diagram illustrating a sieving subroutine process when the moving distance of the group object is used as the degree of movement of the group object.
  • the range of the relevance ratio of the item object to be screened out from the group object is changed according to the moving distance of the group object. That is, the threshold value of the relevance ratio that serves as a reference for sieving the item object out of the group object is changed according to the movement distance of the group object. Specifically, the shorter the moving distance of the group object, the lower the threshold of the matching rate, which is the basis for sieving the item object, and the item object with a lower matching rate is not sieved (leaves in the group object).
  • the higher the threshold of the matching rate which is a criterion for sieving item objects, so that only item objects with a high matching rate are not sieved (leave in the group object).
  • the setting is such that the item objects having a low matching rate are screened out in order, if the range of the matching rate of the item objects to be screened is widened, the item object having a higher matching rate is also screened out. .
  • step S 62 the search unit 60 uses the movement distance calculated in step S 44 as a key for the addition of the exclusion matching ratio to be added to the preset exclusion matching ratio (offset value).
  • offset value the preset exclusion matching ratio
  • the movement distance-exclusion suitability addition amount table may be stored in the object information database 78.
  • the search unit 60 after acquiring the addition of the exclusion conformance in step S62, adds the addition of the exclusion conformance acquired in step S62 to the base exclusion conformance (offset value) in step S64.
  • the search unit 60 calculates the range of the matching rate to be screened out from the group object based on the movement distance of the group object calculated in step S44.
  • the range of the relevance ratio the wider range is calculated as the moving distance of the group object is longer, and the narrower range is calculated as it is shorter.
  • the base exclusion precision (offset value) is added to each value in the movement distance-exclusion adaptation ratio addition table and stored in advance, the addition process of step S64 is not necessary. Can do.
  • the search unit 60 After calculating the exclusion conformance rate (threshold value) in step S64, the search unit 60 determines in step S66 whether an item object having a conformance rate equal to or less than the exclusion conformance rate is included in the group object. If it is determined in step S66 that the item object having the matching rate equal to or less than the exclusion matching rate is not included in the group object (No), the search unit 60 ends the sieving subroutine process.
  • step S66 If the search unit 60 determines in step S66 that an item object having a matching rate equal to or less than the exclusion matching rate is included in the group object (Yes), the search unit 60 separates the item object from the group object in step S68 ( (Exclude, exclude, exclude) are executed, and the sieving subroutine process is terminated.
  • FIG. 16 is a diagram showing a sieving subroutine process when the moving speed of the group object is used as the degree of movement of the group object.
  • the range of the relevance ratio that serves as a reference for sieving the item object out of the group object is changed according to the moving speed of the group object. That is, according to the moving speed of the group object, the threshold value of the relevance ratio that serves as a reference for sieving the item object from the group object is changed.
  • the threshold of the matching rate which is the basis for sieving the item object
  • the threshold of the matching rate is lowered, and the item object with a lower matching rate is not sieved (leaves in the group object).
  • the setting is such that the item objects having the lowest matching rate are screened out in order, the item objects having the higher matching rate are also screened out when the range of the matching rate is widened.
  • the search unit 60 uses an exclusion matching rate (threshold) as a key, and a moving speed that associates the moving speed of the group object with the exclusion matching rate using the moving speed calculated in step S 44 as a key.
  • the range of the relevance ratio a wider range is calculated as the moving speed of the group object is faster, and a narrower range is calculated as it is slower.
  • the moving speed-exclusion relevance ratio table may be stored in the object information database 78.
  • the retrieval unit 60 obtains the exclusion conformance rate (threshold value) in step S82, it determines in step S84 whether an item object having a conformance rate equal to or less than the exclusion conformance rate is included in the group object. If it is determined in step S84 that the item object having the matching rate equal to or less than the exclusion matching rate is not included in the group object (No), the search unit 60 ends the sieving subroutine process.
  • step S84 If the search unit 60 determines in step S84 that an item object having a matching rate equal to or lower than the exclusion matching rate is included in the group object (Yes), the search unit 60 separates the item object from the group object in step S86 (step S86). (Exclude, exclude, exclude) are executed, and the sieving subroutine process is terminated.
  • FIG. 17A the operator clicks on the group object 101a displayed on the left side of the display device 32 (for the sake of convenience, indicated by “1” in FIG. 17A).
  • the tapped coordinates are stored in the object information database 78 as the starting position (see step S16 in FIG. 14).
  • the operator drags the group object 101a to move the group object 101a to the right side of the display device 32 in the figure (indicated by “2” in FIG. 17A).
  • the search unit 60 has made the operator move the group object 101a into the area 105 having a distance Dj from the starting position (indicated by “1” in FIG. 17-2) (FIG. 17). It is determined whether it has been moved out of the area 105 (indicated by “2” in FIG. 17-2) (see step S18 in FIG. 14). ).
  • the operator drags the group object 101b (indicated by “3” in FIG. 17-3) to move the group object 101b to the starting position (in FIG. 17-3,
  • the search unit 60 performs the step of FIG. Steps S16 to S52 are repeatedly executed to execute a sieve search process based on the degree of movement of the group object 101b.
  • the operator drags the group object 101c (indicated by “4” in FIG. 17-4) to bring the group object 101b to the starting position (FIG. 17-4).
  • the search unit 60 sets the starting position and the reverse position (“5” in FIG. 17-4). (No.) (see step S32 in FIG. 14), the sieving operation is terminated (see step S34 in FIG. 14), and the group object 101c The movement process is executed (see step S36 in FIG. 14).
  • the moving speed is the average moving speed, but the range of the relevance ratio may be set based on the maximum moving speed instead of the average moving speed. For example, the maximum speed of the moving speed is calculated regardless of the moving distance, and when the maximum speed is high, the range of the precision ratio may be widened, and the range of the precision ratio with the low maximum speed may be narrowed. Further, these calculation methods may be combined.
  • a liquid crystal display device is used as a display device and a touch panel is used as an input device.
  • a projection display unit such as a projector may be used as the display device
  • a contact detection unit that detects a contact input to the display area of the projected image may be used as the input device.
  • the operator puts a hand in the display area, brings the hand to the area where the object is displayed, and moves the hand in the display area from that state. The same control can be performed by detecting such movement of the hand by the contact detection means.
  • the item objects having a lower precision than the reference threshold for sieving the item object are screened out. You may make it screen out the item object of high precision.
  • the previous threshold value is used to calculate a threshold value as a reference for sieving the item object in the second and subsequent movements (for example, this time)
  • the start value of the threshold value may be the previous threshold value). This makes it possible to speed up the second and subsequent sieving process.
  • the search unit 60 may execute the sieving process on the new group object. Thereby, it is possible to extract (search) item objects having a medium precision.
  • the mobile communication device 10 allows the operator to visually extract (search) the result of the extraction (search) as a result of separating the item object having a low matching rate from the group object based on the degree of movement of the group object.
  • the state can be recognized. Thereby, it is possible to easily obtain a search result desired by the operator.
  • the degree of precision can be easily adjusted by the operation of the operator, the operability of the operator can be improved.
  • the operation target can be easily selected and the work efficiency can be improved.
  • the operator can adjust the extraction (search) in an analog sense.
  • the operator can grasp the state of extraction (search, narrowing down) visually.
  • the item object can be easily acquired.
  • the operator can perform extraction (search, narrowing down) intuitively.
  • the operator can easily adjust the degree of extraction (search, narrowing down).
  • the operator can extract (search) item objects having a medium precision.
  • FIG. 18 is a block diagram showing a schematic configuration of the second embodiment of the search / display apparatus according to the present invention.
  • the present invention is applied to a mobile communication device.
  • the mobile communication device 50 basically has an acceleration sensor 54 added to the mobile communication device 10 (see FIG. 1) of the first embodiment.
  • the external shape of the mobile communication device 50 is composed of two members connected by a hinge, and various shapes such as a foldable shape, a shape in which the two members are slid, and a single box shape are available. can do.
  • the acceleration sensor 54 is a detector that detects acceleration applied to the housing of the mobile communication device 50.
  • a detector detection sensor
  • detects acceleration by various methods can be used. For example, detection that detects acceleration by a change in capacitance, a change in piezoresistance, a change in relative position, or the like. Can be used.
  • the acceleration sensor 54 detects an acceleration acting on the casing of the mobile communication device 50 when the operator shakes or moves the casing of the mobile communication device 50.
  • FIG. 19 is a block diagram showing a schematic configuration of software of the mobile communication device 50.
  • the schematic configuration of software of the mobile communication device 50 is basically the same as that of the software of the mobile communication device 10 (see FIG. 1) of the first embodiment. )
  • a control unit 96 is added.
  • the input unit 64 includes an input interface (I / F) control unit 92 and an acceleration sensor interface (I / F) control unit 96, and an operator operation detected by the input device 34 and the acceleration sensor 54 is an object operation unit. 74.
  • the input interface control unit 92 converts the signal sent from the input device 34 into a signal that can be analyzed by the search unit 60, and sends the signal to the object operation unit 74.
  • the acceleration sensor interface control unit 96 converts the signal sent from the acceleration sensor 54 into a signal that can be analyzed by the search unit 60, and sends the signal to the object operation unit 74.
  • the operator operates the input device 34 (a touch panel is exemplified) to move the group object and perform a sieving search.
  • an operation is performed.
  • a person moves (shakes) the casing of the mobile communication device 50 to move the group object, and performs a sieve search.
  • FIG. 20 is a diagram illustrating an example of a plan view of the mobile communication device 50.
  • the right direction in the figure is the X-axis direction
  • the upper direction in the figure is the Y-axis direction
  • the direction perpendicular to the paper surface is the Z-axis direction.
  • a case where the operator moves (shakes) the mobile communication device 50 in the X-axis direction will be described as an example.
  • 21 and 22 are examples of graphs in which the horizontal axis direction is time, and the vertical axis direction is acceleration applied to the mobile communication device 50.
  • the degree of movement of the group object here, the peak value of acceleration, the previous acceleration
  • the time between the peak value time of this time and the time of the peak value of the current acceleration is exemplified.
  • the item object having a low matching rate is separated from the group object. That is, the threshold value of the relevance rate is changed based on the degree of movement of the group object (acceleration peak value, etc.), and item objects having a relevance rate equal to or lower than the threshold value are separated from the group object.
  • points P1 to P3 are acceleration peak points, and point P2 'is a symmetric point of point P2.
  • the threshold value of the matching rate is set low (for example, 30%)
  • the item object 104 having a considerably low precision for example, 30% to 0%
  • the display position of the item object 104 having a considerably low precision for example, 30% to 0%
  • the item object 104 having a high matching rate for example, 100% to 31%) remains inside the group object 101 named “Mr. A”, that is, the item object 104 having a high matching rate is extracted (searched). be able to.
  • the item object 104 that is separated from the group object 101 named “Mr. A” and moved from the inside of the group object 101 named “Mr. A” to the outside (downward in FIG. 20) is newly created. It may be a group object.
  • the new group object includes the item object 104 whose relevance rate is considerably low (for example, 30% to 0%, etc.). As a result, it is possible to extract (search) the item objects 104 whose relevance rate is considerably low (for example, 30% to 0%).
  • the threshold value of the matching rate is compared with the case described in FIG.
  • the item object 104 that is set to a relatively high level and has a relevance rate that is relatively higher (for example, 60% to 0%) than the case described in FIG. 21 is separated from the group object 101 named “Mr. A”. Then, the display position of the item object 104 having a relatively high relevance rate (for example, 60% to 0%) is moved from the inside of the group object 101 named “Mr. A” to the outside (downward in FIG. 20). (Separated and sieved).
  • the item object 104 whose relevance rate is higher than that described with reference to FIG. 21 (for example, 100% to 61%, etc.) remains inside the group object 101 named “Mr. A”. It is possible to extract (search) the item object 104 that is higher than the case described in the above.
  • the item object 104 that is separated from the group object 101 named “Mr. A” and moved from the inside of the group object 101 named “Mr. A” to the outside (downward in FIG. 20) is newly created. It may be a group object.
  • the new group object includes the item object 104 having a higher precision (for example, 60% to 0%) than the case described with reference to FIG. Thereby, it is possible to extract (search) the item object 104 having a higher relevance ratio (for example, 60% to 0%, etc.) than in the case described with reference to FIG.
  • FIG. 23 is a flowchart showing an example of the processing operation of the mobile communication device 50
  • FIGS. 24 and 25 are explanatory diagrams showing an example of acceleration applied to the mobile communication device 50.
  • a case where the operator moves (shakes) the mobile communication device 50 in the X-axis direction will be described as an example.
  • the operator moves the mobile communication device 50 (shakes).
  • step S92 the search unit 60 determines whether a peak value of acceleration (here, acceleration in the X-axis direction) has been detected. That is, the acceleration sensor 54 detects the acceleration, and the signal is input to the object operation unit 74 via the input unit 64 to determine whether the acceleration is a peak value. If it is determined in step S92 that the acceleration is not the peak value (No), the search unit 60 stands by in step S92 until the acceleration reaches the peak value.
  • a peak value of acceleration here, acceleration in the X-axis direction
  • step S92 If it is determined in step S92 that the acceleration is a peak value (Yes), the search unit 60 stores in the object information database 78 the peak value Ap detected this time and the current time Tp detected the peak value of the current acceleration in step S94.
  • step S96 the search unit 60 determines whether the sieving operation is being performed, that is, whether the sieving operation flag is ON. Note that the sieving operation flag is set to OFF (OFF) in advance at the beginning of the operation by the operator, and the search unit 60 determines that the sieving operation flag is not on (ON) (No), and the process is step S98. Will proceed.
  • step S96 If it is determined in step S96 that the sieving operation flag is not on (ON) (No), the search unit 60 performs initialization processing in step S98.
  • the initialization process includes, for example, setting a sieving operation flag that is a flag indicating whether or not the sieving operation is being performed to ON.
  • step S100 the search unit 60 prepares the current acceleration peak value Ap and the current time Tp as the previous acceleration peak value Af and the previous time Tf in preparation for the detection of the next acceleration peak value.
  • the search unit 60 once ends the process, and then executes the flow shown in FIG. 23 again.
  • step S96 If it is determined in step S96 that the sieving operation flag is ON (Yes), the search unit 60 reverses the sign of the previous acceleration peak value Af and the current acceleration peak value Ap in step S102. That is, Ap ⁇ Af ⁇ 0 (4) It is determined whether or not.
  • step S104 determines in step S104 that the current time Tp and the previous time Tf Is less than the set value Ts, that is, Tp-Tf ⁇ Ts (5) It is determined whether or not.
  • step S104 If it is determined in step S104 that the difference between the current time Tp and the previous time Tf is less than the value Ts (Yes), the search unit 60 determines in step S106 the absolute value
  • step S106 the search unit 60 determines that the difference between the absolute value
  • of the current acceleration peak value Ap and the previous acceleration By referring to a table in which the difference between the absolute value
  • the table may be stored in the object information database 78. Thereafter, the search unit 60 proceeds with the process to step S100.
  • step S104 the search unit 60 calculates the current time Tp and the previous time Tf. If it is determined that the difference is not less than the value Ts (No), or in step S106, the difference between the absolute value
  • the present invention can be similarly applied to a case where it is moved (swayed) in the Z-axis direction and the direction opposite to the Z-axis direction, or a case where it is moved (swayed) in the direction of the combination and in the opposite direction.
  • FIG. 24 is an example of a graph in which the horizontal axis direction is time, and the vertical axis direction is acceleration applied to the mobile communication device 50.
  • the operator moves (shakes) the casing of the mobile communication device 50 so that the acceleration is indicated by the line of the first example, (A) the peak acceleration value (negative) and the point at point P22
  • the value of the difference between the absolute value of the acceleration peak value at point P21 and the absolute value of the acceleration peak value at point P21 is set. Since the time between the time of the acceleration peak value at the point P22 and the time of the acceleration peak value at the point P21 is less than the value Ts.
  • the sieving process is executed.
  • FIG. 25 is an example of a graph in which the horizontal axis direction is time and the vertical axis direction is acceleration applied to the mobile communication device 50.
  • the operator quickly moves (swings) the casing of the mobile communication device 50 so that acceleration is shown in FIG. After that, when slowly moving (shaking), steps S94 to S112 in FIG. 23 are executed each time the acceleration peak points P31 to P34 are detected.
  • the mobile communication device 50 separates the item object having a low matching rate from the group object based on the degree of movement of the mobile communication device 50, that is, the degree of movement of the group object.
  • the state of the extraction (search) result can be visually recognized. Thereby, it is possible to easily obtain a search result desired by the operator.
  • the degree of precision can be easily adjusted by the operation of the operator, the operability of the operator can be improved.
  • the same effect as that of the first embodiment can be obtained also by the second embodiment using the acceleration sensor 54.
  • the group object and / or item object aggregate display a line on the outer periphery (contour line) of the display area.
  • the outer periphery of the display area by clearly indicating the outer periphery of the display area with a line, the size of the display area can be accurately grasped, and the touch operation by the operator can be appropriately performed.
  • the exclusion ratio (threshold value) is calculated by the search unit 60, but the present invention is not limited to this. It is only necessary to be able to determine the exclusion conformance rate (threshold value), and information on the exclusion conformance rate (threshold value) supplied from an external device via a network or the like may be used.
  • the image file has been described as an example. However, as described above, it can also be used for music file search, home page search, and the like. Further, it may be used for searching for a communication destination (a partner to be contacted).
  • the group object is a so-called address book
  • the item object is an individual address (communication destination specifying object).
  • the individual address stores information such as name, telephone number, mail address, and address.
  • the communication unit 26 communicates with the specified communication destination based on information stored in at least one individual address selected by the operator's operation on the input device from among the extracted individual addresses. Send emails and make phone calls.
  • the mobile phone provided with the touch panel is described as an example as a preferable mode, but the present invention is not limited to this. As described above, it can be used for various communication devices.
  • the communication unit include a communication unit that connects to a public communication network via a base station, and a communication unit that directly communicates with other terminals.
  • the connection destination include a server and other terminals.
  • the data search device and the data search method according to the present invention are useful for extracting an object that meets a search condition from a plurality of objects.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 検索条件に対する適合率が異なる複数のデータを、グループとして表示画面上に表示する表示部と、表示部に表示されたグループの表示画面上での動きを検知する検知部と、検知部にて検知されるグループの動きの度合いに応じた適合率のデータをグループから抽出する制御部と、を備える。

Description

データ検索装置及びデータ検索方法
 本発明は、データの検索を行うデータ検索装置及びデータ検索方法に関する。
 携帯電話機等の通信機器は、操作者の指示を入力する装置を備えている。例えば、特許文献1には、指示入力として携帯端末の傾斜角度および「振る」、「傾ける」などの動作に伴う状態変位を検出する携帯端末が記載されている。また、特許文献1に記載の装置では、携帯端末の傾斜角度から情報コンテンツを表すアイコン群の動きを制御し、ディスプレイに時々刻々移動するアイコンを表示することが記載されている。
特開2002-149616号公報
 ここで、通信機器では、データの絞り込み検索が行われる場合、キーとなる検索条件と各データの情報とを照合し、検索条件を満たすデータを抽出する。
 本発明は、より高い操作性で所望のデータを抽出することが可能なデータ検索装置及びデータ検索方法を提供することを目的とする。
 本発明は、検索条件に対する適合率が異なる複数のデータを、グループとして表示画面上に表示する表示部と、前記表示部に表示された前記グループの表示画面上での動きを検知する検知部と、前記検知部にて検知される前記グループの動きの度合いに応じた前記適合率のデータを前記グループから抽出する制御部と、を備える。
 ここで、前記検知部は、前記表示部において前記グループが表示された領域に接触することで入力される入力指示を検出するタッチパネル部であることが好ましい。
 また、前記制御部は、前記グループの前記動きの度合いに基づいて前記データを抽出する基準となる適合率の範囲を求め、前記適合率が前記範囲内であるデータを抽出することが好ましい。
 また、前記制御部は、前記グループの前記動きの度合いが相対的に高い場合に前記適合率が相対的に高いデータを抽出することが好ましい。
 また、前記制御部は、前記グループの前記動きの度合いに基づいて前記適合率の低いデータを前記グループから分離させて表示させることが好ましい。
 また、前記制御部は、前記グループから分離されたデータを新たなグループとして表示することが好ましい。
 また、前記制御部は、前記検知部にて検知される前記グループの動きに応じた前記グループの表示軌跡に基づいて前記データを前記グループから抽出させるか否かを判定することが好ましい。
 また、前記制御部は、前記グループの表示軌跡が往復であると判定したら、前記適合率が相対的に低いデータを前記グループから分離させることが好ましい。
 また、前記検知部は、前記グループの動きの度合いとして、前記グループの表示画面上での移動速度又は移動距離を検知することが好ましい。
 また、本発明は、筐体と、検索条件に対する適合率が異なる複数のデータを、グループとして表示する表示部と、前記筐体の加速度又は移動状態を検出するための検出センサと、検出した前記加速度又は前記移動状態に応じた前記適合率のデータを前記グループから抽出する制御部と、を備える。
 また、本発明は、検索条件に対する適合率が異なる複数のデータを、グループとして表示画面上に表示するステップと、表示された前記グループの表示画面上での動きを検知するステップと、前記検知するステップにて検知される前記動きの度合いに応じた前記適合率のデータを前記グループから抽出するステップと、を備える。
 本発明にかかるデータ検索装置及びデータ検索方法は、高い操作性で検索を実行することが可能となる。
図1は、本発明の通信機器並びに携帯通信機器の第1の実施形態の概略構成を示すブロック図である。 図2は、図1に示す携帯通信機器のソフトウェアの概略構成を示すブロック図である。 図3は、表示デバイスに表示される画像の一例を示す説明図である。 図4は、表示デバイスに表示される画像の一例を示す説明図である。 図5は、表示デバイスに表示される画像の一例を示す説明図である。 図6は、表示デバイスに表示される画像の一例を示す説明図である。 図7は、図6に示す各項目オブジェクトの適合率の一例を示す図である。 図8は、表示デバイスに表示される画像の一例を示す説明図である。 図9は、図8に示す各項目オブジェクトの適合率の一例を示す図である。 図10は、表示デバイスに表示される画像の一例を示す説明図である。 図11は、図10に示す各項目オブジェクトの適合率の一例を示す図である。 図12は、表示デバイスに表示される画像の一例を示す説明図である。 図13は、図12に示す各項目オブジェクトの適合率の一例を示す図である。 図14は、携帯通信機器の処理動作の一例を示すフロー図である。 図15は、携帯通信機器の処理動作の一例を示すフロー図である。 図16は、携帯通信機器の処理動作の一例を示すフロー図である。 図17-1は、携帯通信機器の動作を説明するための説明図である。 図17-2は、携帯通信機器の動作を説明するための説明図である。 図17-3は、携帯通信機器の動作を説明するための説明図である。 図17-4は、携帯通信機器の動作を説明するための説明図である。 図18は、本発明の通信機器並びに携帯通信機器の第2の実施形態の概略構成を示すブロック図である。 図19は、図18に示す携帯通信機器のソフトウェアの概略構成を示すブロック図である。 図20は、本発明の通信機器並びに携帯通信機器の第2の実施形態の平面図を示す図である。 図21は、携帯通信機器に加えられる加速度の例を示すグラフである。 図22は、携帯通信機器に加えられる加速度の例を示すグラフである。 図23は、携帯通信機器の処理動作の一例を示すフロー図である。 図24は、携帯通信機器に加えられる加速度の例を示すグラフである。 図25は、携帯通信機器に加えられる加速度の例を示すグラフである。
 以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、検索表示装置として携帯通信機器、より具体的には、携帯電話機を例として説明するが、本発明の適用対象は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブル及び車載ナビゲーション装置、ノートパソコン、ゲーム機等に対しても本発明は適用できる。
(第1の実施形態)
 図1は、本発明にかかる検索表示装置の第1の実施形態の概略構成を示すブロック図である。本実施形態は、本発明を携帯通信機器に適用したものである。図1に示すように携帯通信機器10は、基本的に、CPU(Central Processing Unit)22と、通信部26と、音声処理部30と、表示デバイス32と、入力デバイス34と、ROM36と、RAM38と、内部ストレージ40と、外部ストレージインタフェース(I/F、interface)42を有する。また、携帯通信機器10は、外部ストレージI/F42を介して外部ストレージ46と接続されている。なお、携帯通信機器10は、上記構成の他にも撮像部や、各種端子等、携帯通信機器として有する各種構成を有している。また、携帯通信機器10の外形形状は、ヒンジで連結された2つの部材で構成され、折りたたみ可能な形状や、2つの部材をスライドさせる形状や、1つの箱型の形状等、種々の形状とすることができる。
 CPU22は、携帯通信機器10の全体的な動作を統括的に制御する処理部である。すなわち、携帯通信機器10の各種の処理が、入力デバイス34の操作や携帯通信機器10のROM36、内部ストレージ40に保存されるソフトウェアに応じて適切な手順で実行されるように、通信部26や、表示デバイス32等の動作を制御する。携帯通信機器10の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、通信部26、音声処理部30、表示デバイス32等の動作としては、例えば、通信部26による信号の送受信、音声処理部30による音声の入出力、表示デバイス32による画像の表示等がある。
 CPU22は、ROM36、内部ストレージ40に保存されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて処理を実行する。CPU22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成され、上記ソフトウェアで指示された手順にしたがって上述した携帯通信機器10の各種の処理を実行する。すなわち、CPU22は、ROM36、内部ストレージ40に保存されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。
 CPU22は、複数のアプリケーションプログラムを実行する機能を有する。CPU22が実行するアプリケーションプログラムとしては、例えば、表示デバイス32に画像を表示させる画像表示アプリケーションプログラムや、入力デバイス34で検出した入力に基づいて入力された操作を算出する操作検出アプリケーションプログラムや、篩い落とし検索(後で詳細に説明する。)を行う検索アプリケーションプログラムや、インターネット通信を行うインターネットアプリケーションプログラムや、メールを作成するメールアプリケーションプログラム、電話をかけるための電話アプリケーションプログラム等の複数のアプリケーションプログラムがある。
 通信部26は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。
 音声処理部30は、マイク50に入力される音声信号やレシーバ52から出力される音声信号の処理を実行する。
 表示デバイス32は、液晶ディスプレイ(LCD、Liquid Crystal Display)や、有機EL(Organic Electro-Luminescence)パネルなどの表示パネルを備え、CPU22から供給される映像データに応じた映像、画像データに応じた画像を表示パネルに表示させる。
 入力デバイス34は、表示デバイス32の前面に配置されたタッチパネルであり、操作者が表面を触るとその接触を入力として検出する。なお、入力デバイス34は、接触された位置や、その接触の強さ等を検出する。タッチパネルとしては、マトリクススイッチ、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等種々の方式のタッチパネルを用いることができる。ここで、表示デバイス32に電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キーなど、各種の機能が割り当てられたキーの画像を表示させた状態のときに操作者によって入力デバイス34が押されたら、入力デバイス34は、押された位置(接触があった位置)を検出する。携帯通信機器10のCPU22は、入力デバイス34が接触を検出した位置に対応するキーの操作が入力されたとして、その処理を行う。
 ROM(Read Only Memory)36は、読み取り専用の記憶デバイスであり、BIOS等携帯通信機器10の駆動に用いるファームウェアが記憶されている。RAM(Random Access Memory)38は、読み書き可能な記憶デバイスであり、例えば、SRAM(Static Random Access Memory、DRAM(Dynamic Random Access Memory)等で構成される。ROM36とRAM38とで、主記憶装置が構成される。また、ROM36やRAM38は、ソフトウェアの処理過程で用いられるコンピュータプログラムや一時的なデータが、CPU22により割り当てられ、割り当てられたデータを一時的に作業領域に保存する。
 内部ストレージ(内部メモリ)40は、携帯通信機器10に備え付けられた読み取り及び書き込み可能な記憶装置、例えば、EEPROM(フラッシュメモリ等)、ハードディスク等である。内部ストレージ40は、補助記憶装置として利用され、CPU22での処理に利用されるソフトウェアやデータが保存されている。また、内部ストレージ40は、これらのソフトウェア等以外に、通信、ダウンロードされた画像データを保存する画像フォルダや、待ち受け画像に使用される画像ファイルを保存する待ち受け画像フォルダ等も有する。また、内部ストレージ40には、これら以外にも、例えば、通信、ダウンロードされた音声データ、あるいは内部ストレージ40に対する制御にCPU22が用いるソフトウェア、通信相手の電話番号やメールアドレス等を保存し、管理するアドレス帳、発信音や着信音等の音声ファイル、ソフトウェアの処理過程で用いられる一時的なデータ等が保存されている。
 外部ストレージI/F42は、着脱可能な外部ストレージ46と接続する端子である。外部ストレージI/F42と外部ストレージ46とを接続することで、CPU22と外部ストレージ46との間でデータの送受信を行うことが可能となる。外部ストレージ(外部メモリ)46は、外部ストレージI/F42を介して、携帯通信機器10に着脱可能な記憶装置であり、SDカード(登録商標)、コンパクトフラッシュ(登録商標)等のメモリーカードや、着脱可能なHDD(Hard Disk Drive)を用いることができる。また、外部ストレージI/F42と外部ストレージ46との組み合わせとしては、リムーバブルディスクドライブ(Removable Disk Drive)と、リムーバブルディスクを組み合わせてもよい。
 次に、図2を用いて、携帯通信機器10のソフトウェアの構成について説明する。ここで、図2は、携帯通信機器10のソフトウェアの概略構成を示すブロック図である。なお、図2では、説明のために、各ソフトウェア(アプリケーションプログラム)が個別に設けられているように示しているが、CPU22、ROM36、RAM38、内部ストレージ40等の間で、信号のやり取り、データの処理が行われているものであり、各部が目視上別々に設けられているわけではない。また、図2には、ソフトウェアとして項目オブジェクトの篩い落とし検索と画像表示に関するソフトウェアを示しているが、携帯通信機器10は、図2に示すソフトウェア以外にも種々のソフトウェアを備えている。また、オブジェクトとは、操作者による操作の対象となるアイテムであり、グループオブジェクト(フォルダ)や、項目オブジェクト(ファイル、データ)等である。なお、フォルダ(ディレクトリ)としては、操作者により作成されたフォルダのみならず、篩い落とし検索によって携帯通信機器10により作成されたフォルダや、篩い落とし検索によって検出されたファイルの集合を管理するために一時的に作成されたフォルダも含まれる。また、ファイルとしては、画像データ、音声データ、また、インターネットホームページのデータ、電話番号やメールアドレスを名前と共に記憶するアドレス帳等が例示される。
 図2を参照すると、携帯通信機器10のソフトウェアは、篩い落とし検索を行う検索部60と、表示デバイス32に表示する画像を制御する表示部62と、入力デバイス34からの入力を検出する入力部64と、内部ストレージ40及び外部ストレージ46とデータの送受信を行うコンテンツ制御部66とを有する。以下、各部の構成を説明する。
 検索部60は、検索制御部68と、オブジェクト制御部70と、オブジェクト表示部72と、オブジェクト操作部74と、オブジェクト管理部76と、オブジェクト情報データベース78と、コンテンツ管理部80と、検索インデックスデータベース82と、コンテンツ情報データベース84と、コンテンツアクセス部86とを有する。検索部60は、複数の項目オブジェクトが集められたグループオブジェクトを読み出し、グループオブジェクト内の各項目オブジェクトと検索条件との適合率を算出し、グループオブジェクトの動きの際に、グループオブジェクトの動きの度合いに基づいて適合率の低いデータをグループオブジェクトから分離させることで篩い落とし検索を行う。なお、グループオブジェクトの動きの度合いに基づいてグループオブジェクトから分離させるデータを決定する方法は、後ほど説明する。
 検索制御部68は、オブジェクト制御部70及びコンテンツ管理部80との間で、情報のやり取りを行い、各部から供給される情報に基づいて、項目オブジェクトの篩い落とし検索を行う。オブジェクト制御部70は、オブジェクト表示部72、オブジェクト操作部74、オブジェクト管理部76と情報のやり取りを行い、グループオブジェクト、項目オブジェクト、キーオブジェクト等、種々のオブジェクトの挙動を制御する。具体的には、表示させるオブジェクトの選択、オブジェクトを表示させる位置の決定、また、検索制御部68の決定に基づいた新たなグループオブジェクトの作成、また、各項目オブジェクトが所属するグループオブジェクトの決定、移動等を行う。
 オブジェクト表示部72は、オブジェクト制御部70による制御に基づいて決定された、表示するオブジェクトの情報を表示部62の表示制御部88に送る。つまり、オブジェクト表示部72は、どのグループオブジェクト、項目オブジェクトを表示させるか、また各オブジェクトをどの位置にどのように表示させるかの情報を表示制御部88に送る。
 オブジェクト操作部74は、入力部64から送られてきた入力信号に基づいて、操作するオブジェクト及びそのオブジェクトの操作を決定して、決定した操作対象のオブジェクトの信号及び決定した操作の信号をオブジェクト制御部70に送る。
 オブジェクト管理部76は、各オブジェクトを管理する機能を有し、オブジェクト情報データベース78は、各オブジェクトに関する情報を記憶する記憶手段である。ここで、各オブジェクトに関する情報としては、オブジェクトがどのグループオブジェクトに所属しているかを示す情報、篩い落とし検索の際にオブジェクトの適合率を算出するための情報等、篩い落とし検索やオブジェクトの操作に必要な種々の情報が記憶されている。なお、オブジェクト情報データベース78には、表示デバイス32の画面上に表示されているオブジェクトに関する情報が記憶されている。オブジェクト管理部76は、オブジェクト情報データベース78の情報を適宜読み出し、オブジェクト制御部70に送り、また、オブジェクトに関する情報が更新されたら、オブジェクト情報データベース78に記憶されている情報を更新する。
 次に、コンテンツ管理部80は、検索インデックスデータベース82、コンテンツ情報データベース84、コンテンツアクセス部86を有し、内部ストレージ40や外部ストレージ46に記憶されている写真や、音楽データ、アドレス帳のデータ等のファイルを、コンテンツ制御部66を介して読み出したり、各ファイルを内部ストレージ40や外部ストレージ46に書き込んだりする。
 検索インデックスデータベース82は、篩い落とし検索に用いる適合率に関する情報を記憶している。なお、検索インデックスデータベース82は、必要に応じて、適合率に関する情報以外の検索に関する情報を記憶していても良い。
 コンテンツ情報データベース84は、項目オブジェクトとなっている音声データや、画像ファイル、インターネットサイト等のデータが記憶されている。つまり、画面上に表示されている項目オブジェクトに対応するファイルの情報(音声情報や、画像情報)が記憶されている。なお、コンテンツ情報データベース84は、必要に応じて、表示デバイス32に表示されている項目オブジェクト以外の項目オブジェクトのファイルの情報も記憶している。コンテンツアクセス部86は、コンテンツ制御部66と情報のやり取りを行い、コンテンツ制御部66が取得したファイルの情報や、ソフトウェアの情報等を読み取り、コンテンツ管理部80から送られるファイルの情報や、ソフトウェアの情報をコンテンツ制御部66に送る。
 表示部62は、表示制御部88と、描画エンジン部90とを有し、検索部60のオブジェクト表示部72から送られる情報に基づいて、表示デバイス32に表示させる画像の画像信号を生成し、表示デバイス32に送る。表示制御部88は、オブジェクト表示部72から送られる情報、つまり、どのオブジェクトをどの位置にどのように表示させるかの情報に基づいて、表示させる画像を作成する。描画エンジン部90は、表示制御部88で作成された画像を画像信号に変換し、変換した画像信号を表示デバイス32に送る。このようにして、表示デバイス32は、検索部60から送られた情報に基づいて表示部62で作成された画像を表示させる。なお、表示部62は、他のソフトウェアが起動されている場合は、オブジェクト表示部72から送られた情報以外の種々のソフトウェアから送られる情報にも基づいて画像を生成する。
 入力部64は、入力インタフェース(I/F)制御部92を有し、入力デバイス34で検出された操作者の操作をオブジェクト操作部74に送る。入力インタフェース制御部92は、入力デバイス34から送られる信号を検索部60で解析可能な信号に変換して、オブジェクト操作部74に送る。
 コンテンツ制御部66は、ファイルシステム94を有し、内部ストレージ40及び/または外部ストレージ46から情報の読み取りを行い、読み取った情報をコンテンツアクセス部86に送り、コンテンツアクセス部86から送られた情報を、内部ストレージ40及び/または外部ストレージ46に書き込む。なお、ファイルシステム94は、情報の読み取り、書き込みの管理を行う機能である。
 ここで、図3~図13を参照して、篩い落とし検索が行われる際に画面上に表示される画像を説明する。図3~図6、図8、図10、及び、図12は、表示デバイス32に表示される画像の一例を示す説明図であり、図7、図9、図11、及び、図13は、図6に示されている各項目オブジェクトの適合率の一例を示す図である。図3に示すように、表示デバイスには、複数の項目オブジェクト104を含む3つのグループオブジェクト101~103が表示されている。ここで、図3に示す例では、グループオブジェクト101~103は、複数の項目オブジェクト104が記憶されたフォルダであり、「Aさん」という名称のグループオブジェクト101と、「Bさん」という名称のグループオブジェクト102と、「Cさん」という名称のグループオブジェクト103と、が表示されている。また、各グループオブジェクト101~103は、グループオブジェクトの表示領域の外周が点線で囲われている。つまり、グループオブジェクトと他の部分との境界線が表示されている。また、グループオブジェクト101~103の内部には、グループオブジェクト101~103にそれぞれ所属する複数の項目オブジェクト104が表示されている。
 また、項目オブジェクト104は、画像ファイルで構成されており、表示デバイスには、項目オブジェクト104として画像ファイルのサムネイル画像が表示されている。なお、本実施形態においては、予め設定された条件に対する適合率が各項目オブジェクト104に関して算出されているものとする。算出した適合率は、タグ等の付帯情報として各項目オブジェクト104に付帯していても良いし、各項目オブジェクト104とその適合率とを対応付けたテーブル等を検索インデックスデータベース82(図2参照)に記憶させておくようにしても良い。
 次に、図4及び図5を参照して、篩い落とし検索の操作方法について説明する。なお、本実施形態においては、操作者が「Aさん」という名称のグループオブジェクト101(以下、単に「グループオブジェクト101」という。)を操作するものとし、図4及び図5においては、他のグループオブジェクトの表示を省略している。
 本実施形態においては、グループオブジェクトに対する篩い落とし検索が行われる場合、タッチパネルへの接触領域に対応して表示パネルに表示されているグループオブジェクトが選択され、このタッチパネルへの接触に伴い選択されているグループオブジェクトに対する篩い落とし検索について説明する。任意のグループオブジェクトが選択された状態でタッチパネルへの接触位置をユーザが移動させると、この接触位置の移動により選択されているグループオブジェクトの表示位置が変位することとなる。この接触移動(タッチスライド)によりグループオブジェクトが表示ディスプレイ上で移動することとなり、動きを伴い表示される。このグループオブジェクトの動きの際に、グループオブジェクトの表示移動である表示画面上での動きの度合い(速度、距離等が例示される。)に基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させることとしている。つまり、操作者によりグループオブジェクトが動かされる度合いに基づいて項目オブジェクトを篩い落とす基準となる適合率の閾値を変化させ、当該閾値以下の適合率を有する項目オブジェクトをグループオブジェクトから分離させる。また、本実施形態においては、グループオブジェクトがゆっくり振られたら閾値を低くし、速く振られたら閾値を高くするようにした。本実施形態においては、これを篩い落とし検索と称している。
 図4に示すように、操作者がグループオブジェクト101をタッチして図中左右方向に篩う操作をゆっくりと行うと、グループオブジェクトの動きの度合いが低いと判断されて、項目オブジェクトを篩い落とす基準となる適合率の閾値が低く(例えば、30%等)設定され、相当程度低い(例えば、30%~0%等)適合率の項目オブジェクト104がグループオブジェクト101から分離される。そして、相当程度低い(例えば、30%~0%等)適合率の項目オブジェクト104の表示位置が、グループオブジェクト101の内部から外部(図中下方向)に移動される(分離され、篩い落とされる)。これにより、適合率が高い(例えば、100%~31%等)項目オブジェクト104がグループオブジェクト101の内部に残る、つまり適合率が高い項目オブジェクト104を抽出(検索)することができる。
 なお、このとき、グループオブジェクト101から分離され、グループオブジェクト101の内部から外部(図中下方向)に移動された項目オブジェクト104の集合を新たなグループオブジェクトとしても良い。この場合、新たなグループオブジェクトは、相当程度低い(例えば、30%~0%等)適合率の項目オブジェクト104を含むことになる。これにより、相当程度低い(例えば、30%~0%等)適合率の項目オブジェクト104を抽出(検索)することができる。
 また、図5に示すように、操作者がグループオブジェクト101をタッチして図中左右方向に篩う操作を図4で説明した場合よりも速く行うと、グループオブジェクトの動きの度合いが高いと判断されて、適合率の閾値が図4で説明した場合よりも高く設定され、図4で説明した場合よりも高い(例えば、60%~0%等)適合率の項目オブジェクト104がグループオブジェクト101から分離される。そして、比較的高い(例えば、60%~0%等)適合率の項目オブジェクト104の表示位置が、グループオブジェクト101の内部から外部(図中下方向)に移動される(分離され、篩い落とされる)。これにより、図4で説明した場合よりも高い(例えば、100%~61%等)適合率の項目オブジェクト104がグループオブジェクト101の内部に残る、つまり図4で説明した場合よりも適合率の高い項目オブジェクト104を抽出(検索)することができる。
 なお、このとき、グループオブジェクト101から分離され、グループオブジェクト101の内部から外部(図中下方向)に移動された項目オブジェクト104の集合を新たなグループオブジェクトとしても良い。この場合、新たなグループオブジェクトは、図4で説明した場合よりも高い(例えば、60%~0%等)適合率の項目オブジェクト104を含むことになる。これにより、図4で説明した場合よりも高い(例えば、60%~0%等)適合率の項目オブジェクト104を抽出(検索)することができる。
 また、上記のような篩い操作を操作者が複数回繰り返すことにより、適合率が中程度(例えば、60%~31%等)の項目オブジェクト104を抽出(検索)することも可能になる。このような適合率が中程度(例えば、60%~31%等)の項目オブジェクト104を抽出(検索)する場合における篩い落とし検索の操作方法について、図6~図13を参照して説明する。
 図6に示すように、表示デバイスには、「a」~「o」までの15個の項目オブジェクトを含む「Aさん」という名称のグループオブジェクト101が表示されている。先に触れたように、図7は、「a」~「o」までの15個の項目オブジェクトの適合率を示している。図7に示すように、各項目オブジェクトの適合率の高さは、a>b>c>d>e>f>g>h>i>j>k>l>m>n>oの順となっている。操作者は、適合率が中程度(ここでは、「e」~「k」の項目オブジェクトとする。)の項目オブジェクトを所望するものとする。
 まず、図8に示すように、操作者が「Aさん」という名称のグループオブジェクト101をタッチして図中左右方向(図中上下方向や、図中対角線方向や、その他の方向であっても良い。)に篩う操作を行うと、図9に濃いハッチングで示す適合率の範囲内に含まれる適合率が相当程度低い項目オブジェクト(ここでは、「l」~「o」までの4個の項目オブジェクト)の表示位置が、「Aさん」という名称のグループオブジェクト101の内部から外部(図中下方向)に移動される(分離され、篩い落とされる)。これにより、適合率が或る程度高い(ここでは、「a」~「k」までの10個の項目オブジェクト)項目オブジェクトが「Aさん」という名称のグループオブジェクト101の内部に残る。
 なお、このとき、「Aさん」という名称のグループオブジェクト101の内部から外部(図中下方向)に移動された(分離され、篩い落とされた)「l」~「o」までの4個の項目オブジェクトは、「Aさんα」という名称の新たなグループオブジェクト101αに含まれる。
 次に、図10に示すように、操作者が「Aさん」という名称のグループオブジェクト101を図中左右方向に篩う操作を再び行うと、図11に薄いハッチングで示す適合率の範囲内に含まれる適合率が中程度の項目オブジェクト(ここでは、「e」~「k」までの7個の項目オブジェクト)の表示位置が、「Aさん」という名称のグループオブジェクト101の内部から外部(図中下方向)に移動される(分離され、篩い落とされる)。これにより、適合率が相当程度高い項目オブジェクト(ここでは、「a」~「d」までの4個の項目オブジェクト)が「Aさん」という名称のグループオブジェクト101の内部に残る。
 なお、このとき「Aさん」という名称のグループオブジェクト101の内部から外部(図中下方向)に移動された(分離され、篩い落とされた)「e」~「k」までの7個の項目オブジェクトは、「Aさんβ」という名称の新たなグループオブジェクト102βに含まれる。
 図12は、上記した2回の篩い操作が行われた後の表示デバイス32の表示画面の一例を示す図である。図12に示すように、表示デバイス32の表示画面には、「a」~「d」までの4個の項目オブジェクトを含む「Aさん」という名称のグループオブジェクト101、「l」~「o」までの4個の項目オブジェクトを含む「Aさんα」という名称のグループオブジェクト101α、及び、「e」~「k」までの7個の項目オブジェクトを含む「Aさんβ」という名称のグループオブジェクト101βが表示されている。図13は、グループオブジェクト101、101α、101βの各々に含まれる項目オブジェクトの適合率を示している。
 上記のように、操作者が篩い操作を複数回繰り返すことにより、適合率が中程度の項目オブジェクト104を抽出(検索)することも可能になる。このような適合率が中程度の項目オブジェクト104を抽出(検索)することは、次の様な場合に有効である。すなわち、適合率が相当程度低い項目オブジェクト(図6~図13においては、「l」~「o」までの4個の項目オブジェクト)及び適合率が相当程度高い項目オブジェクト(図6~図13においては、「a」~「d」までの4個の項目オブジェクト)に関しては、携帯通信機器10のソフトウェア処理によって篩い落とすことで十分であり、適合率が中程度の項目オブジェクト(図6~図13においては、「e」~「k」までの7個の項目オブジェクト)に関しては、操作者が目視で確認したいと望む場合に有効である。つまり、抽出するか否かの判定が必要な項目オブジェクトのみを抽出することができ、目視で確認する項目オブジェクトを少なくしつつ、適切な抽出を行うことができる。
 次に、図14~図16、及び、図17-1~図17-4を用いて携帯通信機器10の動作、具体的には、篩い落とし検索の検索方法およびそれに伴う画像表示方法について説明する。ここで、図14~図16は、携帯通信機器の処理動作の一例を示すフロー図であり、図17-1~図17-4は、表示デバイス32に表示される画像の一例を示す説明図である。なお、図17-1~図17-4においては、1つのグループオブジェクトのみを簡略化、つまり当該グループオブジェクトを小さく且つ当該グループオブジェクトに含まれている項目オブジェクトを省略して示している。
 図14を参照すると、検索部60は、ステップS12として、操作者によってクリック(タップ)された座標がグループオブジェクト上であるかを判定する。つまり、入力デバイス34が、操作者による操作を検出し、その信号が入力部64を介してオブジェクト操作部74に入力され、検索部60は、操作者によってクリック(タップ)された座標がグループオブジェクト上であるかを判定する。検索部60は、ステップS12で操作者によってクリック(タップ)された座標がグループオブジェクト上ではない(No)と判定したら、以降のステップを実行することなく、処理を終了する。
 検索部60は、ステップS12で操作者によってクリック(タップ)された座標がグループオブジェクト上である(Yes)と判定したら、ステップS14として、初期化処理を行う。なお、初期化処理としては、例えば、篩い操作中であるか否かを表すフラグである篩い操作フラグ(後で詳細に説明する。)をオフ(OFF)にクリアすること等が例示される。
 次に、検索部60は、ステップS16として、クリック(タップ)された座標を起点位置とし、オブジェクト情報データベース78に記憶させる。なお、このように起点位置を記憶することとしているのは、後で詳細に説明するように、グループオブジェクトの単なる移動操作と篩い落とし検索操作とを区別するためである。また、起点位置をクリック(タップ)された座標以外としても良い。例えば、起点位置をグループオブジェクトの中央部、端部等としても良い。
 次に、検索部60は、ステップS18として、グループオブジェクトが反転移動されたかを判定する。
 検索部60は、ステップS18で操作者によってグループオブジェクトが反転移動されていない(No)と判定したら、処理をステップS50に進める。なお、ステップS50については、後で詳細に説明する。
 検索部60は、ステップS18で操作者によってグループオブジェクトが反転移動された(Yes)と判定したら、ステップS20として、篩い操作中であるか、つまり、篩い操作フラグがオン(ON)であるか否かを判定する。なお、操作者による操作開始当初は、先に説明した初期化処理(ステップS14)で篩い操作フラグがオフ(OFF)にされているので、検索部60は、篩い操作フラグがオン(ON)ではない(No)と判定し、処理をステップS22に進めることになる。
 検索部60は、ステップS20で篩い操作フラグがオン(ON)ではない(No)と判定したら、ステップS22として、グループオブジェクトの反転移動開始座標を折り返し位置とし、オブジェクト情報データベース78に記憶させる。なお、このように折り返し位置を記憶することとしているのは、後で詳細に説明するように、操作者によるグループオブジェクトの往復操作に備えるためである。また、例えば、折り返し位置をグループオブジェクトの中央部、端部等としても良い。
 次に、検索部60は、ステップS24として、篩い操作フラグをオン(ON)にセットし、ステップS26として、現在時刻をTrとしてオブジェクト情報データベース78に記憶させる。なお、このように現在時刻Trを記憶することとしているのは、後で詳細に説明するように、グループオブジェクトの動きの度合いの一例としてのグループオブジェクトの移動速度を算出するためである。なお、時間の計測は、装置に内蔵されている時間計測手段や、時間計測ソフトを利用することで実行することができる。
 一方、検索部60は、ステップS20で篩い操作中である、つまり、篩い操作フラグがオン(ON)であると判定したら、ステップS32として、起点位置と反転位置(反転移動された後の位置)との間の距離が設定された距離Dj以下であるかを判定する。つまり、操作者がグループオブジェクトを起点位置からの距離が距離Dj以下の領域内に移動させる操作を行ったか否かを判定する。
 検索部60は、ステップS32で起点位置と反転位置(反転移動された後の位置)との間の距離が距離Dj以下ではない(No)、つまり、操作者がグループオブジェクトを起点位置からの距離が距離Dj以下の領域外に反転移動させる操作を行ったと判定したら、ステップS34として、操作者によるグループオブジェクトの単なる移動操作であるものとして、篩い操作を終了し、篩い操作フラグをオフ(OFF)にする。そして、検索部60は、ステップS36として、グループオブジェクトの表示位置を移動させる移動処理を実行する。検索部60は、その後、処理をステップS50に進める。
 また、検索部60は、ステップS32で起点位置と反転位置(反転移動された後の位置)との間の距離が距離Dj以下である(Yes)、つまり、操作者がグループオブジェクトを起点位置からの距離が距離Dj以下の領域内に移動させる操作を行ったと判定したら、ステップS38として、折り返し位置を新たな起点位置とし、反転座標を新たな折り返し位置とし、オブジェクト情報データベース78に記憶させる。なお、このように起点位置及び折り返し位置を更新することとしているのは、後で詳細に説明するように、操作者によるグループオブジェクトの往復操作に備えるためである。
 次に、検索部60は、ステップS40として、現在時刻を取得し、前回の反転からの時間差分Tdを次式により算出する。
   Td=(現在時刻)-Tr      ・・・(1)
 検索部60は、ステップS42として、次回の時間差分Tdの算出のため、現在時刻をTrとしてオブジェクト情報データベース78に記憶させる。
 検索部60は、ステップS44として、グループオブジェクトの動きの度合いを算出する。グループオブジェクトの動きの度合いとして、グループオブジェクトの表示画面上での移動距離、移動速度等が例示される。
 グループオブジェクトの動きの度合いとしてグループオブジェクトの移動距離を用いる場合には、検索部60は、グループオブジェクトの移動距離Dを次式により算出することができる。
   D=(起点位置)-(折り返し位置) ・・・(2)
 また、グループオブジェクトの動きの度合いとしてグループオブジェクトの移動速度を用いる場合には、検索部60は、グループオブジェクトの移動速度Vを次式により算出することができる。
   V=D/Td            ・・・(3)
 検索部60は、ステップS18で操作者によってグループオブジェクトが反転移動されていない(No)と判定したら、ステップS26の処理を実行したら、ステップS36の処理を実行したら、又は、ステップS46の処理を実行したら、ステップS50として、操作者によってグループオブジェクトがリリースされたかを判定する。
 検索部60は、ステップS50でグループオブジェクトがリリースされていない(No)と判定したら、処理を終了する。なお、検索部60は、ステップS16から処理終了(エンド)の前までの処理を、操作者によってグループオブジェクトがリリースされるまで繰り返し行う。つまり、操作者によってグループオブジェクトがリリースされるまで、上記判定を繰り返し、グループオブジェクトの動きの度合いに基づいて、後に続く操作に対応する処理を行う。
 また、検索部60は、ステップS50でグループオブジェクトがリリースされた(Yes)と判定したら、ステップS52として、篩い落とされた項目オブジェクトを含む新たなグループオブジェクトを作成し、処理を終了する。
 次に、ステップS46の篩い落としサブルーチン処理について説明する。図15は、グループオブジェクトの動きの度合いとしてグループオブジェクトの移動距離を用いる場合における篩い落としサブルーチン処理を示す図である。
 まず、グループオブジェクトの動きの度合いとしてグループオブジェクトの移動距離を用いる場合について説明する。本実施形態においては、グループオブジェクトの移動距離に応じて、グループオブジェクトの中から篩い落とす項目オブジェクトの適合率の範囲を変動させる。つまり、グループオブジェクトの移動距離に応じて、グループオブジェクトの中から項目オブジェクトを篩い落とす基準となる適合率の閾値を変動させる。具体的には、グループオブジェクトの移動距離が短いほど、項目オブジェクトを篩い落とす基準となる適合率の閾値を低くし、適合率の低い項目オブジェクトも篩い落とさず(グループオブジェクト内に残し)、グループオブジェクトの移動距離が長いほど、項目オブジェクトを篩い落とす基準となる適合率の閾値を高くし、適合率の高い項目オブジェクトのみを篩い落とさないようにする(グループオブジェクト内に残す)。なお、本実施形態では、適合率の低い項目オブジェクトから順に篩い落とす設定となっているため、篩い落とす項目オブジェクトの適合率の範囲が広くなると、適合率がより高い項目オブジェクトも篩い落とすことになる。
 図15を参照すると、検索部60は、ステップS62として、予め設定されたベースとなる除外適合率(オフセット値)に加算する除外適合率の加算分を、ステップS44で算出した移動距離をキーとして、グループオブジェクトの移動距離と除外適合率の加算分とを対応付けた移動距離-除外適合率加算分テーブルを参照することにより、取得する。移動距離-除外適合率加算分テーブルは、オブジェクト情報データベース78に記憶させておくようにしても良い。
 検索部60は、ステップS62で除外適合率の加算分を取得したら、ステップS64として、ベースとなる除外適合率(オフセット値)にステップS62で取得した除外適合率の加算分を加算する。つまり、検索部60は、ステップS44で算出したグループオブジェクトの移動距離に基づいて、グループオブジェクトから篩い落とす適合率の範囲を算出する。ここで、適合率の範囲は、上述したように、グループオブジェクトの移動距離が長いほど広い範囲が算出され、短いほど狭い範囲が算出される。なお、移動距離-除外適合率加算分テーブル内の各値に予めベースとなる除外適合率(オフセット値)を加算して記憶しておくこととすれば、ステップS64の加算処理を不要とすることができる。
 検索部60は、ステップS64で除外適合率(閾値)を算出したら、ステップS66として、除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれているかを判定する。検索部60は、ステップS66で除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれていない(No)と判定したら、篩い落としサブルーチン処理を終了する。
 また、検索部60は、ステップS66で除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれている(Yes)と判定したら、ステップS68として、当該項目オブジェクトをグループオブジェクトから分離する(除外する、含まれないようにする、取り除く)処理を実行し、篩い落としサブルーチン処理を終了する。
 次に、図16を用いて、グループオブジェクトの動きの度合いとしてグループオブジェクトの移動速度を用いる場合について説明する。図16は、グループオブジェクトの動きの度合いとしてグループオブジェクトの移動速度を用いる場合における篩い落としサブルーチン処理を示す図である。本実施形態においては、グループオブジェクトの移動速度に応じて、グループオブジェクトの中から項目オブジェクトを篩い落とす基準となる適合率の範囲を変動させる。つまり、グループオブジェクトの移動速度に応じて、グループオブジェクトの中から項目オブジェクトを篩い落とす基準となる適合率の閾値を変動させる。具体的には、グループオブジェクトの移動速度が遅いほど、項目オブジェクトを篩い落とす基準となる適合率の閾値を低くし、適合率の低い項目オブジェクトも篩い落とさず(グループオブジェクト内に残し)、グループオブジェクトの移動速度が速いほど、項目オブジェクトを篩い落とす基準となる適合率の閾値を高くし、適合率の高い項目オブジェクトのみを篩い落とさないようにする(グループオブジェクト内に残す)。なお、本実施形態では、適合率の低い項目オブジェクトから順に篩い落とす設定となっているため、適合率の範囲が広くなると、適合率がより高い項目オブジェクトも篩い落とすことになる。
 図16を参照すると、検索部60は、ステップS82として、除外適合率(閾値)を、ステップS44で算出した移動速度をキーとして、グループオブジェクトの移動速度と除外適合率とを対応付けた移動速度-除外適合率テーブルを参照することにより、取得する。つまり、検索部60は、ステップS44で算出したグループオブジェクトの移動速度に基づいて、グループオブジェクトから篩い落とす適合率の範囲を算出する。ここで、適合率の範囲は、上述したように、グループオブジェクトの移動速度が速いほど広い範囲が算出され、遅いほど狭い範囲が算出される。なお、移動速度-除外適合率テーブルは、オブジェクト情報データベース78に記憶させておくようにしても良い。
 検索部60は、ステップS82で除外適合率(閾値)を取得したら、ステップS84として、除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれているかを判定する。検索部60は、ステップS84で除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれていない(No)と判定したら、篩い落としサブルーチン処理を終了する。
 また、検索部60は、ステップS84で除外適合率以下の適合率を有する項目オブジェクトがグループオブジェクトに含まれている(Yes)と判定したら、ステップS86として、当該項目オブジェクトをグループオブジェクトから分離する(除外する、含まれないようにする、取り除く)処理を実行し、篩い落としサブルーチン処理を終了する。
 次に、操作者が行う操作例について、図17-1~図17-4を参照して説明する。図17-1を参照すると、表示デバイス32の図中左方に表示されているグループオブジェクト101a(便宜上、図17-1中において、「1」で示している。)上の操作者によってクリック(タップ)された座標が起点位置としてオブジェクト情報データベース78に記憶される(図14のステップS16参照)。操作者は、グループオブジェクト101aをドラッグして、グループオブジェクト101aを表示デバイス32の図中右方(図17-1中において、「2」で示している。)に移動させる。
 図17-2を参照すると、操作者が、グループオブジェクト101aを表示デバイス32の図中右方(図17-2中において、「2」で示している。)に移動させる操作を行った後、グループオブジェクト101aを表示デバイス32の図中左方に移動させる。このとき、検索部60は、操作者がグループオブジェクト101aを起点位置(図17-2中において、「1」で示している。)からの距離が距離Djの領域105内に移動させたか(図17-2中において、「3」で示している。)、領域105外に移動させたか(図17-2中において、「2」で示している。)を判定する(図14のステップS18参照)。
 図17-3を参照すると、操作者が、グループオブジェクト101b(図17-3中において「3」で示している。)をドラッグして、グループオブジェクト101bを起点位置(図17-3中において、「2」で示している。)からの距離が距離Dj以下の領域106内に移動させる(図17-3において、「4」で示している。)と、検索部60は、図14のステップS16~ステップS52を繰り返し実行し、グループオブジェクト101bの移動の度合いに基づいて、篩い落とし検索処理を実行する。その後、図17-4に示すように、操作者が、グループオブジェクト101c(図17-4中において「4」で示している。)をドラッグして、グループオブジェクト101bを起点位置(図17-4中において「3」で示している。)からの距離が距離Dj以下の領域107外に移動させる操作を行うと、検索部60は、起点位置と反転位置(図17-4中において「5」で示している。)との間の距離が距離Dj以下ではない(No)と判定し(図14のステップS32参照)、篩い操作を終了し(図14のステップS34参照)、グループオブジェクト101cの移動処理を実行する(図14のステップS36参照)。
 なお、本実施形態においては、座標と時間の検出タイミングが同一であるので、移動距離と移動速度は、比例関係となる。そのため、移動距離、移動速度のどちらを用いて算出しても算出される閾値は、同一となる。なお、本実施形態においては、移動速度を平均移動速度としたが、平均移動速度ではなく、移動速度の最大値に基づいて、適合率の範囲を設定するようにしてもよい。例えば、移動距離によらず、移動速度の最高速度を算出し、最高速度が高い場合は、適合率の範囲を広くし、最高速度が低い適合率の範囲を狭くしてもよい。また、これらの算出方法を組み合わせてもよい。
 また、本実施形態では、表示デバイスとして液晶表示装置を用い、入力デバイスとしてタッチパネルを用いたが、これにも限定されない。例えば、表示デバイスとしてプロジェクタ等の投影表示手段を用い、入力デバイスとして、投影された画像の表示領域に入力される接触を検出する接触検出手段を用いてもよい。具体的には、操作者が表示領域に手をいれ、その手をオブジェクトが表示された領域に持っていき、その状態から表示領域内で手を動かす。このような手の動作を接触検出手段で検出することで、同様の制御を行うことができる。
 また、本実施形態においては、グループオブジェクトが動かされると、項目オブジェクトを篩い落とす基準となる閾値より低い適合率の項目オブジェクトを篩い落とすようにしているが、項目オブジェクトを篩い落とす基準となる閾値より高い適合率の項目オブジェクトを篩い落とすようにしても良い。
 また、グループオブジェクトが複数回移動された場合(図6~図13参照)に、2回目以降の移動において、項目オブジェクトを篩い落とす基準となる閾値の算出に前回の閾値を利用する(例えば、今回の閾値のスタート値を前回の閾値とする等)ようにしても良い。これにより、2回目以降の篩い落とし処理を速くすることが可能になる。
 また、操作者が、篩い落とし処理によって作られた新たなグループオブジェクトを選択して振ると、検索部60が、新たなグループオブジェクトに篩い落とし処理を実行するようにしても良い。これにより、適合率が中程度の項目オブジェクトを抽出(検索)することができる。
 携帯通信機器10は、このように、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、視覚的に抽出(検索)結果の状態を認識することができる。これにより、操作者の所望の検索結果を簡単に得ることが可能となる。また、操作者の操作により適合率の程度を簡単に調整することが可能となることで、操作者の操作性を高くすることができる。
 また、グループオブジェクトから分離された項目オブジェクトを新たなグループオブジェクトにすることで、操作対象の選択が容易になり、作業効率を向上させることができる。
 また、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、アナログ的な感覚で抽出(検索)の調整を行うことができる。
 また、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、視覚的に抽出(検索、絞り込み)の状態を把握できるので、所望の項目オブジェクトを簡単に取得することができる。
 また、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、直感的に抽出(検索、絞り込み)を行うことができる。
 また、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、抽出(検索、絞り込み)の度合いを調整し易くすることができる。
 また、操作者が篩い操作を複数回繰り返すことにより、適合率が中程度の項目オブジェクトを抽出(検索)することもできる。
(第2の実施形態)
 次に本発明にかかる検索表示装置の第2の実施形態について説明する。図18は、本発明にかかる検索表示装置の第2の実施形態の概略構成を示すブロック図である。本実施形態は、本発明を携帯通信機器に適用したものである。図18に示すように携帯通信機器50は、基本的に、第1の実施形態の携帯通信機器10(図1参照)に、加速度センサ54を付加したものとなっている。また、携帯通信機器50の外形形状は、ヒンジで連結された2つの部材で構成され、折りたたみ可能な形状や、2つの部材をスライドさせる形状や、1つの箱型の形状等、種々の形状とすることができる。
 加速度センサ54は、携帯通信機器50の筐体に加わる加速度を検出する検出器である。加速度センサ54として、種々の方法で加速度を検出する検出器(検出センサ)を用いることができ、例えば、静電容量の変化や、ピエゾ抵抗の変化、相対位置の変化等で加速度を検出する検出器を用いることができる。加速度センサ54は、操作者が携帯通信機器50の筐体を振ったり、移動させたりする際に、携帯通信機器50の筐体に作用する加速度を検出する。
 次に、図19を用いて、携帯通信機器50のソフトウェアの構成について説明する。ここで、図19は、携帯通信機器50のソフトウェアの概略構成を示すブロック図である。図19に示すように携帯通信機器50のソフトウェアの概略構成は、基本的に、第1の実施形態の携帯通信機器10(図1参照)のソフトウェアの概略構成に、加速度センサインタフェース(I/F)制御部96を付加したものとなっている。
 入力部64は、入力インタフェース(I/F)制御部92及び加速度センサインタフェース(I/F)制御部96を有し、入力デバイス34及び加速度センサ54で検出された操作者の操作をオブジェクト操作部74に送る。入力インタフェース制御部92は、入力デバイス34から送られる信号を検索部60で解析可能な信号に変換して、オブジェクト操作部74に送る。加速度センサインタフェース制御部96は、加速度センサ54から送られる信号を検索部60で解析可能な信号に変換して、オブジェクト操作部74に送る。
 第1の実施形態においては、操作者が入力デバイス34(タッチパネルが例示される。)を操作することでグループオブジェクトを移動させ、篩い落とし検索を行うこととしていたが、本実施形態においては、操作者が携帯通信機器50の筐体を動かす(振る)ことでグループオブジェクトを移動させ、篩い落とし検索を行う。
 図20は、携帯通信機器50の平面図の一例を示す図である。図20において、図中右側方向をX軸方向とし、図中上側方向をY軸方向とし、紙面に垂直な方向をZ軸方向とする。ここでは、操作者が携帯通信機器50をX軸方向に動かす(振る)場合を例にとって説明する。
 次に、図21及び図22を参照して、篩い落とし検索の操作方法について説明する。図21及び図22は、横軸方向を時間とし、縦軸方向を携帯通信機器50に加えられる加速度としたグラフの例である。
 本実施形態においては、操作者が携帯通信機器50の筐体を動かす(振る)ことに依るグループオブジェクトの動きの際に、グループオブジェクトの動きの度合い(ここでは、加速度のピーク値、前回の加速度のピーク値の時刻と今回の加速度のピーク値の時刻との間の時間等が例示される。)に基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させることとしている。つまり、グループオブジェクトの動きの度合い(加速度のピーク値等)に基づいて適合率の閾値を変化させ、当該閾値以下の適合率を有する項目オブジェクトをグループオブジェクトから分離させる。
 図21に示すように、操作者が携帯通信機器50の筐体をX軸方向及びX軸方向と逆方向に交互にゆっくりと動かす(振る)と、「Aさん」という名称のグループオブジェクト101(図20参照)がX軸方向及びX軸方向と逆方向に交互にゆっくりと動く。図21において、点P1~点P3は、加速度のピーク点であり、点P2’は、点P2の対称点である。
 「Aさん」という名称のグループオブジェクト101(図20参照)がX軸方向及びX軸方向と逆方向に交互にゆっくりと動くと、適合率の閾値が低く(例えば、30%等)設定され、適合率が相当程度低い(例えば、30%~0%等)項目オブジェクト104が「Aさん」という名称のグループオブジェクト101から分離される。そして、適合率が相当程度低い(例えば、30%~0%等)項目オブジェクト104の表示位置が、「Aさん」という名称のグループオブジェクト101の内部から外部(図20中下方向)に移動される(分離され、篩い落とされる)。これにより、適合率が高い(例えば、100%~31%等)項目オブジェクト104が「Aさん」という名称のグループオブジェクト101の内部に残る、つまり適合率が高い項目オブジェクト104を抽出(検索)することができる。
 なお、このとき、「Aさん」という名称のグループオブジェクト101から分離され、「Aさん」という名称のグループオブジェクト101の内部から外部(図20中下方向)に移動された項目オブジェクト104を新たなグループオブジェクトとしても良い。この場合、新たなグループオブジェクトは、適合率が相当程度低い(例えば、30%~0%等)項目オブジェクト104を含むことになる。これにより、適合率が相当程度低い(例えば、30%~0%等)項目オブジェクト104を抽出(検索)することができる。
 また、図22に示すように、操作者が携帯通信機器50の筐体をX軸方向及びX軸方向と逆方向に交互に図21で説明した場合よりもすばやく動かす(振る)と、「Aさん」という名称のグループオブジェクト101がX軸方向及びX軸方向と逆方向に交互に図21で説明した場合よりもすばやく動く(ピークとピークとの時間間隔が短くなる)。図22において、点P11~点P15は、加速度のピーク点であり、点P12’及び点P14’は、点P12及び点P14の対称点である。
 「Aさん」という名称のグループオブジェクト101がX軸方向及びX軸方向と逆方向に交互に図21で説明した場合よりもすばやく動くと、適合率の閾値が図21で説明した場合よりも比較的高く設定され、適合率が図21で説明した場合よりも比較的高い(例えば、60%~0%等)項目オブジェクト104が「Aさん」という名称のグループオブジェクト101から分離される。そして、適合率が比較的高い(例えば、60%~0%等)項目オブジェクト104の表示位置が、「Aさん」という名称のグループオブジェクト101の内部から外部(図20中下方向)に移動される(分離され、篩い落とされる)。これにより、適合率が図21で説明した場合よりも高い(例えば、100%~61%等)項目オブジェクト104が「Aさん」という名称のグループオブジェクト101の内部に残る、つまり適合率が図21で説明した場合よりも高い項目オブジェクト104を抽出(検索)することができる。
 なお、このとき、「Aさん」という名称のグループオブジェクト101から分離され、「Aさん」という名称のグループオブジェクト101の内部から外部(図20中下方向)に移動された項目オブジェクト104を新たなグループオブジェクトとしても良い。この場合、新たなグループオブジェクトは、図22で説明した場合よりも適合率が高い(例えば、60%~0%等)項目オブジェクト104を含むことになる。これにより、図22で説明した場合よりも適合率が高い(例えば、60%~0%等)項目オブジェクト104を抽出(検索)することができる。
 また、上記のような操作を操作者が複数回繰り返すことにより、適合率が中程度(例えば、60%~31%等)の項目オブジェクト104を抽出(検索)することも可能になることは、第1の実施形態と同様である。
 次に、図23~図25を用いて携帯通信機器50の動作、具体的には、篩い落とし検索の検索方法について説明する。ここで、図23は、携帯通信機器50の処理動作の一例を示すフロー図であり、図24及び図25は、携帯通信機器50に加えられる加速度の一例を示す説明図である。ここでは、操作者が携帯通信機器50をX軸方向に動かす(振る)場合を例にとって説明する。
 なお、本実施形態においては、携帯通信機器50の単なる揺れ(例えば、操作者が携帯通信機器50をポケットに入れたまま歩行した場合等)と、操作者が携帯通信機器50を動かした(振った)場合とを区別するために、(A)今回の加速度のピーク値と前回の加速度のピーク値との正負が反転しているか否か、(B)今回の加速度のピーク値の絶対値と前回の加速度のピーク値の絶対値との差が設定された値As未満であるか否か、(C)今回の加速度のピーク値の時刻と前回の加速度のピーク値の時刻との間の時間が設定された値Ts未満であるか否か、を判定するようにしている。
 図23を参照すると、検索部60は、ステップS92として、加速度(ここでは、X軸方向の加速度)のピーク値を検出したかを判定する。つまり、加速度センサ54が、加速度を検出し、その信号が入力部64を介してオブジェクト操作部74に入力され、加速度がピーク値であるかを判定する。検索部60は、ステップS92で加速度がピーク値ではない(No)と判定したら、加速度がピーク値となるまでステップS92で待機する。
 検索部60は、ステップS92で加速度がピーク値である(Yes)と判定したら、ステップS94として、今回検出したピーク値Ap及び今回加速度のピーク値を検出した今回時刻Tpをオブジェクト情報データベース78に記憶させる。
 次に、検索部60は、ステップS96として、篩い操作中であるか、つまり、篩い操作フラグがオン(ON)であるか否かを判定する。なお、操作者による操作開始当初は予め篩い操作フラグがオフ(OFF)に設定されており、検索部60は、篩い操作フラグがオン(ON)ではない(No)と判定し、処理をステップS98に進めることになる。
 検索部60は、ステップS96で篩い操作フラグがオン(ON)ではない(No)と判定したら、ステップS98として、初期化処理を行う。なお、初期化処理としては、例えば、篩い操作中であるか否かを表すフラグである篩い操作フラグをオン(ON)にセットすること等が例示される。
 検索部60は、ステップS100として、今回の加速度のピーク値Ap及び今回時刻Tpを、次回の加速度のピーク値の検出に備えて、前回の加速度のピーク値Af及び前回時刻Tfとしてオブジェクト情報データベース78に記憶させる。検索部60は、一旦処理を終了し、その後、図23に示すフローを再び実行する。
 検索部60は、ステップS96で篩い操作フラグがオン(ON)である(Yes)と判定したら、ステップS102として、前回の加速度のピーク値Afと今回の加速度のピーク値Apとは正負が反転しているか、つまり、
   Ap×Af<0            ・・・(4)
であるか否かを判定する。
 検索部60は、ステップS102で前回の加速度のピーク値Afと今回の加速度のピーク値Apとは正負が反転している(Yes)と判定したら、ステップS104として、今回時刻Tpと前回時刻Tfとの差が設定された値Ts未満であるか、つまり、
   Tp-Tf<Ts           ・・・(5)
であるか否かを判定する。
 検索部60は、ステップS104で今回時刻Tpと前回時刻Tfとの差が値Ts未満である(Yes)と判定したら、ステップS106として、今回の加速度のピーク値Apの絶対値|Ap|と前回の加速度のピーク値Afの絶対値|Af|との差が-Asより大きく且つAs未満であるか否か、つまり、
   -As<|Ap|-|Af|<As   ・・・(6)
であるか否かを判定する。
 検索部60は、ステップS106で今回の加速度のピーク値Apの絶対値|Ap|と前回の加速度のピーク値Afの絶対値|Af|との差が-Asより大きく且つAs未満である(Yes)と判定したら、ステップS108として、篩い落とし処理を実行する。なお、篩い落とし処理の一例として、先に説明した図15及び図16と同様に、今回時刻Tpと前回時刻Tfとの差及び/又は今回の加速度のピーク値Apの絶対値|Ap|と前回の加速度のピーク値Afの絶対値|Af|との差をキーとして、今回時刻Tpと前回時刻Tfとの差及び/又は今回の加速度のピーク値Apの絶対値|Ap|と前回の加速度のピーク値Afの絶対値|Af|との差と除外適合率(閾値)とを対応付けたテーブルを参照することにより、除外適合率(閾値)を取得し、当該除外適合率(閾値)以下の適合率を有する項目オブジェクトをグループオブジェクトから分離する(除外する、含まれないようにする、取り除く)ことが例示される。なお、当該テーブルは、オブジェクト情報データベース78に記憶させておくようにしても良い。検索部60は、その後、処理をステップS100に進める。
 検索部60は、ステップS102で前回の加速度のピーク値Afと今回の加速度のピーク値Apとは正負が反転していない(No)と判定したら、ステップS104で今回時刻Tpと前回時刻Tfとの差が値Ts未満ではない(No)と判定したら、又は、ステップS106で今回の加速度のピーク値Apの絶対値|Ap|と前回の加速度のピーク値Afの絶対値|Af|との差が-Asより大きく且つAs未満ではない(No)と判定したら、ステップS110として、篩い操作を終了し、篩い操作フラグをオフ(OFF)にする。そして、検索部60は、ステップS112として、篩い落とされた項目オブジェクトを新たなグループオブジェクトとする。検索部60は、その後、処理をステップS100に進める。
 なお、ここでは、携帯通信機器50がX軸方向及びX軸方向と反対方向に動かされる(振られる)場合について説明したが、Y軸方向及びY軸方向と反対方向に動かされる(振られる)場合、Z軸方向及びZ軸方向と反対方向に動かされる(振られる)場合、または、これらの組み合わせの方向及びその反対方向に動かされる(振られる)場合にも、同様に適用可能である。
 図24は、横軸方向を時間とし、縦軸方向を携帯通信機器50に加えられる加速度としたグラフの例である。図24を参照すると、操作者が携帯通信機器50の筐体を第1例の線で加速度が示されるように動かす(振る)と、(A)点P22の加速度のピーク値(負)と点P21の加速度のピーク値(正)との正負が反転しており、(B)点P22の加速度のピーク値の絶対値と点P21の加速度のピーク値の絶対値との差が設定された値As未満であり、(C)点P22の加速度のピーク値の時刻と点P21の加速度のピーク値の時刻との間の時間が値Ts未満であるので、携帯通信機器50は、加速度のピーク点P22を検出したときに、篩い落とし処理を実行する。
 一方、操作者が携帯通信機器50の筐体を第2例の線で加速度が示されるように動かす(振る)と、(A)点P24の加速度のピーク値(負)と点P21の加速度のピーク値(正)との正負が反転しており、(C)点P24の加速度のピーク値の時刻と点P21の加速度のピーク値の時刻との間の時間が値Ts未満であるが、(B)点P24の加速度のピーク値の絶対値と点P21の加速度のピーク値の絶対値との差が設定された値As未満ではないので、携帯通信機器50は、加速度のピーク点P24を検出したときに、篩い落とし処理を実行しない。
 図25は、横軸方向を時間とし、縦軸方向を携帯通信機器50に加えられる加速度としたグラフの例である。図25を参照すると、携帯通信機器50が図23のフロー図に示す処理を繰り返し実行するので、操作者が携帯通信機器50の筐体を図25に加速度が示されるようにすばやく動かし(振り)、その後、ゆっくり動かす(振る)と、加速度のピーク点P31~P34を検出する都度、図23のステップS94~ステップS112を実行する。
 携帯通信機器50は、このように、携帯通信機器50の動きの度合い、つまり、グループオブジェクトの動きの度合いに基づいて適合率の低い項目オブジェクトをグループオブジェクトから分離させるようにすることで、操作者が、視覚的に抽出(検索)結果の状態を認識することができる。これにより、操作者の所望の検索結果を簡単に得ることが可能となる。また、操作者の操作により適合率の程度を簡単に調整することが可能となることで、操作者の操作性を高くすることができる。
 以上説明したように、加速度センサ54を用いた第2の実施形態によっても、第1の実施形態と同様の効果を得ることができる。
 また、第1及び第2の実施形態において、グループオブジェクト及び/または項目オブジェクトの集合体は、その表示領域の外周(輪郭線)に線を表示することが好ましい。このように、表示領域の外周を線で明示することで、表示領域の大きさを的確に把握することができ、操作者によるタッチ操作も適切に行うことが可能となる。
 また、第1及び第2の実施形態では、検索部60で除外適合率(閾値)を算出するようにしたが、本発明はこれに限定されない。除外適合率(閾値)を求めることができればよく、ネットワーク等を介して外部の装置から供給された除外適合率(閾値)の情報を用いるようにしてもよい。
 また、第1及び第2の実施形態では、画像ファイルを例として説明したが、上述したように、音楽ファイルの検索、ホームページの検索等にも用いることができる。さらに、通信先(連絡を取る相手先)の検索に用いるようにしてもよい。この場合は、グループオブジェクトが、いわゆるアドレス帳となり、項目オブジェクトが、個別アドレス(通信先特定オブジェクト)となる。なお、個別アドレスには、氏名や、電話番号、メールアドレス、住所等の情報が記憶されている。また、アドレス帳で検索した結果で抽出した個別アドレスに対して電話をかけるモードに移行するようにしてもよく、また、抽出した個別アドレスに対して送信するメールを作成するメール作成画面に移行するようにしてもよい。この場合は、抽出した個別アドレスの中から操作者の入力デバイスへの操作により選択された少なくとも1つの個別アドレスに記憶された情報に基づいて、特定された通信先に通信部26で通信を行うことで、メールを送信したり、電話をかけたりする。
 また、第1及び第2の実施形態では、好適な態様として、タッチパネルを備えた携帯電話機を例として説明したが、これに限定されない。上述したように、各種通信機器に用いることができる。また通信部としては、基地局を介して公衆通信網と接続する通信部や、他の端末と直接通信する通信部が例示される。また、接続先は、サーバや、他の端末等が例示される。
 以上のように、本発明にかかるデータ検索装置及びデータ検索方法は、複数のオブジェクトの中から検索条件に適合するオブジェクトを抽出するのに有用である。
 10 携帯通信機器
 22 CPU
 26 通信部
 30 音声処理部
 32 表示デバイス
 34 入力デバイス
 36 ROM
 38 RAM
 40 内部ストレージ
 42 外部ストレージインタフェース
 46 外部ストレージ
 50 マイク
 52 レシーバ
 54 加速度センサ
 60 検索部
 62 表示部
 64 入力部
 66 コンテンツ制御部
 68 検索制御部
 70 オブジェクト制御部
 72 オブジェクト表示部
 74 オブジェクト操作部
 76 オブジェクト管理部
 78 オブジェクト情報データベース
 80 コンテンツ管理部
 82 検索インデックスデータベース
 84 コンテンツ情報データベース
 86 コンテンツアクセス部
 88 表示制御部
 90 描画エンジン部
 92 入力インタフェース制御部
 94 ファイルシステム
 96 加速度センサインタフェース制御部
 101、101α、101β、101a、101b、101c、102、103 グループオブジェクト
 104 項目オブジェクト

Claims (11)

  1.  検索条件に対する適合率が異なる複数のデータを、グループとして表示画面上に表示する表示部と、
     前記表示部に表示された前記グループの表示画面上での動きを検知する検知部と、
     前記検知部にて検知される前記グループの動きの度合いに応じた前記適合率のデータを前記グループから抽出する制御部と、
     を備えるデータ検索装置。
  2.  前記検知部は、前記表示部において前記グループが表示された領域に接触することで入力される入力指示を検出するタッチパネル部である請求項1に記載のデータ検索装置。
  3.  前記制御部は、前記グループの前記動きの度合いに基づいて前記データを抽出する基準となる適合率の範囲を求め、前記適合率が前記範囲内であるデータを抽出する請求項1に記載のデータ検索装置。
  4.  前記制御部は、前記グループの前記動きの度合いが相対的に高い場合に前記適合率が相対的に高いデータを抽出する請求項1に記載のデータ検索装置。
  5.  前記制御部は、前記グループの前記動きの度合いに基づいて前記適合率の低いデータを前記グループから分離させて表示させる請求項1に記載のデータ検索装置。
  6.  前記制御部は、前記グループから分離されたデータを新たなグループとして表示する請求項5に記載のデータ検索装置。
  7.  前記制御部は、前記検知部にて検知される前記グループの動きに応じた前記グループの表示軌跡に基づいて前記データを前記グループから抽出させるか否かを判定する請求項1に記載のデータ検索装置。
  8.  前記制御部は、前記グループの表示軌跡が往復であると判定したら、前記適合率が相対的に低いデータを前記グループから分離させる請求項7に記載のデータ検索装置。
  9.  前記検知部は、前記グループの動きの度合いとして、前記グループの表示画面上での移動速度又は移動距離を検知する請求項1に記載のデータ検索装置。
  10.  筐体と、
     検索条件に対する適合率が異なる複数のデータを、グループとして表示する表示部と、
     前記筐体の加速度又は移動状態を検出するための検出センサと、
     検出した前記加速度又は前記移動状態に応じた前記適合率のデータを前記グループから抽出する制御部と、を備えるデータ検索装置。
  11.  検索条件に対する適合率が異なる複数のデータを、グループとして表示画面上に表示するステップと、
     表示された前記グループの表示画面上での動きを検知するステップと、
     前記検知するステップにて検知される前記動きの度合いに応じた前記適合率のデータを前記グループから抽出するステップと、
     を備えるデータ検索方法。
PCT/JP2010/062858 2009-07-29 2010-07-29 データ検索装置及びデータ検索方法 WO2011013782A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/387,451 US8896554B2 (en) 2009-07-29 2010-07-29 Data retrieval apparatus and data retrieval method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009176232A JP2011028670A (ja) 2009-07-29 2009-07-29 検索表示装置及び検索表示方法
JP2009-176232 2009-07-29

Publications (1)

Publication Number Publication Date
WO2011013782A1 true WO2011013782A1 (ja) 2011-02-03

Family

ID=43529433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/062858 WO2011013782A1 (ja) 2009-07-29 2010-07-29 データ検索装置及びデータ検索方法

Country Status (3)

Country Link
US (1) US8896554B2 (ja)
JP (1) JP2011028670A (ja)
WO (1) WO2011013782A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101257171B1 (ko) 2011-04-28 2013-04-22 엔에이치엔(주) 모바일 단말의 움직임 및 시각에 대한 정보를 이용하여 사용자들간에 관계를 설정하는 소셜 네트워크 서비스 제공 시스템 및 방법
KR20140070040A (ko) * 2012-11-30 2014-06-10 삼성전자주식회사 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법
JP6347701B2 (ja) * 2014-09-05 2018-06-27 シャープ株式会社 情報処理装置、情報処理方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP2008234055A (ja) * 2007-03-16 2008-10-02 Sony Computer Entertainment Inc データ処理装置、データ処理方法、及びデータ処理プログラム
JP2009061161A (ja) * 2007-09-07 2009-03-26 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、ゲームシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3890880B2 (ja) 2000-11-10 2007-03-07 株式会社日立製作所 情報検索端末
ES2317055T3 (es) * 2003-08-07 2009-04-16 Thomson Licensing Procedimiento para reproduccion de documentos de audio con la ayuda de un interfaz que presenta grupos de documentos y aparato para reproduccion asociado.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP2008234055A (ja) * 2007-03-16 2008-10-02 Sony Computer Entertainment Inc データ処理装置、データ処理方法、及びデータ処理プログラム
JP2009061161A (ja) * 2007-09-07 2009-03-26 Namco Bandai Games Inc プログラム、情報記憶媒体、及び、ゲームシステム

Also Published As

Publication number Publication date
US8896554B2 (en) 2014-11-25
JP2011028670A (ja) 2011-02-10
US20120127108A1 (en) 2012-05-24

Similar Documents

Publication Publication Date Title
WO2010150893A1 (ja) 通信機器及び電子機器
JP5377143B2 (ja) 携帯電子機器
US8605006B2 (en) Method and apparatus for determining information for display
JP4475408B2 (ja) 表示装置
WO2012157562A1 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP2009266220A (ja) グラフィックメニューバーを操作する方法及び装置、並びにこれらを用いる記録媒体
KR20120088655A (ko) 연락 정보 입력 방법 및 시스템
US20100295780A1 (en) Method and apparatus for causing display of a cursor
RU2576472C2 (ru) Устройство отображения, способ для пользовательского интерфейса и программа
CN103562835A (zh) 带有快速站点访问用户界面的web浏览器
KR101743295B1 (ko) 휴대단말기의 전자책 검색 장치 및 방법
JP5254137B2 (ja) 携帯通信機器及び通信機器
JP4497418B2 (ja) 通信端末装置および通信相手選択発信方法
JP5254147B2 (ja) 通信機器及び携帯電子機器
WO2011013782A1 (ja) データ検索装置及びデータ検索方法
JP2013218379A (ja) 表示装置及びプログラム
JP4224985B2 (ja) 地図描画装置、地図表示システム、およびプログラム
JP5398555B2 (ja) 装置、装置の制御方法
CN111399724A (zh) ***设置项的显示方法、装置、终端及存储介质
TWI404400B (zh) 行動通訊裝置及其運作方法
JPWO2012008425A1 (ja) 電子機器及びその制御方法
JP5254892B2 (ja) 携帯通信機器及び通信機器
EP2548107B1 (en) Method and apparatus for determining a selection region
CN105528134A (zh) 手持装置及运动操作方法介质
JP5254148B2 (ja) 通信機器及び携帯電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10804528

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13387451

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10804528

Country of ref document: EP

Kind code of ref document: A1