KR20150081157A - Neck badn type terminal mobile - Google Patents

Neck badn type terminal mobile Download PDF

Info

Publication number
KR20150081157A
KR20150081157A KR1020140000850A KR20140000850A KR20150081157A KR 20150081157 A KR20150081157 A KR 20150081157A KR 1020140000850 A KR1020140000850 A KR 1020140000850A KR 20140000850 A KR20140000850 A KR 20140000850A KR 20150081157 A KR20150081157 A KR 20150081157A
Authority
KR
South Korea
Prior art keywords
user
body part
output
voice
bone conduction
Prior art date
Application number
KR1020140000850A
Other languages
Korean (ko)
Inventor
이건우
김진
최시은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140000850A priority Critical patent/KR20150081157A/en
Priority to PCT/KR2014/001068 priority patent/WO2015102148A1/en
Publication of KR20150081157A publication Critical patent/KR20150081157A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/06Hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C3/00Special supporting arrangements for lens assemblies or monocles
    • G02C3/006Arrangements for fitting and securing to the head or neck not in the position of use
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/14Side-members
    • G02C5/146Side-members having special front end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/13Hearing devices using bone conduction transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)

Abstract

The present invention provides a neck band type terminal. The terminal includes a first body part formed into an open-loop shape to be put on the neck of a user; a second body part formed on an inner surface of the first body part, formed into an open-loop shape to be penetrated by the neck; and having an osteophony output part placed in an end; and a hinge part combining the first and second body parts with each other to allow the second body part to rotate around the first body part. The osteophony output part outputs hearing data when a first state, in which the second body part is put on the neck with the first body part, is switched to a second state, in which both ends of the second body make contact with the body of the user.

Description

넥밴드형 단말기{NECK BADN TYPE TERMINAL MOBILE}[0001] NECK BADN TYPE TERMINAL MOBILE [0002]

본 발명은 사용자의 신체에 고정되는 넥밴드형 단말기를 제공한다. The present invention provides a neckband-type terminal fixed to a user's body.

단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.A terminal can be divided into a mobile / portable terminal and a stationary terminal depending on whether the terminal is movable. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.As the functions of the terminal are diversified, the terminal is implemented in the form of a multimedia device having a combination of functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, have. Further, in order to support and enhance the function of the terminal, it may be considered to improve the structural and software parts of the terminal.

이러한 개량에 힘입어 최근 이동 단말기는 다양한 형태의 디자인으로 진화하고 있으며, 사용자의 신체에 고정될 수 있는 이동 단말기가 개발되고 있다. 이에 따라 사용자는 신체에 장착된 단말기를 통하여 양 손을 사용하지 않고도 정보를 제공받을 수 있다. 나아가 신체 장착형 단말기를 이용하여, 신체 장착형 단말기를 통하여 정보를 제공받으면서 복수의 업무를 함께 수행하려고 하는 사용자의 요구가 증가하고 있다. Recently, mobile terminals have evolved into various types of designs due to such improvements, and mobile terminals that can be fixed to a user's body have been developed. Accordingly, the user can receive information through the terminal mounted on the body without using both hands. Further, there is an increasing demand from users who want to perform a plurality of tasks together while receiving information through a body-mounted terminal using a body-mounted terminal.

이에 본 발명의 과제는 외부의 소리를 차단하지 아니하고 사용자에게소리를 전달가능한 골절도 출력부를 구비하는 넥밴드형 단말기를 제공하는 것에 있다. SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a neckband-type terminal having an output unit capable of transmitting sound to a user without interrupting external sounds.

이와 같은 본 발명의 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른 넥밴드형 단말기는 사용자의 목에 걸쳐지는 개루프 형상으로 이루어지는 제1 바디부, 상기 제1 바디부의 내주면에 형성되고, 상기 목이 관통하도록 개루프형상으로 이루어지며, 단부에 골전도 출력부가 배치되는 제2 바디부 및 상기 제2 바디부가 상기 제1 바디부를 기준으로 회전운동 가능하도록 상기 제1 및 제2 바디부를 결함시키는 힌지부를 더 포함하고, 상기 골전도 출력부는, 상기 제2 바디부가 상기 제1 바디부와 목에 걸쳐지는 제1 상태에서 회전되어 상기 제2 바디부의 양단이 사용자의 신체와 접촉하는 제2 상태로 전환되면, 청각 데이터가 출력된다. According to an aspect of the present invention, there is provided a neckband-type terminal including a first body part having an open loop shape extending over a neck of a user, a second body part formed on an inner circumferential surface of the first body part, A second body part having an open-loop shape through which the neck passes, a bone conduction output part disposed at an end thereof, and a second body part having a first body part and a second body part, Wherein the bone conduction output portion is rotated in a first state in which the second body portion spans the first body portion and the neck so that the opposite ends of the second body portion contact the user's body in a second state When switched, auditory data is output.

본 발명과 관련된 일 예로서, 상대방의 음성을 수신하는 마이크 및 상기 상대방의 음성이 기 설정된 제1 언어와 다른 제2 언어로 구성되었는지 여부를 판단하는 제어부를 더 포함하고, 상기 제어부는 상대방의 음성을 상기 제1 언어로 번역한 제1 번역음성을 출력하도록 상기 골전도 출력부를 제어할 수 있다. The control unit may further include a microphone for receiving a voice of the other party and a control unit for determining whether the voice of the other party is configured in a second language different from the predetermined first language, To output the first translation voice translated into the first language.

본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 형성되는 상기 스피커를 더 포함할 수 있다. In one embodiment of the present invention, the neckband-type terminal is formed in the first body part, and when the auditory data is output in the first state, the auditory data is output when the state is switched to the second state And the speaker may be formed.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 마이크로 수신된 사용자의 음성이 상기 제2 언어에 해당되는 경우, 상기 스피커의 구동을 제한할 수 있다. As an example related to the present invention, the controller may limit the driving of the speaker when the voice of the micro-received user corresponds to the second language.

본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 마이크에 의하여 상기 제2 언어의 상대방 음성이 감지되면, 상기 제2 상태로 전환하라는 안내음성을 출력하도록 형성되는 스피커를 더 포함할 수 있다. As an example related to the present invention, the neckband terminal is formed in the first body part, and when the microphone of the second language is detected by the microphone in the first state, And a speaker formed to output sound.

본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 골전도 출력부가 사용자의 신체의 접촉여부를 감지하는 접촉감지부 및 상기 골전도 출력부가 사용자의 신체에 접하도록 배치되는 상기 제2 상태인 경우, 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함할 수 있다. In one embodiment of the present invention, the neckband terminal includes a contact sensing unit for sensing whether the bone conduction output unit is in contact with the user's body, and a second state in which the bone conduction output unit is disposed in contact with the user's body And a controller for controlling the bone conduction output unit to output the auditory data.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 상기 스피커를 제어할 수 있다. According to an embodiment of the present invention, when the auditory data is being output in the first state, the controller may control the speaker to output the auditory data when the state is switched to the second state.

본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제2 상태에서 상기 스피커로 상기 청각 데이터가 출력되는 경우, 외부소음을 수신하도록 활성화되는 마이크를 더 포함하고, 상기 외부소음에 근거하여, 상기 스피커의 구동을 제한하고 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 활성화시킬 수 있다. As an example related to the present invention, the neckband-type terminal further includes a microphone activated to receive external noise when the auditory data is output from the second state to the speaker, and based on the external noise, It is possible to activate the bone conduction output unit to limit the driving of the speaker and output the auditory data.

본 발명과 관련된 일 예로서, 상기 외부소음은 기 설정된 기준음량 이상의 음량을 갖거나, 기 설정된 외부환경에 대응되는 소리신호에 해당될 수 있다. As an example related to the present invention, the external noise may have a volume level equal to or greater than a preset reference volume level, or may correspond to a sound signal corresponding to a predetermined external environment.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 제2 상태에서 상기 골전도 이어폰 및 상기 스피커를 제어하는 음성명령을 수신하도록 상기 마이크를 제어할 수 있다. As an example related to the present invention, the control unit may control the microphone to receive a voice command for controlling the bone conduction earphone and the speaker in the second state.

본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 외부 단말기와 무선신호를 송신하거나 수신하도록 형성되는 무선통신부 및 상기 외부 단말기로부터 출력되는 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함할 수 있다. As an example of the present invention, the neckband terminal may further include a wireless communication unit configured to transmit or receive a wireless signal with an external terminal, and a controller for controlling the bone conduction output unit to output audible data output from the external terminal can do.

본 발명과 관련된 일 예로서, 상기 외부 단말기에 콜 신호가 수신되면, 상기 제어부는 상기 콜 신호를 알리는 알림음을 출력하도록 상기 골전도 출력부를 제어할 수 있다. As an example related to the present invention, when a call signal is received at the external terminal, the controller may control the bone conduction output unit to output a notification sound informing the call signal.

본 발명과 관련된 일 예로서, 상기 넥밴드형 단말기는 상기 제어부는 상기 콜이 연결되면 상대방의 음성을 출력하도록 상기 스피커를 더 포함하고, 상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어할 수 있다. As an example of the present invention, the neckband type terminal may further include the speaker to output a voice of the other party when the call is connected, and may control the bone conduction speaker to output the auditory data .

본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 청각 데이터를 출력하는 스피커를 더 포함하고, 상기 스피커와 상기 골전도 출력부는 함께 상기 청각 데이터를 출력할 수 있다. As an example of the present invention, the neckband terminal may further include a speaker for outputting the auditory data, and the speaker and the bone conduction output unit may output the auditory data together.

본 발명과 관련된 일 예로서, 상기 제1 바디부는 상기 제1 바디부의 외면에 형성되고 상기 넥밴드 단말기를 제어하는 사용자의 터치입력을 수신하는 터치감지부를 포함할 수 있다. In one embodiment of the present invention, the first body part may include a touch sensing part formed on an outer surface of the first body part and receiving a touch input of a user controlling the neckband terminal.

본 발명과 관련된 일 예로서, 상기 넥밴드 단말기는 상기 제1 바디부의 양단에 탈착가능하게 결합되는 제3 바디부를 더 포함하고, 상기 제3 바디부는 이미지를 출력하는 디스플레이부 및 외부환경을 이미지화하도록 형성되는 카메라를 포함할 수 있다. In one embodiment of the present invention, the neckband terminal further includes a third body part detachably coupled to both ends of the first body part, and the third body part may include a display part for outputting an image, And a camera formed thereon.

본 발명과 관련된 일 예로서, 상기 제2 바디부에 의하여 상기 제3 바디부는 사용자의 얼굴에 장착가능하도록 형성되고, 상기 제2 바디부는 사용자의 신체에 장착되었는지 여부를 감지하는 접촉감지부를 더 포함할 수 있다. In one embodiment of the present invention, the third body part is formed to be mountable to the face of the user by the second body part, and the second body part further includes a contact sensing part that senses whether or not the second body part is mounted on the user's body can do.

본 발명과 관련된 일 예로서, 상기 디스플레이부 및 상기 카메라를 제어하는 제어부를 더 포함하고, 상기 제어부는 상기 제3 바디부가 사용자의 얼굴에 장착된 경우, 이미지를 출력하도록 상기 디스플레이부를 제어할 수 있다. As an example related to the present invention, it is possible to further control the display unit and the camera, and the control unit may control the display unit to output an image when the third body unit is mounted on the face of the user .

본 발명과 관련된 일 예로서, 상기 제어부는 상기 제3 바디부가 상기 사용자의 얼굴에서 분리된 경우 계속적으로 외부환경을 촬영하도록 상기 카메라를 제어할 수 있다. As an example related to the present invention, the controller may control the camera to continuously photograph an external environment when the third body is separated from the face of the user.

본 발명과 관련된 일 예로서, 상기 제3 바디가 상기 제1 바디를 기준으로 회전가능도록 상기 제1 및 제3 바디를 결합하는 결합부를 더 포함할 수 있다. In one embodiment of the present invention, the third body may further include a coupling unit coupling the first and third bodies such that the third body is rotatable with respect to the first body.

본 발명에 따르면, 골전도 스피커를 구비하는 제2 바디부의 상태전환에 근거하여 사용자의 필요에 따라 외부소리와 함께 원하는 청각 데이터를 제공받을 수 있다. According to the present invention, desired auditory data may be provided along with an external sound according to a user's need based on a state change of a second body unit having a bone conduction speaker.

또한, 제1 바디에 탈착가능하게 형성되는 제3 바디부에 의하여 이미지를 제공하고, 보다 간편하게 외부 환경을 촬영할 수 있는바, 사용자의 손이 자유로운 상태에서 이미지획득, 데이터를 제공을 보다 용이하게 제어할 수 있다. In addition, since the image can be provided by the third body part detachably formed on the first body, and the external environment can be more easily photographed, it is possible to easily acquire images, can do.

도 1은 본 명세서에 개시된 일 실시 예에 따른 넥밴드 단말기를 나타내는 블록도.
도 2a는 본 발명의 일 실시예에 따른 제1 상태의 넥밴드형 단말기의 사시도.
도 2b는 본 발명의 일 실시예에 따른 제2 상태의 넥밴드형 단말기의 사시도.
도 3은 제1 상태의 넥밴드형 단말기를 다른 각도에서 바라본 개념도.
도 4는 사용자에게 착용된 제2 상태의 넥밴드형 단말기를 설명하기 위한 개념도.
도 5는 본 발명에 따른 번역음성을 제공하는 제어방법을 설명하기 위한 흐름도.
도 6a 및 도 6b는 서로 다른 실시예에 따른 도 5의 제어방법을 설명하기 위한 개념도.
도 7a 내지 도 7d는 골전도 출력부 및 스피커를 이용하여 청각 데이터를 출력하는 제어방법을 설명하기 위한 개념도.
도 8a 내지 도 8c는 외부장치와 무선통신하는 넥밴드 단말기의 실시예들에 따른 제어방법을 설명하기 위한 개념도.
도 9a 내지 도 9c는 실시예들에 따라 디스플레이부를 포함하는 제3 바디부가 장착 가능한 넥밴드의 구조를 설명하기 위한 사시도.
도 10은 회전가능하도록 결합된 제3 바디부를 설명하기 위한 개념도.
도 11은 일 실시예에 따라 제3 바디부를 포함하는 넥밴드 단말기의 제어방법을 설명하기 위한 흐름도.
도 12a 내지 도 12d는 다양한 실시예에 따른 넥밴드 단말기의 제어방법을 설명하기 위한 개념도.
1 is a block diagram illustrating a neckband terminal in accordance with one embodiment disclosed herein.
FIG. 2A is a perspective view of a neckband-type terminal in a first state according to an embodiment of the present invention; FIG.
FIG. 2B is a perspective view of a neckband-type terminal in a second state according to an embodiment of the present invention; FIG.
Fig. 3 is a conceptual view of a neckband-type terminal in a first state viewed from another angle; Fig.
4 is a conceptual diagram illustrating a neckband-type terminal of a second state worn by a user;
5 is a flowchart for explaining a control method for providing a translated voice according to the present invention.
6A and 6B are conceptual diagrams for explaining the control method of FIG. 5 according to different embodiments;
7A to 7D are conceptual diagrams for explaining a control method of outputting auditory data using a bone conduction output unit and a speaker.
8A to 8C are conceptual diagrams for explaining a control method according to embodiments of a neckband terminal that wirelessly communicates with an external device.
9A to 9C are perspective views illustrating a structure of a neckband to which a third body part including a display unit can be attached according to embodiments.
10 is a conceptual view for explaining a third body part coupled to be rotatable;
11 is a flowchart illustrating a control method of a neckband terminal including a third body unit according to an embodiment.
12A to 12D are conceptual diagrams for explaining a control method of a neckband terminal according to various embodiments.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. In addition, it should be noted that the attached drawings are only for easy understanding of the embodiments disclosed in the present specification, and should not be construed as limiting the technical idea disclosed in the present specification by the attached drawings.

도 1은 본 명세서에 개시된 일 실시 예에 따른 넥밴드 단말기를 나타내는 블록도이다. 본 발명에 따른 넥밴드 단말기는 제1 바디부(100), 제2 바디부(200) 및 제3 바디부(400)를 포함한다. 1 is a block diagram illustrating a neckband terminal in accordance with one embodiment disclosed herein. The neckband terminal according to the present invention includes a first body part 100, a second body part 200, and a third body part 400.

상기 제1 바디부(100)는 터치감지부(110), 스피커(120), 마이크(130), 제어부(180)를 포함하고, 제2 바디부(200)는 골전도 출력부(210)를 포함하며, 제3 바디부(400)는 디스플레이부(410) 및 카메라(420)를 구비한다. 다만, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The first body part 100 includes a touch sensing part 110, a speaker 120, a microphone 130 and a control part 180. The second body part 200 includes a bone conduction output part 210, And the third body part 400 includes a display part 410 and a camera 420. However, the components shown in FIG. 1 are not essential, so that a mobile terminal having more or fewer components may be implemented.

메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 170 may store data related to vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 170 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- And may include a storage medium of at least one type of disk and optical disk.

무선 통신부(190)는 단말기와 무선 통신 시스템 사이 또는 단말기와 단말기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(190)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치정보 모듈중 적어도 하나를 포함할 수 있다.The wireless communication unit 190 may include one or more modules for enabling wireless communication between the terminal and the wireless communication system or between the terminal and the network in which the terminal is located. For example, the wireless communication unit 190 may include at least one of a broadcast receiving module, a mobile communication module, a wireless Internet module, a short distance communication module, and a location information module.

방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (DVF-H), a Digital Video Broadcast- , Integrated Services Digital Broadcast-Terrestrial (ISDB-T), or the like. Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in a memory.

이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

상기 이동통신 모듈은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module is configured to implement a video communication mode and a voice communication mode. The video call mode refers to a state of talking while viewing a video of the other party, and the voice call mode refers to a state in which a call is made without viewing the other party's video. In order to implement the video communication mode and the voice communication mode, the mobile communication module 112 is configured to transmit and receive at least one of voice and image.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 단말기에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and may be built in or enclosed in a terminal. Examples of the wireless Internet technology include a wireless LAN (WLAN), a wireless fidelity (WiFi) direct, a DLNA (Digital Living Network Alliance), a Wibro (Wireless broadband), a Wimax (World Interoperability for Microwave Access), HSDPA Can be used.

근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.The short-range communication module is a module for short-range communication. Bluetooth ™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, NFC (Near Field Communication), etc. are used as short range communication technology .

위치정보 모듈은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The location information module is a module for acquiring the location of the mobile terminal, and representative examples thereof include a Global Position System (GPS) module or a Wireless Fidelity (WiFi) module.

마이크(130)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 130 receives an external sound signal by a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

디스플레이부(410)는 단말기에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 단말기가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(420)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 410 displays (outputs) information processed in the terminal. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. In the case where the terminal is in the video communication mode or the photographing mode, the display unit 420 displays the photographed and / or received video or UI and GUI.

디스플레이부(420)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 420 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) display, a 3D display, and an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(420)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(420)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 420 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 420 of the terminal body.

단말기의 구현 형태에 따라 디스플레이부(420)가 2개 이상 존재할 수 있다. 예를 들어, 단말기에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 420 depending on the implementation mode of the terminal. For example, the terminal may have a plurality of display portions separated from each other on one surface or may be arranged integrally with each other, or may be disposed on different surfaces, respectively.

또한, 상기 디스플레이부(420)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.In addition, the display unit 420 may be configured as a stereoscopic display unit for displaying a stereoscopic image.

터치 감지부(110)는 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensing unit 110 may be configured to convert a change in a pressure applied to a specific region or a capacitance occurring in a specific region to an electrical input signal. The touch sensor can be configured to detect not only the position and area where the touch object is touched on the touch sensor but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180.

제어부(controller, 180)는 통상적으로 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module may be implemented in the control unit 180 or separately from the control unit 180.

또한, 상기 제어부(180)는 상기 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. In addition, the control unit 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

또한, 상기 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(420)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.In addition, if the state of the mobile terminal meets a set condition, the controller 180 can execute a lock state for restricting input of a control command of the user to the applications. Also, the controller 180 may control the lock screen displayed in the locked state based on the touch input sensed through the display unit 420 in the locked state.

본 발명에 따른 단말기는 전원공급부(미도시)를 더 포함할 수 있으며, 상기 전원공급부는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The terminal according to the present invention may further include a power supply unit (not shown). The power supply unit receives external power and internal power under the control of the controller 180, Supply.

도 2a는 본 발명의 일 실시예에 따른 제1 상태의 넥밴드형 단말기의 사시도이고, 도 2b는 본 발명의 일 실시예에 따른 제2 상태의 넥밴드형 단말기의 사시도이다. 도 3은 제1 상태의 넥밴드형 단말기를 다른 각도에서 바라본 개념도이고, 도 4는 사용자에게 착용된 제2 상태의 넥밴드형 단말기를 설명하기 위한 개념도이다. FIG. 2A is a perspective view of a neckband-type terminal in a first state according to an embodiment of the present invention, and FIG. 2B is a perspective view of a neckband-type terminal in a second state according to an embodiment of the present invention. Fig. 3 is a conceptual view of a neckband-type terminal in a first state viewed from another angle, and Fig. 4 is a conceptual diagram illustrating a neckband-type terminal in a second state worn by a user.

상기 제1 바디부(100)는 곡선형으로 이루어지며, 양단이 이격되어 일 영역의 개구영역을 포함하는 개곡선 형태로 이루어 진다.The first body part 100 has a curved shape and is formed in an open curve shape including both openings in one area.

본 발명의 넥밴드형 단말기(1000)는 제1 바디부(100), 제2 바디부(300) 및 제1 및 제2 바디부를 상대이동 가능하도록 결합하는 힌지부(300)를 포함한다. 여기에서 상기 제1 상태는 상기 제1 바디부와 상기 제2 바디부가 평행하게 배치된 상태를 의미하고, 제2 상태는 제1 바디부와 제2 바디부가 힌지부(300)에 의하여 결합된 상태로 특정 각도를 이루도록 배치된 상태를 의미한다.  The neckband terminal 1000 of the present invention includes a first body 100, a second body 300, and a hinge 300 that couples the first and second body parts to be movable relative to each other. Here, the first state refers to a state in which the first body part and the second body part are arranged in parallel, and the second state refers to a state in which the first body part and the second body part are coupled by the hinge part 300 As shown in FIG.

상기 개구영역에 사용자의 목이 관통하게 되고, 상기 곡선형의 제1 바디부(100)는 사용자의 목에 걸릴 수 있는 구조로 형성된다. 상기 제1 바디부(100)가 이루는 내부영역의 둘레는 사용자의 목둘레보다 넓게 형성되는 것이 바람직하다. A user's neck is penetrated through the opening area, and the curved first body part 100 is formed in a structure that can be caught by a user's neck. The circumference of the inner region of the first body 100 may be wider than the neckline of the user.

상기 사용자의 목에 걸리는 제1 바디부(100)의 일 영역을 곡선형으로 이루어지는 것이 바람직하나 이에 한정되는 것은 아니다. 또한, 상기 제1 바디부(100)의 일 영역을 직선형태로 이루어져도 무방하다.It is preferable that one region of the first body part 100 that is hooked on the user's neck is curved, but the present invention is not limited thereto. In addition, one region of the first body 100 may be formed in a linear shape.

상기 제1 바디부(100)는 상기 제1 바디부(100)의 외주면의 일 영역에 형성되는 터치감지부(110)를 포함한다. 상기 터치감지부(110)는 상기 넥밴드형 단말기(1000)가 사용자의 목에 장착된 경우, 사용자의 손이 닿기 용이한 위치에 형성되는 것이 바람직하다. 예를 들어, 상기 터치감지부(110)는 상기 개구영역과 인접한 위치에 형성될 수 있다.The first body part 100 includes a touch sensing part 110 formed on an outer circumferential surface of the first body part 100. Preferably, the touch sensing unit 110 is formed at a position where the user's hand is easily accessible when the neckband terminal 1000 is mounted on the user's neck. For example, the touch sensing unit 110 may be formed at a position adjacent to the opening region.

도면에 구체적으로 도시되지 아니하였으나, 상기 터치감지부(110)는 복수개로 형성될 수 있다. 또는 상기 터치감지부(110)는 사용자의 편의에 따라 활성화되도록 제어될 수 있다. 예를 들어, 사용자가 왼손잡이인 경우, 상기 제1 바디부(100)의 양 단부 중 상기 사용자의 왼쪽에 가까운 상기 제1 바디부의 왼쪽단부에 인접하도록 상기 터치감지부(110)가 형성되거나, 양 단부에 인접하게 배치된 복수의 터치감지부(110) 중 하나의 터치감지부만 활성화될 수 있다. Although not specifically shown in the drawing, the touch sensing unit 110 may be formed in a plurality of units. Alternatively, the touch sensing unit 110 may be controlled to be activated according to the user's convenience. For example, when the user is left-handed, the touch sensing unit 110 may be formed so as to be adjacent to the left end of the first body unit near the left side of the user from both ends of the first body 100, Only one touch sensing portion of the plurality of touch sensing portions 110 arranged adjacent to the end portion can be activated.

상기 제1 바디부(100)는 상기 양 단부 중 적어도 하나에 인접하게 형성되는 스피커(120) 및 마이크(130)를 더 포함할 수 있다. 상기 마이크(130)는 사용자의 입과 가까운 영역에 형성되는 것이 바람직하다. 상기 스피커(120)는 공기전도방식(Air conduction)의 스피커로 이루어질 수 있다. The first body part 100 may further include a speaker 120 and a microphone 130 formed adjacent to at least one of the opposite ends. Preferably, the microphone 130 is formed in a region close to the user's mouth. The speaker 120 may be an air conduction speaker.

상기 제2 바디부(200)의 외주면의 일 영역이, 상기 제1 바디부(100)의 내주면의 일 영역에 접하도록 결합된다. 또한, 상기 제2 바디부(200)는 상기 제1 바디부(100)를 기준으로 회전운동 가능하도록 상기 제1 바디부(100)에 장착된다. One region of the outer circumferential surface of the second body 200 is coupled to one region of the inner circumferential surface of the first body 100. The second body part 200 is mounted on the first body part 100 so as to be rotatable with respect to the first body part 100.

상기 제2 바디부(200)는 양 단부가 이격되어 개구영역을 형성하는 개루프형상으로 이루어질 수 있다. 상기 제2 바디부(200)의 양 단부는 서로 가까워지는 방향으로 구부러지도록 형성되는 것이 바람직하다. 예를 들어, 상기 제2 바디부(200)의 양단부는 내부영역으로 구부러지는 곡선형으로 이루어질 수 있다. The second body part 200 may have an open loop shape with both end portions being spaced apart to form an opening area. Both end portions of the second body 200 may be bent to be close to each other. For example, both ends of the second body 200 may have a curved shape bent into an inner region.

상기 제2 바디부(200)는 탄성재질로 이루어질 수 있다. 즉, 상기 제2 바디부(200)의 양단부는 외력에 의하여 벌여졌다가 탄성에 의하여 원상복귀되도록 형성될 수 있다. 도 4를 참조하면, 상기 제1 바디부(100)는 사용자의 목과 어깨에 걸쳐지고, 상기 제2 바디부(200)는 사용자의 얼굴(목)과 밀착하도록 형성된다. 즉, 상기 제2 바디부(200)의 탄성에 의하여 상기 제2 바디부(200)의 양단은 사용자의 얼굴에 밀착한 상태로 유지될 수 있다. The second body part 200 may be made of an elastic material. That is, both end portions of the second body 200 may be formed by an external force, and may be formed to return to the original state by elasticity. Referring to FIG. 4, the first body 100 extends over the neck and shoulder of the user, and the second body 200 is formed to closely contact the face of the user. That is, both ends of the second body part 200 can be kept in close contact with the face of the user due to the elasticity of the second body part 200.

다만, 상기 제2 바디부(200)가 이루는 내부공간은 사용자의 목이 통과될 정도로 넓게 형성되는 것이 바람직하다. However, it is preferable that the inner space formed by the second body part 200 is wide enough to pass through the neck of the user.

도 3을 참조하면, 상기 제1 상태에서 상기 제2 바디부(200)의 일 영역은 상기 제1 바디부(100)의 내주면과 접하도록 배치된다. 다만, 상기 제2 바디부(200)의 양단부는 상기 제1 바디부(100)의 내주면과 이격되도록 형성되는 것이 바람직하다. 3, one region of the second body 200 is disposed in contact with the inner peripheral surface of the first body 100 in the first state. However, both ends of the second body 200 may be spaced apart from the inner surface of the first body 100.

상기 제2 바디부(200)는 상기 제2 바디부의(200)의 일 영역에 형성되는 골전도 출력부(210)를 포함한다. 여기에서 골전도 출력부(210)는 공기전도 방식(Air conduction)의 스피커와 구별된다. 상기 골전도 출력부(210)는 제2 상태에서 사용자의 골(Bone)에 음파를 진동시키는 방식으로 구현된다. 상기 골전도 출력부(210)는 입력되는 전기적인 신호를 진동신호로 변환하고, 변화된 진동신호를 사용자의 두개골(Cranialbone)이나, 턱골을 통해 직접 달팽이관으로 전달하고 청각신경을 따라 뇌로 전달되는 골전도(Bone conduction)방식을 이용한다. The second body part 200 includes a bone conduction output part 210 formed in one area of the second body part 200. Here, the bone conduction output unit 210 is distinguished from an air conduction speaker. The bone conduction output unit 210 is implemented in such a manner that a sound wave is vibrated to a bone of a user in a second state. The bone conduction output unit 210 converts an inputted electrical signal into a vibration signal and transmits the changed vibration signal to the cochlea directly through the cranial bone or the jaw bone and to the bone conduction transmitted to the brain along the auditory nerve (Bone conduction) method is used.

상기 골전도 출력부(210)는 상기 제2 상태에서 사용자의 귀측면부(측두부)에 접하도록 구현된다. 또한, 상기 제2 바디부(200)는 탄성재질로 이루어져 사용자의 움직임에도 상기 골전도 출력부(210)가 사용자의 신체에 밀착되도록 형성된다. The bone conduction output unit 210 is configured to contact the ear side portion (temporal portion) of the user in the second state. In addition, the second body 200 is made of an elastic material so that the bone conduction output unit 210 can be closely attached to the body of the user even when the user moves.

상기 제1 및 제2 바디부(100, 200)는 힌지부(300)에 의하여 결합된다. 상기 힌지부(300)는 상기 제1 및 제2 바디부(100, 200)의 중심부에 형성되는 것이 바람직하다. 도면에 구체적으로 도시되지 아니하였으나, 상기 힌지부(300)는 상기 제1 바디부(200)에 힌지홀이, 상기 제2 바디부(200)에 힌지심이 형성되어 결합된 형태로 이루어질 수 있다.The first and second body parts 100 and 200 are coupled by a hinge part 300. The hinge unit 300 may be formed at the center of the first and second body parts 100 and 200. Although not shown in the drawings, the hinge 300 may have a hinge hole in the first body 200 and a hinge core in the second body 200.

상기 제2 바디부(200)는 상기 실질적으로 중심부가 상기 제1 바디부(100)에 고정된 형태로, 상기 제1 바디부(100)가 이루는 내부공간 내에서 상기 제1 바디부(100)를 기준으로 회전가능하도록 형성된다. The second body part 200 may have a substantially central portion fixed to the first body part 100 and may be formed in the first body part 100 in the inner space defined by the first body part 100, As shown in Fig.

따라서, 사용자는 상기 제1 상태로 상기 넥밴드 단말기(1000)를 착용한 뒤, 상기 제2 바디부(200)를 회전시켜 상기 제2 바디부(200)의 양단부(골전도 출력부(210)))가 사용자의 신체에 접하도록 장착할 수 있다. Accordingly, after the user wears the neckband terminal 1000 in the first state, the user rotates the second body part 200 so that both ends of the second body part 200 (the bone conduction output part 210) ) Can be mounted on the user's body.

또한, 도면에 구체적으로 도시되지 아니하였으나, 상기 제2 바디부(200)는 상기 제1 바디부의 양단이 사용자의 신체와 접하는 지 여부를 감지하는 접촉감지부(미도시)를 더 포함할 수 있다. 상기 제어부(180)는 상기 접촉감지부에 의하여 상기 골전도 출력부(210)의 구동을 제어할 수 있다. Although not shown in the drawings, the second body part 200 may further include a contact sensing part (not shown) for sensing whether both ends of the first body part are in contact with the user's body . The control unit 180 may control the driving of the bone conduction output unit 210 by the contact sensing unit.

즉, 사용자는 상기 제2 바디부(200)의 형상 및 재질과 상기 힌지부(300)의 구조에 의하여 장착되기 전 뿐만 아니라 장착된 상태에서 상기 제1 상태 또는 제2 상태로 용이하게 변경 및 구동시킬 수 있다. That is, the user can easily change and drive the second body part 200 to the first state or the second state without being mounted by the shape and material of the second body part 200 and the structure of the hinge part 300, .

즉, 사용자는 골전도 출력부를 통하여 청각데이터를 제공받고자 하는 경우, 상기 넥밴드 단말기(1000)를 제2 상태로 전환하고, 골전도 출력부를 통한 청각데이터의 제공이 불필요한 경우, 상기 넥밴드 단말기(1000)를 제1 상태로 휴대할 수 있다. That is, when the user desires to receive auditory data through the bone conduction output unit, the neckband terminal 1000 is switched to the second state, and when it is unnecessary to provide auditory data through the bone conduction output unit, 1000) to the first state.

상기 골전도 출력부(210)를 통하여 청각 데이터를 제공받는 경우, 사용자의 귀를 막지 않고 청각 데이터를 제공할 수 있다. 즉, 사용자는 외부의 소리신호를 들으면서 골전도 출력부(210)를 통한 청각 데이터를 제공받는다. 따라서, 사용자는 원하는 경우 다양한 정보들을 동시에 제공받을 수 있다. When auditory data is provided through the bone conduction output unit 210, auditory data can be provided without blocking the user's ear. That is, the user is provided with auditory data through the bone conduction output unit 210 while listening to an external sound signal. Accordingly, the user can receive various information simultaneously if desired.

이하, 골전도 출력부(210)를 통하여 청각 데이터를 제공하는 제어방법을 구체적으로 설명한다.Hereinafter, a control method of providing auditory data through the bone conduction output unit 210 will be described in detail.

도 5는 본 발명에 따른 번역음성을 제공하는 제어방법을 설명하기 위한 흐름도이고, 도 6a 및 도 6b는 서로 다른 실시예에 따른 도 5의 제어방법을 설명하기 위한 개념도들이다.FIG. 5 is a flowchart for explaining a control method for providing a translated speech according to the present invention, and FIGS. 6A and 6B are conceptual diagrams for explaining the control method of FIG. 5 according to different embodiments.

도 5 및 도 6a를 참조하여, 서로 다른 언어로 구성되는 음성의 번역음성을 제공하는 제어방법을 설명한다. 상기 마이크(130)는 상기 제1 언어로 구성되는 사용자의 음성을 수신한다(S10). 도 6a를 참조하여, 상기 제1 언어는 한국어라고 가정하면, 사용자의 음성은 여보세요(L1)가 된다. 상기 제어부는 상기 사용자의 음성을 상기 마이크(130)을 통하여 수신하고, 상기 사용자의 음성의 언어를 분석할 수 있다. Referring to Figs. 5 and 6A, a control method for providing a translated voice of a voice composed of different languages will be described. The microphone 130 receives a voice of a user configured in the first language (S10). Referring to FIG. 6A, assuming that the first language is Korean, the voice of the user becomes the call L1. The controller receives the user's voice through the microphone 130 and analyzes the language of the user's voice.

상기 마이크는 제2 언어로 구성되는 상대방 음성(L2)를 수신한다. 예를 들어, 제2 언어는 영어에 해당될 수 있다. 상기 제어부는 상기 수신된 상대방의 음성(L2)의 언어를 분석하고, 상기 사용자의 음성(L1)의 언어와 비교할 수 있다.The microphone receives the other party's voice L2 configured in the second language. For example, the second language may correspond to English. The controller may analyze the language of the received voice of the other party (L2) and compare the voice with the language of the user's voice (L1).

상기 제어부는 상기 제1 및 제2 언어가 다를 경우, 상기 제1 언어로 번역된 제1 번역음성(T1)을 출력하도록 상기 골전도 출력부(210)를 제어한다(W30). 즉, 사용자는 귀를 통하여 상기 제2 언어로 이루어지는 상대방의 음성(L2)을 듣고 동시에 상기 골전도 출력부(210)를 통하여 출력되는 상대방 음서의 제1 번역음성(T1)을 제공받을 수 있다. If the first and second languages are different, the control unit controls the bone conduction output unit 210 to output the first translation voice T1 translated into the first language (W30). That is, the user can receive the first translated voice T1 of the counterpart voice outputted through the bone conduction output unit 210 while listening to the other party's voice L2 in the second language through the ear.

또한, 상기 제어부는 상기 사용자의 음성(L1)을 상기 제2 언어로 번역한 제2 번역음성(T2)를 상대방에게 제공할 수 있다. 즉, 상기 제어부는 사용자 및 상대방의 음성에 대한 언어가 분석되면, 사용자의 음성을 상기 마이크(130)를 통하여 수신하고, 상기 사용자의 음성을 제2 언어로 번역한 제2 번역음석(T2)를 출력하도록 상기 스피커(120)를 제어할 수 있다. In addition, the control unit may provide the second translating voice (T2) translated into the second language to the user (L1). That is, when the language of the voice of the user and the other party is analyzed, the control unit receives the voice of the user through the microphone 130, and translates the voice of the user into the second language (T2) And the speaker 120 can be controlled to output the output signal.

한편, 상기 제어부는 골전도 출력부(210)의 사용자 신체에 접촉여부를 확인 한다(S40). 상기 제어부는 상기 접촉감지부에 의하여 상기 골전도 출력부(210)가 사용자의 신체에 접촉되어 있음이 감지되면, 상기 제1 번역음성(T1)을 출력하도록 상기 골전도 출력부(210)를 제어한다(S51). Meanwhile, the control unit confirms whether or not the user's body of the bone conduction output unit 210 is contacted (S40). When the contact sensing unit senses that the bone conduction output unit 210 is in contact with the user's body, the control unit controls the bone conduction output unit 210 to output the first translation sound T1. (S51).

다만, 상기 골전도 출력부(210)가 사용자의 신체와 접촉되어 있지 아니하면, 상기 제어부는 상기 제1 번역음성(T2)를 출력하도록 상기 스피커(120)를 제어한다(S52). However, if the bone conduction output unit 210 is not in contact with the user's body, the controller controls the speaker 120 to output the first translated voice T2 at step S52.

이에 따라 사용자는 상대방과 다른 언어로 대화하는 경우, 번역된 음성을 동시에 제공받을 수 있고, 상기 번역된 음성을 제공받음과 동시에 상대방의 음성 또한 인식할 수 있으므로 보다 자연스러운 대화를 수행할 수 있다. Accordingly, when the user is conversing with another party in a different language, the translated voice can be simultaneously provided, and the voice of the other party can be recognized while receiving the translated voice, so that a more natural conversation can be performed.

도 6b를 참조하여, 다른 실시예에 따라, 골전도 스피커가 신체에 접촉하지 아니하는 경우 번역음성의 출력방법을 설명한다. 상기 제어부는 상기 골전도 스피커(210)가 신체에 접촉되어있지 아니함이 감지되면, 상대방음성의 번역음성의 출력을 제한하도록 상기 골전도 스피커(210)를 제어한다.Referring to FIG. 6B, in accordance with another embodiment, a method of outputting a translation voice when the bone conduction speaker does not contact the body will be described. The control unit controls the bone conduction speaker 210 to limit the output of the translation voice of the partner's voice when it is detected that the bone conduction speaker 210 is not in contact with the body.

또한, 상기 제어부는 상기 마이크(130)로 입력되는 사용자의 음성이 제2 언어에 해당되는 경우, 상기 사용자 음성에 대한 번역음성을 제공하지 아니한다. Also, when the user's voice input to the microphone 130 corresponds to the second language, the controller does not provide a translation voice for the user's voice.

즉, 상기 골전도 출력부(210)가 사용자의 신체에서 떨어지면, 상기 제어부는 상대방 음성의 제1 번역음성을 출력하지 아니하고, 사용자의 음성이 상대방 음성의 언어와 실질적으로 동일한 언어로 구성되는 것으로 분석되면, 사용자 음성의 제2 번역음성의 제공을 차단한다.
That is, when the bone conduction output unit 210 is separated from the body of the user, the control unit does not output the first translation voice of the other party's voice and analyzes that the user's voice is configured in a language substantially the same as the language of the other party's voice , It stops the provision of the second translated voice of the user voice.

도 7a 내지 도 7d를 참조하여, 골전도 출력부 및 스피커를 이용하여 청각 데이터를 출력하는 제어방법을 설명한다.7A to 7D, a control method of outputting auditory data using the bone conduction output unit and the speaker will be described.

도 7a를 참조하여 골전도 출력부 및 스피커 중 어느 하나로부터 청각 데이터를 제공하는 제어방법을 설명한다. 상기 제어부는 상기 골전도 스피커가 사용자의 신체에 접하는 경우. 상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어할 수 있다. Referring to FIG. 7A, a control method for providing auditory data from any one of the bone conduction output unit and the speaker will be described. Wherein the control unit contacts the bone conduction speaker with the user's body. And the bone conduction speaker can be controlled to output the auditory data.

여기에서 청각 데이터는 소리신호로 이루어지는 모든 종류의 데이터를 포함한다. 예를 들어, 재생되는 음악, 재생되는 동영상에 포함되는 소리신호, 콜이 연결된 경우 무선통신부를 통하여 수신되는 상대방의 음성 등에 해당될 수 있다. Here, the auditory data includes all kinds of data consisting of sound signals. For example, it may correspond to the music to be reproduced, a sound signal included in the moving picture to be reproduced, and a voice of the other party received through the wireless communication unit when the call is connected.

상기 제어부는 상기 골전도 출력부(210)가 상기 사용자의 신체와 접촉되지 아니함이 감지되면, 상기 청각 데이터를 출력하도록 상기 스피커를 제어한다. 즉, 사용자는 스피커를 통하여 청각 데이터를 제공받고 싶은 경우, 상기 제2 바디를 상기 제2 상태에서 제1 상태로 전환할 수 있다.The controller controls the speaker to output the auditory data when it is detected that the bone conduction output unit 210 is not in contact with the user's body. That is, the user can switch the second body from the second state to the first state when it desires to receive the auditory data through the speaker.

다른 실시예로서, 도면에 도시되지 아니하였으나, 사용자의 설정에 근거하여 상기 제어부는 상기 청각 데이터가 상기 골전도 출력부(210)를 통하여 출력되는 동안, 상기 골전도 출력부(210)와 사용자 신체 접촉이 제한되는 경우 상기 청각 데이터의 출력을 제한하도록 상기 넥밴드 단말기(1000)를 제어할 수 있다.In another embodiment, although not shown in the drawings, the control unit may control the bone conduction output unit 210 and the user's body (not shown) so that, while the auditory data is output through the bone conduction output unit 210, The neckband terminal 1000 can be controlled to limit the output of the auditory data when contact is restricted.

또한, 상기 스피커(120)에 의하여 상기 청각 데이터가 출력되는 중에 상기 제2 바디가 상기 제1 상태에서 상기 제2 상태로 전환되는 경우, 상기 제어부는 상기 스피커의 상기 청각 데이터의 출력을 제한한다. 또한, 상기 제어부는 상기 청각 데이터를 연속적으로 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. In addition, when the second body is switched from the first state to the second state while the auditory data is output by the speaker 120, the control unit limits the output of the auditory data of the speaker. In addition, the controller may control the bone conduction output unit 210 to continuously output the auditory data.

이에 따라, 사용자는 상기 제2 바디의 상태를 전환하여 청각 데이터를 제공받을 수 있다. Accordingly, the user can be provided with auditory data by switching the state of the second body.

도 7b를 참조하여 마이크를 통하여 인가되는 외부소음에 근거하여 청각 데이터를 출력하는 제어방법을 설명한다. 상기 마이크(120)는 별도의 제어명령 없이 활성화상태를 유지할 수 있다. 또는 상기 제어부는 기 설정된 주기에 따라 상기 마이크(120)가 활성화되도록 제어할 수 있다.Referring to FIG. 7B, a control method of outputting auditory data based on external noises applied through a microphone will be described. The microphone 120 can be kept in an active state without a separate control command. Alternatively, the controller may control the microphone 120 to be activated according to a predetermined period.

도 7b의 (a) 및 (b)를 참조하면, 상기 스피커(120)는 청각 데이터를 출력하고, 상기 마이크(120)는 상기 청각 데이터가 출력되는 동안, 외부 소음을 수신한다. 또한, 상기 골전도 출력부(210)가 사용자의 신체에 접촉된 제2 상태임을 가정한다. Referring to FIGS. 7A and 7B, the speaker 120 outputs auditory data, and the microphone 120 receives external noise while the auditory data is output. In addition, it is assumed that the bone conduction output unit 210 is in a second state in contact with the user's body.

상기 마이크에 의하여 상기 외부 소음이 기 설정된 음량(dB)이상으로 수신되는 경우, 상기 제어부는 상기 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어한다. 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 상기 제어부는 상기 청각 데이터를 상기 스피커(120) 및 상기 골전도 출력부(210)를 통하여 동시에 출력할 수 있다.When the external noise is received by the microphone at a predetermined volume (dB) or more, the controller controls the bone conduction output unit 210 to output the auditory data. The controller may control the speaker 120 to limit the output of the auditory data, but the present invention is not limited thereto. For example, the controller may output the auditory data through the speaker 120 and the bone conduction output unit 210 at the same time.

또한, 상기 제어부는 상기 마이크(130)를 통하여 수신된 외부소음을 근거로, 상기 골전도 출력부(210)를 통하여 상기 외부소음이 상쇄도록 변환된 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다.The controller may control the bone conduction output unit 210 to output audible data converted to cancel out the external noise through the bone conduction output unit 210 based on the external noise received through the microphone 130. [ Can be controlled.

이에 따라, 사용자는 외부소음에 의하여 청각 데이터의 제공이 방해되는 경우, 골전도 출력부를 이용하여 외부소음에 방해받지 않고 청각 데이터를 제공받을 수 있다.Accordingly, when the user is prevented from providing the auditory data due to the external noise, the user can receive the auditory data without being disturbed by the external noise using the bone conduction output unit.

도 7b의 (a) 및 (c)를 참조하면, 상기 마이크를 통하여 수신된 외부소음에 근거하여 상기 제어부는 사용자의 현재 상태를 감지할 수 있다. 여기에서 상기 현재 상태는 사용자의 주변환경, 사용자의 위치, 사용자와 대화하는 상대방 등에 해당될 수 있다.Referring to (a) and (c) of FIG. 7, the controller can detect the current state of the user based on the external noise received through the microphone. Here, the current state may correspond to a surrounding environment of a user, a location of a user, a communication party with a user, and the like.

예를 들어, 상기 마이크(130)를 통하여 정류소의 안내 음성, 지하철이 지나가는 소음 등이 입력되는 경우, 상기 제어부는 사용자의 현재 상태로 지하철에 위치함으로 분석할 수 있다.For example, when the guidance voice of the stopping point, the noise passing through the subway, and the like are inputted through the microphone 130, the control unit can analyze the current state of the user by being located in the subway.

이 경우, 상기 제어부는 상기 스피커로 출력되던 상기 청각 데이터를 상기 골전도 출력부(210)로부터 출력되도록 제어한다. 또한, 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어한다. 상기 스피커(120) 및 상기 골전도 출력부(210)의 제어는 실질적으로 동시에 실행되는 것이 바람직하다. In this case, the control unit controls the auditory data output from the speaker to be output from the bone conduction output unit 210. In addition, the control unit controls the speaker 120 to limit the output of the auditory data. It is preferable that the control of the speaker 120 and the bone conduction output unit 210 are performed substantially simultaneously.

즉, 사용자가 공공장소에 위치하거나. 상대방과의 대화 중 스피커에서 출력되는 청각 데이터가 방해되는 경우, 사용자가 별도의 제어를 하지 않고도 청각 데이터의 출력을 제한할 수 있다. 또한, 즉각적으로 골전도 스피커를 통하여 사용자에게 청각 데이터를 제공함으로 인하여 사용자는 계속적으로 청각 데이터를 제공받을 수 있다. That is, the user is located in a public place or. When the auditory data output from the speaker is interrupted during conversation with the other party, the output of the auditory data can be restricted without any user's control. In addition, since the audiovisual data is provided to the user through the bone conduction speaker immediately, the user can continuously receive the auditory data.

도 7c를 참조하여, 사용자의 음성명령을 감지하는 마이크의 제어방법을 설명한다. 상기 마이크는 상기 골전도 출력부(210) 및 상기 스피커(120) 중 적어도 하나가 활성화된 상태에서 상기 넥밴드 단말기(1000)를 제어할 수 있다. 예를 들어, 상기 스피커(120)로부터 청각 데이터가 출력되는 경우 상기 제어부는 상기 마이크(130)를 통해 인가되는 사용자의 음성명령에 근거하여 상기 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. Referring to FIG. 7C, a method of controlling a microphone for detecting a voice command of a user will be described. The microphone may control the neckband terminal 1000 in a state where at least one of the bone conduction output unit 210 and the speaker 120 is activated. For example, when auditory data is output from the speaker 120, the control unit controls the bone conduction output unit 210 to output the auditory data based on a voice command of a user applied through the microphone 130 Can be controlled.

반대로, 상기 골전도 출력부(210)를 통하여 청각 데이터가 출력되는 중 상기 마이크를 통하여 사용자의 음성명려이 인가되는 경우, 상기 청각 데이터를 출력하도록 상기 스피커(120)를 제어할 수 있다.Conversely, when the user's speech voice is input through the microphone while the auditory data is output through the bone conduction output unit 210, the speaker 120 can be controlled to output the auditory data.

다만, 상기 제어부는 상기 상기 골전도 출력부(210) 및 상기 스피커(120)가 비활성화된 상태에서도 상기 마이클 활성화시킬 수 있다. 따라서, 상기 제어부는 상기 마이크를 통하여 인가되는 사용자의 음성명령에 근거하여 상기 넥밴드 단말기를 제어할 수 있다. However, the controller may activate the microphone even when the bone conduction output unit 210 and the speaker 120 are inactivated. Therefore, the controller can control the neckband terminal based on a voice command of a user applied through the microphone.

즉, 사용자는 상기 제2 바디를 제1 및 제2 상태로 전환하거나, 터칭감지부에 사용자의 터치입력을 감지하지 아니하고도, 활성화상태를 유지하는 마이크를 통하여 넥밴드 단말기를 제어할 수 있다.That is, the user can switch the second body to the first and second states, or control the neckband terminal through the microphone that maintains the activated state, without sensing the touch input of the user on the touch sensing unit.

도 7d를 참조하여, 알림음성을 출력하는 스피커의 제어방법을 설명한다. 제1 상태에서 상기 마이크(130)는 상대방의 음성을 수신한다. 상기 제어부는 상기 상대방 음성을 구성하는 언어를 분석한다. 상기 제어부는 상기 상대방 음성의 언어가 기 설정된 언어와 다른 것으로 판단되면, 상기 안내음성을 출력하도록 상기 스피커(120)를 제어한다. Referring to FIG. 7D, a control method of a speaker for outputting a notification voice will be described. In the first state, the microphone 130 receives the voice of the other party. The control unit analyzes a language constituting the other party's voice. The control unit controls the speaker 120 to output the announcement voice if it is determined that the language of the other party's voice is different from a predetermined language.

예를 들어, 여기에서 상기 안내음성은 상기 골전도 출력부(210)의 장착을 권유하는 음성에 해당될 수 있다. 즉, 상기 제어부는 상대방의 음성이 기 설정된 언어로 번역된 번역음성이 생성되는 경우, 상기 제어부는 상기 안내음성을 출력하도록 상기 스피커(120)를 제어할 수 있다. For example, the announcement voice may correspond to a voice inviting the attachment of the bone conduction output unit 210. [ That is, the control unit may control the speaker 120 to output the announcement voice when a translation voice in which the voice of the other party is translated into a predetermined language is generated.

상기 제어부는 상기 제2 바디가 상기 제1 상태에서 상기 제2 상태로 전환되었음이 감지되면 상기 번역음성을 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다.The controller may control the bone conduction output unit 210 to output the translated voice when it is detected that the second body is switched from the first state to the second state.

이에 따라 제어부는 사용자가 원할 것으로 예상되는 데이터가 생성되는 경우 사용자에게 이를 알리며, 사용자는 보다 용이하게 원하는 정보를 제공받을 수 있다.
Accordingly, when data expected to be desired by the user is generated, the controller informs the user of the data, and the user can more easily receive desired information.

도 8a 내지 도 8c는 외부장치와 무선통신하는 넥밴드 단말기의 실시예들에 따른 제어방법을 설명하기 위한 개념도이다. 상기 제어부는 상기 외부 단말기와 무선 신호를 송신하거나 수신하도록 상기 무선 통신부(190)를 제어할 수 있다. 8A to 8C are conceptual diagrams for explaining a control method according to embodiments of a neckband terminal that wirelessly communicates with an external device. The controller may control the wireless communication unit 190 to transmit or receive a wireless signal with the external terminal.

도 8a를 참조하면, 상기 제어부는 통화모드의 외부장치(900)와 무선통신하도록 상기 무선 통신부(190)를 제어할 수 있다. 상기 제어부는 수신된 상대방의 음성을 출력하도록 상기 골전도 스피커(210)를 제어할 수 있다. 또한, 상기 제어부는 상기 마이크(130)를 통하여 수신된 사용자의 음성을 상기 외부장치(900)로 송신하도록 상기 무선 통신부(190)를 제어한다.Referring to FIG. 8A, the controller may control the wireless communication unit 190 to wirelessly communicate with an external device 900 in a call mode. The controller may control the bone conduction speaker 210 to output the voice of the other party. Also, the control unit controls the wireless communication unit 190 to transmit the user's voice received through the microphone 130 to the external device 900.

즉, 사용자는 상기 마이크(130) 및 상기 골전도 출력부(210)를 통하여 상대방과 전화통화를 수행할 수 있다. 상대방의 음성은 골전도 출력부(210)를 통하여 출력되므로, 타인에게 노출되거나 외부소음에 의하여 방해되는 문제점이 방지될 수 있다.That is, the user can perform telephone conversation with the other party through the microphone 130 and the bone conduction output unit 210. Since the voice of the other party is outputted through the bone conduction output unit 210, the problem of being exposed to others or being disturbed by external noise can be prevented.

또한, 사용자는 외부장치를 손으로 지지하지 않고도 전화통화를 수행할 수 있으므로 행동이 자유로워진다. 또한, 외부장치가 사용자로부터 멀리떨어져 있는 경우에도 보다 용이하게 외부장치를 제어할 수 있다.In addition, the user can perform a telephone conversation without supporting the external device by hand, thereby making the behavior free. Further, even when the external device is far from the user, the external device can be controlled more easily.

도 8b를 참조하면, 상기 스피커(120)는 청각 데이터를 출력하고, 상기 외부장치는 콜을 수신한다. 상기 제어부는 상기 외부장치가 콜을 수신하는 동안 콜 수신 알림음을 출력하도록 상기 골전도 출력부(210)를 제어한다. 이 경우, 상기 제어부는 상기 청각 데이터의 출력을 제한하도록 상기 스피커(120)를 제어할 수 있으나, 이에 한정되는 것은 아니다. 즉, 사용자는 콜 수신 알림음을 청각 데이터와 함께 제공받을 수 있다.Referring to FIG. 8B, the speaker 120 outputs auditory data, and the external device receives a call. The controller controls the bone conduction output unit 210 to output a call reception notification sound while the external device receives a call. In this case, the controller may control the speaker 120 to limit the output of the auditory data, but the present invention is not limited thereto. That is, the user can receive a call reception notification sound together with the auditory data.

상기 제어부는 상기 터치 감지부(110)에 인가되는 터치입력에 근거하여 상기 콜을 연결할 수 있다. 즉, 상기 제어부는 상기 터치감지부(110)에 인가되는 터치입력에 근거하여 상기 콜을 연결하는 제어신호를 상기 외부장치(900)에 송신하도록 상기 무선통신부를 제어할 수 있다. The control unit may connect the call based on a touch input to the touch sensing unit 110. [ That is, the control unit may control the wireless communication unit to transmit a control signal for connecting the call to the external device 900 based on the touch input applied to the touch sensing unit 110. [

다만, 상기 콜연결에 대한 제어신호를 생성하는 방법은 상기 터치입력에 한정되는 것은 아니다. 예를 들어, 상기 마이크(120)는 상기 콜을 수신하는 음성명령을 수신할 수 있다. However, the method of generating the control signal for the call connection is not limited to the touch input. For example, the microphone 120 may receive voice commands to receive the call.

상기 제어부는 콜이 연결되면, 상기 청각 데이터가 골전도 출력부(210)에 의하여 출력되도록 제어한다. 또한, 상기 제어부는 상기 외부장치(900)로부터 수신되는 상대방의 음성을 출력하도록 상기 스피커(120)를 제어한다. 즉, 사용자는 독립적인 음향출력부를 통하여 청각 데이터 및 상대방의 음성을 제공받을 수 있다. The controller controls the audiometric data to be output by the bone conduction output unit 210 when a call is connected. In addition, the controller controls the speaker 120 to output the sound of the other party received from the external device 900. That is, the user can receive the auditory data and the voice of the other party through the independent sound output unit.

또한, 상기 마이크(130)는 사용자의 음성을 수신하고, 상기 제어부는 상기 사용자의 음성을 상기 외부장치(900)로 송신하도록 상기 무선 통신부(190)를 제어한다. 즉, 상기 골전도 출력부(210)에 의하여 사용자에게 제공되는 청각 데이터는 상대방에게 전달되지 아니하고, 마이크(120)로 입력되는 사용자의 음성만이 외부장치(900)로 전달된다. In addition, the microphone 130 receives a voice of a user, and the control unit controls the wireless communication unit 190 to transmit the voice of the user to the external device 900. That is, the audiovisual data provided to the user by the bone conduction output unit 210 is not transmitted to the other party, and only the user's voice input to the microphone 120 is transmitted to the external device 900.

이에 따라, 사용자는 외부장치(900)에 수신된 콜을 넥밴드 단말기를 통하여 전달받고, 상기 넥밴드 단말기를 통하여 콜을 연결할 수 있다. 따라서 외부장치가 멀리있거나 외부장치가 출력하는 알림정보를 감지하지 못하는 경우에도, 넥밴드 단말기를 통하여 인식할 수 있다. Accordingly, the user can receive the call received by the external device 900 through the neckband terminal and connect the call through the neckband terminal. Therefore, even when the external device is distant or does not detect the notification information output from the external device, it can be recognized through the neckband terminal.

또한, 사용자는 상대방과의 통화와는 별도도 청각 데이터를 계속적으로 제공받을 수 있으므로, 원하는 정보를 수신하면 통화를 수행할 수 있다. In addition, since the user can continuously receive the auditory data separately from the call with the other party, the user can perform the call upon receiving the desired information.

도 8c를 참조하여, 외부장치로부터 재생되는 청각 데이터의 출력방법을 설명한다. 상기 제어부는 무선연결된 외부장치(900)로부터 재생되는 청각 데이터를 수신하도록 상기 무선 통신부(190)를 제어한다. 상기 제어부는 상기 수신된 청각 데이터를 출력하도록 상기 골전도 출력부(210)를 제어한다. A method of outputting auditory data reproduced from an external apparatus will be described with reference to FIG. The control unit controls the wireless communication unit 190 to receive auditory data reproduced from the wirelessly connected external device 900. The control unit controls the bone conduction output unit 210 to output the received auditory data.

상기 제어부는 사용자의 제어명령에 근거하여 상기 청각 데이터를 상기 골전도 출력부(210)와 상기 스피커(120)가 동시에 출력하도록 제어할 수 있다. 예를 들어, 상기 넥밴드 단말기(1000)를 착용하는 사용자와 근접하게 타인이 위치하는 경우, 사용자와 상대방은 실질적으로 동일한 청각 데이터를 제공받게 된다. The controller may control the bone conduction output unit 210 and the speaker 120 to simultaneously output the auditory data based on a user's control command. For example, when a person is located close to a user wearing the neckband terminal 1000, the user and the other party receive substantially the same audio data.

예를 들어, 복수의 사람이 외부장치(900)로부터 출력되는 동영상을 감상하는 경우, 외부장치(900)의 디스플레이부로 출력되는 이미지를 함께 보면서, 넥밴드 단말기(1000)로부터 출력되는 청각 데이터도 함께 제공받을 수 있다. For example, when a plurality of people listen to moving images output from the external device 900, the audiovisual data output from the neckband terminal 1000 may be displayed together with the images output to the display unit of the external device 900 Can be provided.

한편, 상기 제어부는 상기 청각 데이터가 상기 골전도 출력부(210)에 출력되는 동안, 상기 제2 바디가 상기 제2 상태에서 상기 제1 상태로 전환되는 경우, 상기 제어부는 상기 청각 데이터를 출력하도록 상기 스피커(120)를 제어할 수 있다. Meanwhile, when the second body is switched from the second state to the first state while the auditory data is output to the bone conduction output unit 210, the control unit may output the auditory data The speaker 120 can be controlled.

이에 따라 사용자는 외부환경에 영향을 받지 않고 골전도 출력부를 통하여 청각 데이터를 제공받고, 스피커를 통하여 청각 데이터를 타인과 공유할 수 있다.
Accordingly, the user can receive the auditory data through the bone conduction output unit without being influenced by the external environment, and can share the auditory data with the speaker through the speaker.

도 9a 내지 도 9c는 실시예들에 따라 디스플레이부를 포함하는 제3 바디부가 장착가능한 넥밴드의 구조를 설명하기 위한 사시도이다. 도 10은 회전가능하도록 결합된 제3 바디부를 설명하기 위한 개념도이다. 9A to 9C are perspective views for explaining a structure of a neckband to which a third body part including a display unit can be mounted according to embodiments. 10 is a conceptual diagram for explaining a third body part coupled to be rotatable.

도 9a 및 도 9b를 참조하면, 상기 제3 바디부(400)는 상기 제1 바디부(100)의 양 단부에 결합되다. 결합된 제1 및 제3 바디부(100, 400)는 폐루프 형상으로 형성된다. Referring to FIGS. 9A and 9B, the third body 400 is coupled to both ends of the first body 100. The combined first and third body portions 100 and 400 are formed in a closed loop shape.

상기 제3 바디부(400)는 이미지를 출력하는 디스플레이부(410) 및 외부환경을 이미지화하는 카메라(420)를 포함한다. 본 실시예에 따른 디스플레이부(410)는 사용자의 양안을 모두 가리도록 형성되고, 카메라(420)는 상기 제3 바디부(400)의 중앙부에 위치할 수 있다. 상기 제어부는 상기 제1 내지 제3 바디부(100, 200, 400)의 상태, 사용자의 제어명령(음성명령, 터치입력) 및 외부장치와의 연동관계 등에 의하여 상기 디스플레이부(410) 및 상기 카메라(420)를 제어할 수 있다. The third body part 400 includes a display part 410 for outputting an image and a camera 420 for imaging the external environment. The display unit 410 according to the present embodiment may be formed to cover both eyes of the user and the camera 420 may be positioned at the center of the third body part 400. [ The control unit controls the operation of the display unit 410 and the camera 400 according to the states of the first to third body units 100, 200 and 400, a control command (voice command, touch input) (420).

도 9b를 참조하면, 상기 제3 바디부(300)는 상기 제1 바디부(100)와 분리가능하도록 형성된다. 사용자는 상기 제1 바디부(100)를 목에 장착한 뒤 상기 제3 바디부(300)를 결합할 수 있다. 상기 제어부는 상기 제3 바디부(300)가 결합되면 이를 감지하고 상기 제3 바디부(300)를 제어할 수 있다. 상기 제2 결합부(500)는 상기 결합홈(510)에 상기 결합돌기(520)가 삽입되었는지 여부를 감지하는 결합감지부(미도시)를 더 포함할 수 있다. 예를 들어, 상기 결합감지부(미도시)는 자성변화를 감지하는 홈센서와 자석, 가압에 의하여 변형되는 스위치로 형성될 수 있다.Referring to FIG. 9B, the third body 300 is formed to be detachable from the first body 100. The user can attach the third body part 300 after attaching the first body part 100 to the neck. When the third body part 300 is coupled, the controller can sense the third body part 300 and control the third body part 300. The second coupling unit 500 may further include a coupling sensing unit (not shown) for sensing whether the coupling protrusion 520 is inserted into the coupling groove 510. For example, the coupling sensing unit (not shown) may be formed by a groove sensor for sensing a magnetic change, a magnet, and a switch that is deformed by pressing.

상기 넥밴드 단말기(1000)는 상기 제1 및 제3 바디부(100, 300)를 결합하기 위한 제2 결합부(500)를 포함한다. 상기 제2 결합부(500)는 결합홈(510) 및 결합돌기(520)로 이루어질 수 있다. The neckband terminal 1000 includes a second coupling portion 500 for coupling the first and third body portions 100 and 300. The second engaging part 500 may include a coupling groove 510 and a coupling protrusion 520.

예를 들어, 상기 제1 바디부(100)의 양단에는 상기 제3 바디부(300)가 결합하기 위한 상기 결합홈(510)이 형성되고, 상기 제3 바디부(300)의 양단에는 상기 결합홈(510)에 끼워지기 위하여, 상기 결합홈(510)의 형상에 대응되는 결합돌기(520)가 형성될 수 있다. For example, at the both ends of the first body part 100, the coupling groove 510 for coupling the third body part 300 is formed, and at both ends of the third body part 300, In order to fit into the groove 510, a coupling protrusion 520 corresponding to the shape of the coupling groove 510 may be formed.

도면에 도시되지 아니하였으나, 상기 제2 결합부(500)는 상기 제1 및 제3 바디부(100, 300)의 결합을 용이하게 하는 자석을 더 포함할 수 있다. Although not shown in the drawing, the second coupling part 500 may further include a magnet for facilitating coupling of the first and third body parts 100 and 300.

도 10을 참조하면, 상기 제3 바디부(400)는 상기 제1 바디부(100)를 기준으로 상대적으로 회전가능하도록 형성될 수 있다. 즉, 상기 제3 바디부(400)는 상기 결합돌기(520)와 인접한 영역에 형성되는 회전구조(530)를 더 포함할 수 있다. 즉, 상기 제3 바디(400)는 상기 제1 바디부(100)에 장착된 상태에서 기 설정된 각도(예를 들어, 90도)내에서 회전될 수 있다.Referring to FIG. 10, the third body part 400 may be relatively rotatable with respect to the first body part 100. That is, the third body part 400 may further include a rotation structure 530 formed in a region adjacent to the coupling protrusion 520. That is, the third body 400 may be rotated within a predetermined angle (for example, 90 degrees) in a state where the third body 400 is mounted on the first body 100.

이에 따라, 사용자는 상기 제1 및 제2 바디부(100, 200)로 이루어진 넥밴드를 사용하다가, 디스플레이부(410) 또는 카메라(420)가 필요한 경우 상기 제3 바디부(300)를 장착할 수 있다. 또한 상기 제3 바디부(300)가 장착된 상태에서 상기 제3 바디부(300)를 회전시켜 사용자의 착용감을 향상시킬 수 있다. Accordingly, the user can use the neckband made up of the first and second body parts 100 and 200 and install the third body part 300 when the display part 410 or the camera 420 is needed . Further, the third body part 300 may be rotated while the third body part 300 is mounted, thereby improving the wearer's comfort.

도 9c는 다른 실시예에 따른 제3 바디부(400')가 장착된 넥밴드 단말기(1000)를 도시한 개념도이다. 도 9c를 참조하면, 상기 제3 바디부(400')는 디스플레이부(510')와 카메라(420')를 포함한다.9C is a conceptual diagram illustrating a neckband terminal 1000 equipped with a third body part 400 'according to another embodiment. Referring to FIG. 9C, the third body part 400 'includes a display part 510' and a camera 420 '.

상기 디스플레이부(510')는 사용자의 양안을 가리지 않도록 형성된다. 즉, 상기 제3 바디부(400)의 일 영역에 기 설전된 크기로 형성되며, 사용자의 시선의 이동에 의하여 상기 디스플레이부(410')로부터 출력되는 이미지를 확인할 수 있다. 상기 디스플레이부(410')는 사용자 얼굴의 왼쪽 또는 오른쪽에 치우치도록 형성될 수 있다. The display unit 510 'is formed so as not to block the user's eyes. That is, the third body 400 has a size preliminarily set in one area of the third body part 400, and the image output from the display part 410 'can be confirmed by moving the user's line of sight. The display unit 410 'may be formed to be offset to the left or right of the user's face.

또한, 상기 카메라(420')는 상기 디스플레이부(410')와 인접하게 형성될 수 있으나, 이에 한정되는 것은 아니다. In addition, the camera 420 'may be formed adjacent to the display unit 410', but the present invention is not limited thereto.

상기에서 설명한 서로 다른 실시예에 따른 제3 바디부(400, 400')는 사용자의 얼굴에 걸쳐지도록 걸침부를 더 포함할 수 있다. The third body part 400, 400 'according to the different embodiments described above may further include a staple part to cover the face of the user.

또한, 상기 제2 바디부(200)의 형상 및 재질에 의하여 상기 제2 바디부(200)가 사용자의 두부에 고정되고, 이에 따라 상기 제3 바디부(400)는 상기 사용자의 얼굴 상에 위치하도록 고정된다. The second body part 200 is fixed to the user's head by the shape and material of the second body part 200 so that the third body part 400 is positioned on the face of the user .

또한, 상기 제2 바디부(200)가 사용자의 목에 걸쳐지면, 상기 제3 바디부(400)도 상기 제1 바디부(100)에 의하여 상기 사용자의 목에 걸쳐진다. 한편, 상기 제2 바디부(200)는 상기 제2 바디부(200)의 양단부가 사용자에 의하여 사용자의 신체(목뒤)에 접하도록 이동(상기 제2 상태)될 수 있다. Also, when the second body part 200 spans the user's neck, the third body part 400 is also spanned by the first body part 100 on the neck of the user. Meanwhile, the second body part 200 may be moved (the second state) such that both ends of the second body part 200 are in contact with the user's body (back of the neck) by the user.

즉, 상기 디스플레이부 및 상기 카메라가 구비된 제3 바디(400)가 상기 제1 바디부(100)에 장착된 상태에서도, 상기에서 설명한 제어방법이 실질적으로 동일하게 적용된다. That is, the above-described control method is substantially the same even in a state where the display body and the third body 400 equipped with the camera are mounted on the first body 100.

도 11은 일 실시예에 따라 제3 바디부를 포함하는 넥밴드 단말기의 제어방법을 설명하기 위한 흐름도이다. 도 12a 내지 도 12b는 다양한 실시예에 따른 넥밴드 단말기의 제어방법을 설명하기 위한 개념도들이다.11 is a flowchart illustrating a method of controlling a neckband terminal including a third body according to an exemplary embodiment of the present invention. 12A to 12B are conceptual diagrams for explaining a control method of a neckband terminal according to various embodiments.

도 11 및 도 12a를 참조하면, 상기 제어부는 상기 결합감지부를 통하여 상기 디스플레이부(410)가 제1 바디부(100)에 장착되었는지 확인한다(S60). Referring to FIGS. 11 and 12A, the controller determines whether the display unit 410 is mounted on the first body 100 through the coupling sensing unit (S60).

또한, 상기 제어부는 상기 접촉감지부(140)에 의하여 상기 제3 바디부(400)가 얼굴 상에 위치하는지 여부를 감지할 수 있다(S70). 상기 제어부는 사익 접촉감지부(140)에 의하여 상기 디스플레이부가 얼굴에 장착된 것으로 감지되는 경우, 상기 디스플레이부(410) 및 상기 카메라(410)를 활성화시킬 수 있다(S81). 다만, 상기 디스플레이부(410)가 얼굴 상에 위치하지 아니하는 것으로 감지되면, 상기 제어부는 상기 디스플레이부(410)를 비활성상태로 전환하고, 상기 카메라(420)를 비활성 상태로 전환할 수 있다. In addition, the controller may detect whether the third body part 400 is located on the face by the touch sensing part 140 (step S70). The control unit may activate the display unit 410 and the camera 410 when the display unit is detected as being mounted on the face by the eardrum contact sensing unit 140 in operation S81. However, if it is detected that the display unit 410 is not located on the face, the controller may switch the display unit 410 to the inactive state and switch the camera 420 to the inactive state.

다만, 이에 한정되는 것은 아니며 사용자의 설정에 따라 다르게 제어될 수 있다. 이하 설명의 편의를 위하여 상기 제2 바디부(200)에 의하여 상기 제3 바디부(400)가 사용자의 얼굴 상에 위치하는 상태를 제3 상태로 정의한다. However, the present invention is not limited thereto and can be controlled differently according to the setting of the user. For convenience of explanation, the third state is defined as a state in which the third body part 400 is positioned on the face of the user by the second body part 200.

도 12a를 참조하면, 상기 제3 상태에서 상기 골전도 출력부(210)는 청각 데이터를 출력하고, 상기 카메라(420)가 활성화될 수 있다. 상기 제3 상태에서 상기 제1 상태로 전환된 경우, 상기 디스플레이부(410)가 활성화된 상태였다면 상기 디스플레이부(410)를 비활성상태로 전환할 수 있다. 또한, 상기 제어부는 카메라(420)를 계속적으로 활성화된 상태로 유지한다. Referring to FIG. 12A, in the third state, the bone conduction output unit 210 outputs auditory data, and the camera 420 may be activated. When the third state is changed to the first state, the display unit 410 may be inactivated if the display unit 410 is activated. Also, the control unit keeps the camera 420 continuously activated.

즉, 사용자가 상기 디스플레이부(410)를 사용하지 아니하는 경우에도 상기 카메라(420)는 사용자의 전방을 촬영할 수 있다. 한편, 상기 제1 상태로 전환되면 상기 제어부는 상기 골전도 출력부의 상기 청각 데이터의 출력을 제한할 수 있다. That is, even when the user does not use the display unit 410, the camera 420 can photograph the user's front. On the other hand, when the state is switched to the first state, the controller may limit the output of the auditory data of the bone conduction outputting unit.

한편, 상기 제어부는 상기 제1 상태에서 상기 제2 상태로 전환되면, 상기 청각 데이터를 다시 출력하도록 상기 골전도 출력부(210)를 제어할 수 있다. Meanwhile, when the controller is switched from the first state to the second state, the controller may control the bone conduction output unit 210 to output the auditory data again.

도 12b를 참조하면, 상기 제어부는 상기 제1 상태에서 상기 카메라 (420)를 통하여 사용자의 외부환경을 촬영한다. 또한, 상기 제어부는 상기 제1 상태에서 상기 제3 상태로 전환되면, 상기 카메라(420)를 통하여 촬영된 이미지를 상기 디스플레이부(410)를 통하여 출력하도록 제어할 수 있다.Referring to FIG. 12B, the controller captures the user's external environment through the camera 420 in the first state. In addition, the control unit may control the display unit 410 to output an image photographed through the camera 420 when the first state is changed to the third state.

이에 따라 사용자는, 별도의 제어명령 없이 사용자의 신체에 장착된 카메라를 통하여 외부환경을 녹화할 수 있고, 디스플레이부를 얼굴에 장착하면 촬영된 이미지를 제공받을 수 있다. 따라서, 사용자가 감지하고 있지 못한 상황을 차후에 제공받을 수 있다.
Accordingly, the user can record the external environment through the camera mounted on the user's body without a separate control command, and the captured image can be provided when the display unit is mounted on the face. Therefore, a situation that the user is not sensing can be provided later.

도 12c 및 도 12d를 참조하여, 제1 상태에서 상기 카메라(420)를 제어하는 제어방법을 설명한다. 상기 제3 바디(400)가 장착된 상기 넥밴드 단말기(1000)가 제1 상태인 경우, 상기 제어부는 상기 마이크(130)를 활성화시킬 수 있다. A control method of controlling the camera 420 in the first state will be described with reference to Figs. 12C and 12D. When the neckband terminal 1000 equipped with the third body 400 is in the first state, the controller 130 can activate the microphone 130.

도 12a를 참조하면, 상기 제1 상태에서 상기 제어부는 상기 마이크(130)를 통하여 수신된 음성명령(C2)를 통하여 상기 카메라(420)를 활성화시킬 수 있다. Referring to FIG. 12A, in the first state, the controller can activate the camera 420 through a voice command (C2) received through the microphone (130).

도 12b를 참조하면, 상기 제1 상태에서 상기 제어부는 상기 터치감지부(110)에 인가되는 터치입력에 근거하여 상기 카메라(420)를 활성화시킬 수 있다. Referring to FIG. 12B, in the first state, the controller can activate the camera 420 based on a touch input applied to the touch sensing unit 110. FIG.

즉, 사용자는 상기 넥밴드 단말기(1000)의 상태를 변경시키기 아니하고도 간단한 제어명령을 이용하여 상기 카메라(420)를 제어할 수 있는바, 필요한 경우 신속하게 외부환경을 이미지화 할 수 있다. That is, the user can control the camera 420 using a simple control command without changing the state of the neckband terminal 1000, and can quickly image the external environment if necessary.

상기와 같이 설명된 넥밴드 단말기는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described neckband terminal can be applied to a configuration and a method of the embodiments described above in a limited manner, but the embodiments can be modified so that all or some of the embodiments are selectively combined .

Claims (20)

사용자의 목에 걸쳐지는 개루프 형상으로 이루어지는 제1 바디부;
상기 제1 바디부의 내주면에 형성되고, 상기 목이 관통하도록 개루프형상으로 이루어지며, 단부에 골전도 출력부가 배치되는 제2 바디부;
상기 제2 바디부가 상기 제1 바디부를 기준으로 회전운동 가능하도록 상기 제1 및 제2 바디부를 결함시키는 힌지부를 더 포함하고,
상기 골전도 출력부는, 상기 제2 바디부가 상기 제1 바디부와 목에 걸쳐지는 제1 상태에서 회전되어 상기 제2 바디부의 양단이 사용자의 신체와 접촉하는 제2 상태로 전환되면, 청각 데이터가 출력하도록 형성되는 것을 특징으로 하는 넥밴드 단말기.
A first body portion having an open loop shape extending over the neck of the user;
A second body part formed on an inner circumferential surface of the first body part, the second body part having an open-loop shape penetrating the neck and having a bone conduction output part at an end thereof;
Further comprising a hinge part for deflecting the first and second body parts so that the second body part can rotate about the first body part,
When the second body part is rotated in a first state in which the second body part spans the first body part and the neck and is switched to a second state in which both ends of the second body part are in contact with the user's body, And outputting the output of the neckband terminal.
제1항에 있어서,
상대방의 음성을 수신하는 마이크; 및
상기 상대방의 음성이 기 설정된 제1 언어와 다른 제2 언어로 구성되었는지 여부를 판단하는 제어부를 더 포함하고,
상기 제어부는 상대방의 음성을 상기 제1 언어로 번역한 제1 번역음성을 출력하도록 상기 골전도 출력부를 제어하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 1,
A microphone for receiving a voice of the other party; And
Further comprising a control unit for determining whether the voice of the other party is configured in a second language different from the predetermined first language,
Wherein the controller controls the bone conduction output unit to output a first translation voice translated into a voice of the other party in the first language.
제2항에 있어서,
상기 마이크로부터 수신된 사용자의 음성이 상기 제1 언어인 경우, 상기 사용자의 음성을 번역한 제2 번역음성을 출력하는 스피커를 더 포함하고,
상기 스피커는 상기 제1 바디의 일 영역에 형성되는 것을 특징으로 하는 넥밴드 단말기.
3. The method of claim 2,
Further comprising a speaker for outputting a second translated voice obtained by translating the voice of the user when the voice of the user received from the microphone is the first language,
Wherein the speaker is formed in one area of the first body.
제3항에 있어서,
상기 제어부는 상기 마이크로 수신된 사용자의 음성이 상기 제2 언어에 해당되는 경우, 상기 스피커의 구동을 제한하는 것을 특징으로 하는 넥밴드 단말기.
The method of claim 3,
Wherein the control unit limits the driving of the speaker when the micro-received voice of the user corresponds to the second language.
제2항에 있어서,
상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 마이크에 의하여 상기 제2 언어의 상대방 음성이 감지되면, 상기 제2 상태로 전환하라는 안내음성을 출력하도록 형성되는 스피커를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
3. The method of claim 2,
And a speaker formed on the first body part and configured to output a guidance voice to switch to the second state when the microphone of the second language is detected by the microphone in the first state .
제1항에 있어서,
상기 골전도 출력부가 사용자의 신체의 접촉여부를 감지하는 접촉감지부; 및
상기 골전도 출력부가 사용자의 신체에 접하도록 배치되는 상기 제2 상태인 경우, 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 1,
A contact sensing unit for sensing whether the bone conduction output unit contacts the user's body; And
Further comprising a control unit for controlling the bone conduction output unit to output the auditory data when the bone conduction output unit is in the second state in which the bone conduction output unit is disposed in contact with the user's body.
제6항에 있어서,
상기 제1 바디부에 형성되고, 상기 제1 상태에서 상기 청각 데이터가 출력되고 있는 경우, 상기 제2 상태로 전환되면 상기 청각 데이터를 출력하도록 형성되는 스피커를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 6,
Further comprising a speaker formed on the first body part and configured to output the auditory data when the auditory data is output in the first state when the second state is switched to the second state, .
제7항에 있어서,
상기 제2 상태에서 상기 스피커로 상기 청각 데이터가 출력되는 경우, 외부소음을 수신하도록 활성화되는 마이크를 더 포함하고,
상기 외부소음에 근거하여, 상기 스피커의 구동을 제한하고 상기 청각 데이터를 출력하도록 상기 골전도 출력부를 활성화시키는 것을 특징으로 하는 넥밴드 단말기.
8. The method of claim 7,
Further comprising a microphone activated to receive external noise when the auditory data is output from the second state to the speaker,
And activates the bone conduction output unit to limit the driving of the speaker and output the auditory data based on the external noise.
제8항에 있어서,
상기 외부소음은 기 설정된 기준음량 이상의 음량을 갖거나, 기 설정된 외부환경에 대응되는 소리신호에 해당되는 것을 특징으로 하는 넥밴드 단말기.
9. The method of claim 8,
Wherein the external noise has a volume equal to or greater than a preset reference volume or corresponds to a sound signal corresponding to a preset external environment.
제8항에 있어서,
상기 제어부는 상기 제2 상태에서 상기 골전도 이어폰 및 상기 스피커를 제어하는 음성명령을 수신하도록 상기 마이크를 제어하는 것을 특징으로 하는 넥밴드 단말기.
9. The method of claim 8,
Wherein the control unit controls the microphone to receive a voice command for controlling the bone conduction earphone and the speaker in the second state.
제1항에 있어서,
외부 단말기와 무선신호를 송신하거나 수신하도록 형성되는 무선통신부; 및
상기 외부 단말기로부터 출력되는 청각 데이터를 출력하도록 상기 골전도 출력부를 제어하는 제어부를 더 포함하는 넥밴드 단말기.
The method according to claim 1,
A wireless communication unit configured to transmit or receive a wireless signal with an external terminal; And
And a controller for controlling the bone conduction output unit to output auditory data output from the external terminal.
제11항에 있어서,
상기 외부 단말기에 콜 신호가 수신되면, 상기 제어부는 상기 콜 신호를 알리는 알림음을 출력하도록 상기 골전도 출력부를 제어하는 것을 특징으로 하는 넥밴드 단말기.
12. The method of claim 11,
Wherein the control unit controls the bone conduction output unit to output a notification sound informing the call signal when a call signal is received at the external terminal.
제12항에 있어서,
상기 콜이 연결되면 상대방의 음성을 출력하는 스피커를 더 포함하고,
상기 청각 데이터를 출력하도록 상기 골전도 스피커를 제어하는 것을 특징으로 하는 넥밴드 단말기.
13. The method of claim 12,
And a speaker for outputting a voice of the other party when the call is connected,
And controls the bone conduction speaker to output the auditory data.
제1항에 있어서,
상기 청각 데이터를 출력하는 스피커를 더 포함하고,
상기 스피커와 상기 골전도 출력부는 함께 상기 청각 데이터를 출력하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 1,
And a speaker for outputting the auditory data,
Wherein the speaker and the bone conduction output unit together output the auditory data.
제1항에 있어서,
상기 제1 바디부는 상기 제1 바디부의 외면에 형성되고 상기 넥밴드 단말기를 제어하는 사용자의 터치입력을 수신하는 터치감지부를 포함하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 1,
Wherein the first body part comprises a touch sensing part formed on an outer surface of the first body part and receiving a touch input of a user controlling the neckband terminal.
제1항에 있어서,
상기 제1 바디부의 양단에 탈착가능하게 결합되는 제3 바디부를 더 포함하고, 상기 제3 바디부는,
이미지를 출력하는 디스플레이부;
외부환경을 이미지화하도록 형성되는 카메라를 포함하고,
상기 제1 바디부는 상기 디스플레이부 및 상기 카메라의 기능을 제어하는 제어부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
The method according to claim 1,
And a third body part detachably coupled to both ends of the first body part,
A display unit for outputting an image;
A camera configured to image the external environment,
Wherein the first body part further comprises a controller for controlling functions of the display part and the camera.
제16항에 있어서,
상기 제2 바디부에 의하여 상기 제3 바디부는 사용자의 얼굴에 장착가능하도록 형성되고,
상기 제2 바디부는 사용자의 신체에 장착되었는지 여부를 감지하는 접촉감지부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
17. The method of claim 16,
The third body part is formed to be attachable to the user's face by the second body part,
Wherein the second body part further comprises a contact sensing part for sensing whether the second body part is mounted on the user's body.
제17항에 있어서,
상기 디스플레이부 및 상기 카메라를 제어하는 제어부를 더 포함하고,
상기 제어부는 상기 제3 바디부가 사용자의 얼굴에 장착된 경우, 이미지를 출력하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 넥밴드 단말기.
18. The method of claim 17,
Further comprising a control unit for controlling the display unit and the camera,
Wherein the control unit controls the display unit to output an image when the third body unit is mounted on the face of the user.
제17항에 있어서,
상기 제어부는 상기 제3 바디부가 상기 사용자의 얼굴에서 분리된 경우 계속적으로 외부환경을 촬영하도록 상기 카메라를 제어하는 것을 특징으로 하는 넥밴드 단말기.
18. The method of claim 17,
Wherein the controller controls the camera to continuously photograph an external environment when the third body is separated from the face of the user.
제16항에 있어서,
상기 제3 바디가 상기 제1 바디를 기준으로 회전가능도록 상기 제1 및 제3 바디를 결합하는 결합부를 더 포함하는 것을 특징으로 하는 넥밴드 단말기.
17. The method of claim 16,
Further comprising a coupling unit coupling the first and third bodies such that the third body is rotatable with respect to the first body.
KR1020140000850A 2014-01-03 2014-01-03 Neck badn type terminal mobile KR20150081157A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140000850A KR20150081157A (en) 2014-01-03 2014-01-03 Neck badn type terminal mobile
PCT/KR2014/001068 WO2015102148A1 (en) 2014-01-03 2014-02-07 Neck band-type terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140000850A KR20150081157A (en) 2014-01-03 2014-01-03 Neck badn type terminal mobile

Publications (1)

Publication Number Publication Date
KR20150081157A true KR20150081157A (en) 2015-07-13

Family

ID=53493485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140000850A KR20150081157A (en) 2014-01-03 2014-01-03 Neck badn type terminal mobile

Country Status (2)

Country Link
KR (1) KR20150081157A (en)
WO (1) WO2015102148A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018185606A1 (en) * 2017-04-03 2018-10-11 Cochlear Limited Wearable band for facilitating hearing
KR102087827B1 (en) * 2019-03-25 2020-03-10 윤정순 Multi-headset Apparatus for Combined with the Function of Simultaneous Translation and Interpretation
KR20200080529A (en) * 2018-12-27 2020-07-07 엘지디스플레이 주식회사 Neck band type flexible display device
KR102223626B1 (en) * 2019-11-05 2021-03-05 태경전자주식회사 Earmike
WO2021080362A1 (en) * 2019-10-25 2021-04-29 주식회사 이엠텍 Language processing system using earset
KR20210049369A (en) * 2019-10-25 2021-05-06 주식회사 이엠텍 Translation system using ear set
KR20210068300A (en) * 2019-11-29 2021-06-09 주식회사 이엠텍 Translation system using sound vibration sensor
US11425487B2 (en) 2019-11-29 2022-08-23 Em-Tech Co., Ltd. Translation system using sound vibration microphone

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022757A (en) * 2019-07-24 2021-02-18 株式会社Jvcケンウッド Neckband type speaker

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080009602A (en) * 2006-07-24 2008-01-29 엘지전자 주식회사 Bone conduction audio transmitting-receiving apparatus and method thereof
US8498425B2 (en) * 2008-08-13 2013-07-30 Onvocal Inc Wearable headset with self-contained vocal feedback and vocal command
KR101589433B1 (en) * 2009-03-11 2016-01-28 삼성전자주식회사 Simultaneous Interpretation System
KR20130071419A (en) * 2010-03-10 2013-06-28 토마스 엠. 리카드 Communication eyewear assembly
JP2013239767A (en) * 2012-05-11 2013-11-28 Nikon Corp Head-mounted type information input/output device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018185606A1 (en) * 2017-04-03 2018-10-11 Cochlear Limited Wearable band for facilitating hearing
US10284973B2 (en) 2017-04-03 2019-05-07 Cochlear Limited Wearable band for facilitating hearing
KR20200080529A (en) * 2018-12-27 2020-07-07 엘지디스플레이 주식회사 Neck band type flexible display device
KR102087827B1 (en) * 2019-03-25 2020-03-10 윤정순 Multi-headset Apparatus for Combined with the Function of Simultaneous Translation and Interpretation
WO2021080362A1 (en) * 2019-10-25 2021-04-29 주식회사 이엠텍 Language processing system using earset
KR20210049369A (en) * 2019-10-25 2021-05-06 주식회사 이엠텍 Translation system using ear set
KR102223626B1 (en) * 2019-11-05 2021-03-05 태경전자주식회사 Earmike
KR20210068300A (en) * 2019-11-29 2021-06-09 주식회사 이엠텍 Translation system using sound vibration sensor
US11425487B2 (en) 2019-11-29 2022-08-23 Em-Tech Co., Ltd. Translation system using sound vibration microphone

Also Published As

Publication number Publication date
WO2015102148A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
KR20150081157A (en) Neck badn type terminal mobile
US10217475B2 (en) Headset and method for controlling same
US10459236B2 (en) Head-mounted display device with earbud holder
US20150119106A1 (en) Eyeglass-attached video display based on wireless transmission from a cell phone
KR101609950B1 (en) Wireless audible apparatus
CN107493500B (en) Multimedia resource playing method and device
KR102135370B1 (en) Mobile terminal and method for controlling the same
KR20150093504A (en) Mobile terminal and method for controlling the same
KR20190017166A (en) Mobile terminal
KR20180033185A (en) Earset and its control method
KR20150032011A (en) Electronic device and control method thereof
KR20130071419A (en) Communication eyewear assembly
KR20150091608A (en) Mobile terminal and method for controlling the same
CN114513571A (en) Device connection method and device, electronic device and readable storage medium
KR101792507B1 (en) Earphone and mobile terminal comprising the same
KR20160070529A (en) Wearable device
CN115868232A (en) Sub-band configuration method and device
KR101643861B1 (en) Mobile terminal and method for controlling the same
CN106598175B (en) Mobile terminal
KR20160053691A (en) Mobile terminal and method for controlling the same
KR20170025231A (en) Mobile terminal and method for controlling the same
KR101432588B1 (en) Portable terminal
KR20150125264A (en) Mobile terminal and method for controlling the same
KR20160043426A (en) Mobile terminal and method for controlling the same
KR20150135846A (en) Mobile terminal and headset

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application