KR102645453B1 - Camera Device with Projector - Google Patents

Camera Device with Projector Download PDF

Info

Publication number
KR102645453B1
KR102645453B1 KR1020180106254A KR20180106254A KR102645453B1 KR 102645453 B1 KR102645453 B1 KR 102645453B1 KR 1020180106254 A KR1020180106254 A KR 1020180106254A KR 20180106254 A KR20180106254 A KR 20180106254A KR 102645453 B1 KR102645453 B1 KR 102645453B1
Authority
KR
South Korea
Prior art keywords
baby
designated
module
unit
projector
Prior art date
Application number
KR1020180106254A
Other languages
Korean (ko)
Other versions
KR20200028527A (en
Inventor
김재형
이경재
권봉기
Original Assignee
주식회사 아이앤나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이앤나 filed Critical 주식회사 아이앤나
Priority to KR1020180106254A priority Critical patent/KR102645453B1/en
Publication of KR20200028527A publication Critical patent/KR20200028527A/en
Application granted granted Critical
Publication of KR102645453B1 publication Critical patent/KR102645453B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/32Details specially adapted for motion-picture projection
    • G03B21/321Holders for films, e.g. reels, cassettes, spindles
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0208Combination with audio or video communication, e.g. combination with "baby phone" function
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명의 프로젝터가 구비된 카메라 장치에 따르면, 지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 카메라장치에 있어서, 상기 거점 내의 아기를 촬영한 영상 신호를 획득하는 카메라모듈과 상기 카메라모듈의 촬영 방향을 상/하/좌/우 지정된 방향으로 지정된 각도 범위 내로 구동하는 구동모듈과 지정된 통신망을 통해 지정된 운영서버와 통신하는 통신모듈과 램프를 통해 투영되는 하나 이상의 동영상을 저장하는 동영상 저장부를 포함하며, 제어모듈의 제어에 따라 램프를 이용하여 지정된 동영상을 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터부 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버로 전송하는 기능을 수행하고, 상기 통신모듈을 통해 지정된 운영서버로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부의 지정된 프로젝터 동작을 제어하는 기능을 수행하는 제어모듈을 포함하며, 상기 프로젝터 동작은, 상기 램프의 온/오프 동작과, 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 하는 것을 특징으로 하며, 상기 제어모듈은, 상기 카메라모듈을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 시도하고, 상기 객체 영역이 인식되지 않는 경우 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복하는 기능을 수행하고, 상기 객체 영역이 인식된 경우 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행한다.According to the camera device equipped with a projector of the present invention, in the camera device provided in the designated base to photograph the baby present in the designated base, the camera module includes a camera module that acquires an image signal of a baby in the base, and the camera module A driving module that drives the shooting direction within a specified angle range in a specified direction up/down/left/right, a communication module that communicates with a specified operation server through a specified communication network, and a video storage unit that stores one or more videos projected through a lamp. It includes a projector unit that selectively projects a designated video onto the ceiling or wall within the base using a lamp under the control of a control module, and video data that encodes the video signal acquired through the camera module in a designated manner. Performs the function of generating data and transmitting it to a designated operation server through the communication module, and performs the function of controlling the operation of the designated projector of the projector unit based on projector control information received from the designated operation server through the communication module. It includes a control module, wherein the projector operation includes turning on/off the lamp and selecting and projecting one video from among a plurality of videos stored in the video storage unit. The control module includes: A process is attempted to recognize the object area corresponding to the baby (or the baby's face) or the cradle or blanket on which the baby is lying by reading the video data acquired through the camera module, and if the object area is not recognized, the The process of recognizing the object area while moving the camera module in a designated direction by a specified angle range through the drive module is carried out until recognition of the object area is successful or the spaced angle range reaches the entire angle range. Performs a repeating function, tracks the movement or movement of the baby's facial area when the object area is recognized, and captures the camera module to be within a specified area on the video data in response to the movement or movement of the baby's facial area. It performs the function of controlling direction.

Description

프로젝터가 구비된 카메라 장치{Camera Device with Projector}Camera device with projector

본 발명은 지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 프로젝터가 구비된 카메라장치에 관한 것으로, 상기 거점 내의 아기를 촬영한 영상 신호를 획득하는 카메라모듈과, 지정된 통신망을 통해 지정된 운영서버와 통신하는 통신모듈과, 제어모듈의 제어에 따라 램프를 이용하여 지정된 형상, 영상, 동영상 중 어느 하나를 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터부와, 상기 카메라모듈을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버로 전송하는 기능을 수행하고, 상기 통신모듈을 통해 지정된 운영서버로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부의 지정된 프로젝터 동작을 제어하는 기능을 수행하는 제어모듈을 포함한다.The present invention relates to a camera device equipped with a projector provided in a designated base for filming a baby existing in the base, a camera module that acquires an image signal of a baby in the base, and a designated operation through a designated communication network. A communication module that communicates with the server, a projector unit that selectively projects any one of a designated shape, image, or video onto the ceiling or wall within the base using a lamp under the control of the control module, and an image acquired through the camera module Performs the function of generating acquisition data including video data encoded in a designated manner and transmitting it to a designated operation server through the communication module, based on projector control information received from the designated operation server through the communication module. It includes a control module that performs a function of controlling the operation of a designated projector of the projector unit.

종래에 다수개의 웹 PC 카메라가 설치된 병원 또는 조산원 또는 산후 조리원에서 회원으로 가입된 아기의 동영상이나 정지 화상 및 신생아 정보(예컨대, 태몽, 초음파 진단 사진 등)를 인터넷을 통해 회원에게 제공하는 서비스가 제안된 바 있다(특허공개번호 특2001-0091236(2001년10월23일)).In the past, hospitals, midwifery centers, or postpartum care centers equipped with multiple web PC cameras provide a service that provides members with video or still images of babies and newborn information (e.g., fetal dreams, ultrasound diagnosis photos, etc.) via the Internet. (Patent Publication No. 2001-0091236 (October 23, 2001)).

그러나 종래의 서비스는 단순히 아기의 동영상이나 정지 화상 및 신생아 정보를 인터넷을 통해 제공하는 것으로, 아기의 동영상을 확인할 수는 있으나, 아기가 우는 경우에는 직접 또는 다른 사람에게 연락하여 아기가 있는 곳으로 가도록 하는 방법 밖에 없었다.However, the conventional service simply provides video or still images of the baby and newborn information through the Internet. You can check the video of the baby, but if the baby cries, you can go to the place where the baby is by contacting someone directly or by contacting someone else. There was no other way than to do it.

최근 사용자의 음성을 인식하여 상기 인식된 음성에 대응하는 서비스를 제공하는 거치형 사운드장치가 판매되고 있다. 예를들어, 아마존사의 '에코', SK텔레콤사의 '누구', KT사의 '기가지니' 등의 거치형 사운드장치가 판매되고 있다.Recently, a stationary sound device that recognizes the user's voice and provides a service corresponding to the recognized voice has been sold. For example, stationary sound devices such as Amazon's 'Echo', SK Telecom's 'NUGU', and KT's 'Giga Genie' are being sold.

그러나 종래의 거치형 사운드장치는 음원 서비스와 음성인식 기술을 결합한 것으로서, 단순히 사용자가 원하는 음원을 음성인식을 통해 제공하거나 재생하는 서비스 위주로 동작하고 있으며, 그 외에 다른 분야에는 사용되기 난해한 문제점을 지니고 있다.However, the conventional stationary sound device combines sound source service and voice recognition technology, and operates mainly as a service that simply provides or reproduces the sound source desired by the user through voice recognition, and has problems that make it difficult to use in other fields.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 카메라장치에 있어서, 상기 거점 내의 아기를 촬영한 영상 신호를 획득하는 카메라모듈과 상기 카메라모듈의 촬영 방향을 상/하/좌/우 지정된 방향으로 지정된 각도 범위 내로 구동하는 구동모듈과 지정된 통신망을 통해 지정된 운영서버와 통신하는 통신모듈과 램프를 통해 투영되는 하나 이상의 동영상을 저장하는 동영상 저장부를 포함하며, 제어모듈의 제어에 따라 램프를 이용하여 지정된 동영상을 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터부 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버로 전송하는 기능을 수행하고, 상기 통신모듈을 통해 지정된 운영서버로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부의 지정된 프로젝터 동작을 제어하는 기능을 수행하는 제어모듈을 포함하며, 상기 프로젝터 동작은, 상기 램프의 온/오프 동작과, 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 하는 것을 특징으로 하며, 상기 제어모듈은, 상기 카메라모듈을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 시도하고, 상기 객체 영역이 인식되지 않는 경우 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복하는 기능을 수행하고, 상기 객체 영역이 인식된 경우 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 프로젝터가 구비된 카메라 장치를 제공함에 있다.The purpose of the present invention to solve the above problems is to provide a camera device provided in a designated base for photographing a baby existing in a designated base, including a camera module for acquiring an image signal of a baby in the base, and A driving module that drives the shooting direction of the camera module within a specified angle range in the specified direction up/down/left/right, a communication module that communicates with a specified operation server through a specified communication network, and a video that stores one or more videos projected through a lamp. It includes a storage unit, a projector unit that selectively projects a designated video onto the ceiling or wall within the base using a lamp under the control of a control module, and video data encoded in a designated manner from the video signal acquired through the camera module. A function of generating acquired data and transmitting it to a designated operation server through the communication module, and controlling a designated projector operation of the projector unit based on projector control information received from the designated operation server through the communication module. It includes a control module that performs operation, wherein the projector operation is characterized by turning on/off the lamp and selecting and projecting one video from among a plurality of videos stored in the video storage unit, and the control module , an attempt is made to read the video data acquired through the camera module to recognize the object area corresponding to the baby (or the baby's face) or the cradle or blanket on which the baby is lying, and if the object area is not recognized, In the case of the process of recognizing the object area while spacing the shooting direction of the camera module by a specified angle range in a designated direction through the drive module, the recognition of the object area is successful or the spaced angle range reaches the entire angle range. The camera module performs a function that repeats until the object area is recognized, tracks the movement or movement of the baby's face area, and responds to the movement or movement of the baby's face area so that it exists within a designated area on the video data. The aim is to provide a camera device equipped with a projector that performs the function of controlling the shooting direction.

본 발명에 따른 프로젝터가 구비된 카메라 장치는, 지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 카메라장치에 있어서, 상기 거점 내의 아기를 촬영한 영상 신호를 획득하는 카메라모듈과 상기 카메라모듈의 촬영 방향을 상/하/좌/우 지정된 방향으로 지정된 각도 범위 내로 구동하는 구동모듈과 지정된 통신망을 통해 지정된 운영서버와 통신하는 통신모듈과 램프를 통해 투영되는 하나 이상의 동영상을 저장하는 동영상 저장부를 포함하며, 제어모듈의 제어에 따라 램프를 이용하여 지정된 동영상을 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터부 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버로 전송하는 기능을 수행하고, 상기 통신모듈을 통해 지정된 운영서버로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부의 지정된 프로젝터 동작을 제어하는 기능을 수행하는 제어모듈을 포함하며, 상기 프로젝터 동작은, 상기 램프의 온/오프 동작과, 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 하는 것을 특징으로 하며, 상기 제어모듈은, 상기 카메라모듈을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 시도하고, 상기 객체 영역이 인식되지 않는 경우 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복하는 기능을 수행하고, 상기 객체 영역이 인식된 경우 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 한다.A camera device equipped with a projector according to the present invention is a camera device provided within a designated base for photographing a baby present at the designated base, and includes a camera module for acquiring an image signal of a baby within the base, and the camera module. A driving module that drives the shooting direction within a specified angle range in a specified direction up/down/left/right, a communication module that communicates with a specified operation server through a specified communication network, and a video storage unit that stores one or more videos projected through a lamp. It includes a projector unit that selectively projects a designated video onto the ceiling or wall within the base using a lamp under the control of a control module, and video data that encodes the video signal acquired through the camera module in a designated manner. Performs the function of generating data and transmitting it to a designated operation server through the communication module, and performs the function of controlling the operation of the designated projector of the projector unit based on projector control information received from the designated operation server through the communication module. It includes a control module, wherein the projector operation includes turning on/off the lamp and selecting and projecting one video from among a plurality of videos stored in the video storage unit. The control module includes: A process is attempted to recognize the object area corresponding to the baby (or the baby's face) or the cradle or blanket on which the baby is lying by reading the video data acquired through the camera module, and if the object area is not recognized, the The process of recognizing the object area while moving the camera module in a designated direction by a specified angle range through the drive module is carried out until recognition of the object area is successful or the spaced angle range reaches the entire angle range. Performs a repeating function, tracks the movement or movement of the baby's facial area when the object area is recognized, and captures the camera module to be within a specified area on the video data in response to the movement or movement of the baby's facial area. It is characterized by performing a function of controlling direction.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 카메라모듈은, 피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부와 상기 렌즈부를 통해 입력되는 광신호를 검지하여 영상 신호로 변환하는 이미지 센서부와 상기 이미지 센서부를 통해 생성된 영상 신호를 상기 제어모듈로 제공하기 위한 인터페이스부를 포함하여 이루어지는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the camera module includes one or more lens units that receive optical signals reflected from a subject and an image sensor that detects the optical signals input through the lens units and converts them into image signals. It is characterized by comprising an interface unit for providing an image signal generated through the unit and the image sensor unit to the control module.

삭제delete

삭제delete

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 카메라모듈은, 상기 렌즈부와 이미지 센서부 사이에서 야간에도 아기를 촬영하기 위한 적외선 필터부를 더 포함하여 이루어지는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the camera module further includes an infrared filter unit for photographing the baby even at night between the lens unit and the image sensor unit.

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 통신모듈은, 유선 케이블을 통해 통신망 연결하는 유선 통신모듈, 무선랜을 통해 통신망 연결하는 무선랜 통신모듈 중 적어도 하나의 통신모듈을 포함하여 이루어지는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the communication module includes at least one communication module among a wired communication module that connects to a communication network through a wired cable and a wireless LAN communication module that connects to a communication network through a wireless LAN. It is characterized by

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 거점 내의 소리를 입력받은 사운드 신호를 획득하는 사운드 입력부를 더 포함하고, 상기 획득 데이터는, 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정 방식으로 엔코딩한 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, it further includes a sound input unit for acquiring a sound signal that receives sound within the base, and the acquisition data is configured to input the sound signal obtained through the sound input unit in a designated manner. It is characterized by further including encoded audio data.

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 지정된 오디오 데이터를 디코딩한 사운드 신호를 지정된 신호 출력 강도로 출력하는 사운드 출력부를 더 포함하고, 상기 제어모듈은, 기 설정된 규칙에 따라 지정된 저장영역에 저장된 오디오 데이터를 추출하거나 상기 통신모듈을 통해 지정된 운영서버로부터 오디오 데이터를 수신하거나, 상기 통신모듈을 통해 지정된 무선단말로부터 오디오 데이터를 수신하고, 상기 오디오 데이터를 디코딩하여 상기 사운드 출력부를 통해 출력하는 기능을 수행하는 것을 특징으로 한다.The camera device equipped with a projector according to the present invention further includes a sound output unit that outputs a sound signal decoded from designated audio data at a designated signal output intensity, and the control module stores the sound signal in a designated storage area according to a preset rule. A function to extract stored audio data, receive audio data from a designated operation server through the communication module, or receive audio data from a designated wireless terminal through the communication module, decode the audio data, and output it through the sound output unit. It is characterized by performing.

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 신호 출력 강도는, 상기 카메라장치의 위치에서 상기 카메라모듈을 통해 촬영하는 거점 내의 아기 위치까지 상기 출력되는 사운드 신호를 지정된 신호 수신 강도 범위로 도달하게 계산된 신호 강도를 포함하여 이루어지는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the signal output intensity reaches a specified signal reception intensity range for the output sound signal from the position of the camera device to the baby's position within the shooting point through the camera module. It is characterized in that it includes a signal strength calculated in detail.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 제어모듈은,상기 카메라모듈을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버로부터 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the control module determines the shooting direction of the camera module through the drive module from an operation server that receives acquisition data including video data acquired through the camera module. It is characterized in that it receives shooting direction control information spaced apart from a specified angle range in a specified direction and performs a function of controlling the shooting direction of the camera module through the driving module based on the shooting direction control information.

본 발명에 따른 프로젝터가 구비된 카메라 장치에 있어서, 상기 제어모듈은, 상기 카메라모듈을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버로부터 상기 구동모듈을 통해 상기 비디오 데이터 상의 지정된 영역 내에 아기 안면 영역이 존재하도록 상기 카메라모듈의 촬영 방향을 제어하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 한다.In the camera device equipped with a projector according to the present invention, the control module receives acquired data including video data acquired through the camera module from an operation server to a designated area on the video data through the driving module. Receiving shooting direction control information that controls the shooting direction of the camera module so that the baby's face area exists, and performing a function of controlling the shooting direction of the camera module through the drive module based on the shooting direction control information It is characterized by

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따르면, 지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 프로젝터가 구비된 카메라장치를 통해 원거리에서 아기가 우는지 확인할 수 있으며, 아기가 우는 경우 상기 카메라장치에 구비된 프로젝터를 통해 다양한 형상, 영상, 동영상 등을 아기가 볼 수 있도록 하여 아기의 울음을 그치도록 하는 이점이 있다.According to the present invention, in order to photograph a baby existing at a designated base, it is possible to check whether the baby is crying from a distance through a camera device equipped with a projector provided within the base, and when the baby cries, the baby is cried through a projector provided in the camera device. There is an advantage in helping the baby stop crying by allowing the baby to see various images, images, etc.

도 1은 본 발명의 실시 방법에 따른 프로젝터가 구비된 카메라장치를 이용하여 우는 아기를 달래는 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 운영서버와 통신하는 프로젝터가 구비된 카메라장치의 기능 구성을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 운영서버와 통신하는 보호자 무선단말과 앱의 기능 구성을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 아기 울음소리를 인식하여 아기 울음상태를 확인하는 과정을 도시한 도면이다.
도 5는 본 발명의 실시 방법에 따른 프로젝터가 구비된 카메라장치를 통해 시각적 대응 조치 및 청각적 대응 조치를 실행하여 우는 아기를 달래는 과정을 도시한 도면이다.
Figure 1 is a diagram showing the configuration of a system for soothing a crying baby using a camera device equipped with a projector according to an implementation method of the present invention.
Figure 2 is a diagram showing the functional configuration of a camera device equipped with a projector that communicates with an operating server according to an implementation method of the present invention.
Figure 3 is a diagram showing the functional configuration of the guardian's wireless terminal and app that communicate with the operating server according to the implementation method of the present invention.
Figure 4 is a diagram illustrating the process of recognizing the baby's crying sound and confirming the baby's crying state according to the implementation method of the present invention.
Figure 5 is a diagram showing the process of soothing a crying baby by executing visual and auditory response measures through a camera device equipped with a projector according to the implementation method of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the description below are for preferred implementation methods among various methods for effectively explaining the characteristics of the present invention, and the present invention is not limited to the drawings and description below.

즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following examples correspond to examples of preferred union forms among the numerous embodiments of the present invention, and examples in which specific configurations (or steps) are omitted in the following examples, or specific configurations (or steps) are omitted. An embodiment of dividing the function implemented in a specific configuration (or step), or an embodiment of integrating the function implemented in two or more configurations (or steps) into one configuration (or step), a specific configuration (or step) It is clearly stated that embodiments that replace the operation sequence of all fall within the scope of the present invention, even if not separately mentioned in the following examples. Therefore, based on the examples below, it is clearly stated that various embodiments corresponding to subsets or complements can be divided retroactively to the filing date of the present invention.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Additionally, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. The terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the overall content of the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following examples are a means to efficiently explain the advanced technical idea of the present invention to those skilled in the art to which the present invention pertains. It's just that.

도면1은 본 발명의 실시 방법에 따른 프로젝터가 구비된 카메라장치를 이용하여 우는 아기를 달래는 시스템의 구성을 도시한 도면이다.Figure 1 is a diagram showing the configuration of a system for soothing a crying baby using a camera device equipped with a projector according to an implementation method of the present invention.

보다 상세하게 본 도면1은 사운드 입력부와 사운드 출력부 및 카메라모듈과, 프로젝터부를 구비하여 지정된 거점에 구비된 카메라장치(200)와 통신하는 운영서버(100)에서 상기 카메라장치(100)를 통해 입력되거나 촬영된 상기 거점 내의 특정 아기의 오디오 데이터와 비디오 데이터를 수신하여 저장하고, 상기 오디오 데이터를 판독하여 상기 아기의 울음소리를 인식하여 아기의 울음상태가 확인되면, 상기 확인된 울음상태에 대응하여 상기 카메라장치(200)의 사운드 출력부를 통한 청각적 대응 조치 및/또는 상기 카메라장치(200)의 프로젝터부를 통한 시각적 대응 조치를 실행하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 카메라장치(200)로부터 아기의 울음상태를 확인하고, 상기 카메라장치(200)를 통해 울음상태에 따라 청각적 및/또는 시각적 대응조치를 실행하도록 하는 시스템에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 1 shows that the operation server 100, which is equipped with a sound input unit, a sound output unit, a camera module, and a projector unit, and communicates with a camera device 200 installed at a designated base, receives input through the camera device 100. Receive and store audio data and video data of a specific baby in the base that has been recorded or filmed, read the audio data, recognize the baby's crying, and when the baby's crying state is confirmed, respond to the confirmed crying state. It shows the configuration of a system that executes auditory response measures through the sound output unit of the camera device 200 and/or visual response measures through the projector unit of the camera device 200, and is commonly known in the technical field to which the present invention pertains. Anyone with knowledge of this can check the crying state of the baby from the camera device 200 by referring to and/or modifying Figure 1 and provide audio and/or visual information according to the crying state through the camera device 200. Various implementation methods (for example, implementation methods in which some components are omitted, subdivided, or combined) can be inferred for a system that executes countermeasures, but the present invention includes all the implementation methods inferred above. And the technical features are not limited only to the implementation method shown in Figure 1.

본 발명의 시스템은, 지정된 거점에서 사운드 입력부와 사운드 출력부 및 카메라모듈을 구비하고 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 구비하며, 상기 거점 내의 특정 아기로부터 입력되는 오디오 데이터와 촬영된 비디오 데이터를 운영서버(100)로 전송하는 카메라장치(200)와, 상기 운영서버(100)와 통신하여 상기 특정 아기의 아기 울음상태를 알리는 알림정보를 수신하는 보호자 무선단말(300)과, 상기 카메라장치(100)를 통해 입력되거나 촬영된 상기 거점 내의 특정 아기의 오디오 데이터와 비디오 데이터를 수신하여 저장하고, 상기 오디오 데이터를 판독하여 상기 아기의 울음소리를 인식하여 아기의 울음상태가 확인되면, 상기 확인된 울음상태에 대응하여 상기 카메라장치(200)의 사운드 출력부를 통한 청각적 대응 조치 및/또는 상기 카메라장치(200)의 프로젝터부를 통한 시각적 대응 조치를 실행하도록 하는 운영서버(100)를 포함하여 이루어질 수 있다.The system of the present invention is equipped with a sound input unit, a sound output unit, and a camera module at a designated base, and a projector unit that projects a designated shape or image onto the ceiling or wall, and includes audio data input from a specific baby in the base and captured images. A camera device 200 that transmits video data to the operation server 100, a guardian wireless terminal 300 that communicates with the operation server 100 and receives notification information indicating the crying state of the specific baby, When the audio data and video data of a specific baby in the base input or photographed through the camera device 100 are received and stored, and the audio data is read to recognize the baby's crying sound and the baby's crying state is confirmed, It includes an operation server 100 that executes auditory response measures through the sound output unit of the camera device 200 and/or visual response measures through the projector unit of the camera device 200 in response to the confirmed crying state. This can be done.

상기 카메라장치(200)는 사운드 입력부와 사운드 출력부, 카메라모듈, 프로젝터부를 구비하여 지정된 거점에 구비되어 상기 거점 내의 특정 아기로부터 입력되는 오디오 데이터와, 상기 특정 아기를 촬영한 비디오 데이터를 상기 운영서버(100)로 전송하고, 상기 운영서버(100)와 연동하여 상기 특정 아기의 울음상태에 따라 사운드 출력부를 통한 청각적 대응 조치 및/또는 상기 프로젝터부를 통한 시각적 대응 조치를 실행하는 카메라기기의 총칭으로서, 바람직하게 상기 오디오 데이터 및 비디오 데이터의 전송과, 상기 청각적 대응 조치 및 시각적 대응 조치를 위한 적어도 하나의 기기 측 기능을 수행하기 위해 지정된 프로그램(255)을 설치 실행할 수 있다. 예를들어, 상기 카메라장치(200)는 지정된 프로그램(255)을 설치한 사운드 입력부와 사운드 출력부 및 카메라모듈, 통신모듈, 프로젝터부를 구비한 형태의 다양한 기기를 포함할 수 있으며, 상기 카메라장치(200)의 기능 구성에 대해서는 하기의 도면2를 통해 보다 구체적으로 기술하기로 한다.The camera device 200 includes a sound input unit, a sound output unit, a camera module, and a projector unit, and is installed at a designated base to transmit audio data input from a specific baby in the base and video data captured from the specific baby to the operation server. As a general term for a camera device that transmits to (100) and performs auditory response measures through the sound output unit and/or visual response measures through the projector unit depending on the crying state of the specific baby in conjunction with the operation server 100. , Preferably, a designated program 255 may be installed and executed to transmit the audio data and video data and perform at least one device-side function for the auditory response measures and the visual response measures. For example, the camera device 200 may include a variety of devices including a sound input unit and a sound output unit installed with a designated program 255, a camera module, a communication module, and a projector unit, and the camera device ( The functional configuration of 200) will be described in more detail through Figure 2 below.

상기 보호자 무선단말(300)은 상기 운영서버(100)와 통신하며, 상기 운영서버(100)로부터 특정 아기의 아기 울음상태를 알리는 알림정보를 수신하고자 하는 상기 특정 아기의 보호자가 이용하는 무선통신기기의 총칭으로서, 바람직하게 상기 운영서버(100)로부터 상기 알림정보를 제공받기 위한 적어도 하나의 단말 측 기능을 수행하기 위해 지정된 앱(355)을 설치 실행한다. 예를들어, 상기 보호자 무선단말(300)은 지정된 앱(355)을 설치한 보호자의 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 등을 포함할 수 있으며, 상기 보호자 무선단말(300)의 기능 구성에 대해서는 하기의 도면3을 통해 보다 구체적으로 기술하기로 한다.The guardian wireless terminal 300 communicates with the operation server 100, and is a wireless communication device used by the guardian of the specific baby who wishes to receive notification information indicating the crying state of the specific baby from the operation server 100. As a general term, preferably, a designated app 355 is installed and executed to perform at least one terminal-side function for receiving the notification information from the operation server 100. For example, the guardian wireless terminal 300 may include a guardian's mobile communication terminal, mobile phone, smartphone, tablet PC, etc., on which the designated app 355 is installed, and the functional configuration of the guardian wireless terminal 300 This will be described in more detail through Figure 3 below.

상기 운영서버(100)는 적어도 하나의 서버나 둘 이상의 서버 조합의 형태로 구현될 수 있으며, 실시 방법에 따라 기 구비된 서버에 설치되는 서버용 소프트웨어 형태로 구현될 수 있다. 편의상 이하 실시예의 설명이나 도면을 통해 본 발명에 따른 상기 카메라장치(100)를 통해 입력되거나 촬영된 상기 거점 내의 특정 아기의 오디오 데이터와 비디오 데이터를 수신하여 저장하는 기능, 상기 오디오 데이터를 판독하여 상기 아기의 울음소리를 인식하여 아기의 울음상태를 확인하는 기능, 상기 확인된 울음상태에 대응하여 상기 카메라장치(200)의 사운드 출력부를 통한 청각적 대응 조치 및/또는 상기 카메라장치(200)의 프로젝터부를 통한 시각적 대응 조치를 실행하도록 하는 기능 중 일부 기능은 운영서버(100)를 통해 구현되는 것으로 설명하고 다른 일부 기능은 카메라장치(200) 및 무선단말(300)을 통해 구현되는 것으로 설명할 것이나, 본 발명에서 상기 기능이 기기 및 단말 측 기능과 서버 측 기능으로 명확하게 구분되는 것은 아니며, 본 발명에 도시 설명된 기기 및 단말 측 기능 중 일부는 서버 측 기능에 포함되어 수행되거나 반대로 서버 측 기능 중 일부도 기기 및 단말 측 기능에 포함되어 수행될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함함을 명백하게 밝혀두는 바이다.The operating server 100 may be implemented in the form of at least one server or a combination of two or more servers, and depending on the implementation method, may be implemented in the form of server software installed on a previously equipped server. For convenience, through the description and drawings of the following embodiments, a function of receiving and storing audio data and video data of a specific baby in the base input or photographed through the camera device 100 according to the present invention, reading the audio data and A function to recognize the baby's crying sound and check the baby's crying state, auditory response measures through the sound output unit of the camera device 200 in response to the confirmed crying state, and/or a projector of the camera device 200 Among the functions that enable visual response measures to be executed through the unit, some functions will be described as being implemented through the operation server 100, and other functions will be described as being implemented through the camera device 200 and the wireless terminal 300. In the present invention, the above functions are not clearly divided into device and terminal side functions and server side functions, and some of the device and terminal side functions shown and described in the present invention are performed by being included in the server side functions or, conversely, among the server side functions. Some of them can also be performed by being included in device and terminal-side functions, and it is clearly stated that the present invention also includes these embodiments within the scope of its rights.

도면1을 참조하면, 상기 운영서버(100)는 상기 카메라장치(200)의 고유정보 및 특정 아기의 보호자의 무선단말 정보를 저장하는 정보 저장부(105)와, 상기 카메라장치(200)로부터 오디오 데이터 및 비디오 데이터를 수신하여 저장하는 데이터 관리부(110)와, 상기 오디오 데이터를 판독하여 아기 울음상태를 확인하는 상태 확인부(115)와, 울음 상태가 확인된 특정 아기에 대한 울음상황 대응 규칙정보를 확인하는 정보 확인부(120)와, 상기 특정 아기에게 설정된 대응 조치(또는 대응 조치의 조합)를 확인하여 실행하는 대응조치 실행부(125)와, 상기 특정 아기의 아기 울음상태가 종료되는지 확인하는 대응조치 반응부(130)와, 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료하는 실행 종료부(135)를 구비하여 구성될 수 있다.Referring to Figure 1, the operation server 100 includes an information storage unit 105 that stores unique information of the camera device 200 and wireless terminal information of the guardian of a specific baby, and audio from the camera device 200. A data management unit 110 that receives and stores data and video data, a status confirmation unit 115 that reads the audio data to check the baby's crying state, and crying situation response rule information for a specific baby whose crying state has been confirmed. An information confirmation unit 120 that confirms, a response action execution unit 125 that checks and executes response measures (or a combination of response measures) set for the specific baby, and checks whether the baby crying state of the specific baby ends. It may be configured to include a countermeasure response unit 130 that takes the countermeasure, and an execution termination unit 135 that terminates execution of the countermeasure (or a combination of countermeasures).

상기 정보 저장부(105)는 지정된 운영D/B(140)에 상기 카메라장치를 이용한 서비스를 관리하기 위한 고유정보를 저장할 수 있다. The information storage unit 105 can store unique information for managing services using the camera device in the designated operating D/B 140.

또한, 상기 정보 저장부(105)는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자에게 연락하기 위한 보호자 무선단말 정보를 지정된 운영D/B(105)에 저장할 수 있다.In addition, the information storage unit 105 can store guardian wireless terminal information for contacting the guardian of a specific baby photographed through the camera device 200 in the designated operation D/B 105.

또한, 상기 정보 저장부(105)는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자가 소지한 보호자 무선단말(300)의 앱과 통신하기 위한 고유식별정보를 지정된 운영D/B(140)에 저장할 수 있다.In addition, the information storage unit 105 stores unique identification information for communicating with the app of the guardian wireless terminal 300 owned by the guardian of a specific baby photographed through the camera device 200 to a designated operating D/B (140). ) can be saved in .

상기 데이터 관리부(110)는 상기 카메라장치(200)의 사운드 입력부를 통해 입력되어 지정된 방식으로 엔코딩된 오디오 데이터와 상기 카메라장치(200)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리할 수 있다.The data management unit 110 captures audio data input through the sound input unit of the camera device 200 and encoded in a specified manner, and a specific baby within the base through the camera module of the camera device 200, and encodes the audio data in a specified manner. Encoded video data can be received and stored and managed in a specific storage area of the designated storage medium 145.

본 발명의 실시 방법에 따르면, 상기 데이터 관리부(110)는 상기 카메라장치(200)로부터 상기 오디오 데이터와 비디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리하는 과정을 유지할 수 있다.According to the implementation method of the present invention, the data management unit 110 receives moving image data including the audio data and video data from the camera device 200 and stores and manages the moving image data including the audio data and video data in a specific storage area of the designated storage medium 145. You can maintain the course.

또한, 본 발명의 실시 방법에 따르면, 상기 데이터 관리부(110)는 상기 카메라장치(200)로부터 상기 오디오 데이터와 비디오 데이터를 제각기 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리하는 과정을 유지할 수 있으며, 상기 데이터 관리부(110)는 상기 카메라장치(200)로부터 제각기 수신된 상기 오디오 데이터와 비디오 데이터의 시간을 동기화시켜 지정된 저장매체(145)의 특정 저장영역에 저장할 수 있다.In addition, according to the implementation method of the present invention, the data management unit 110 receives the audio data and video data from the camera device 200 and stores and manages them in a specific storage area of the designated storage medium 145. The data management unit 110 can synchronize the times of the audio data and video data received from the camera device 200 and store them in a specific storage area of the designated storage medium 145.

상기 상태 확인부(115)는 상기 데이터 관리부(110)를 통해 오디오 데이터 및 비디오 데이터가 지정된 저장매체(145)의 특정 저장영역에 저장된 후, 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 지정된 아기 울음소리 주파수 대역에 포함되고 기 설정된 P(P≥1)개의 아기 울음소리 패턴 중 적어도 하나의 아기 울음소리 패턴과 기 설정된 유사도 범위 내에서 매칭된 상태의 소리를 기 설정된 유지시간 이상 유지하는 아기 울음소리를 인식하여 아기 울음상태를 확인할 수 있다.The status check unit 115 stores audio data and video data in a specific storage area of the designated storage medium 145 through the data management unit 110, and then stores the audio data in the specific storage area of the storage medium 145. By reading the data, a preset sound is maintained that is included in a designated baby cry frequency band and matches at least one baby cry pattern among preset P (P≥1) baby cry patterns within a preset similarity range. You can check the baby's crying condition by recognizing the baby's crying sound that lasts for more than a period of time.

본 발명의 실시 방법에 따르면, 상기 상태 확인부(115)는 상기 아기 울음소리를 인식하면, 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 카메라장치를 통해 촬영되는 특정 아기의 안면 영역에 존재하는 지정 개수 이상의 특징점을 인식하고, 상기 인식된 특정 아기의 안면 영역의 특징점 간 기하학 관계를 분석하여 아기 울음상태에 대응하는 특징점 분포 패턴과 기 설정된 유사도 범위 내에서 매칭되는지 확인할 수 있으며, 상기 특정 아기의 안면 영역이 인식되면, 상기 아기 울음소리를 인식한 결과와 상기 특정 아기의 안면 영역을 인식한 결과를 조합하여 아기 울음상태를 확인할 수 있다.According to the implementation method of the present invention, when the status checker 115 recognizes the baby's cry, it receives video data in real time from the camera device 200 and is stored in a specific storage area of the storage medium 145. By reading and recognizing a specified number or more feature points present in the facial area of a specific baby photographed through the camera device, and analyzing the geometric relationship between feature points of the recognized facial area of the specific baby, a feature point distribution pattern corresponding to the baby's crying state is obtained. You can check whether the match is within the preset similarity range, and when the facial area of the specific baby is recognized, the baby's crying state is confirmed by combining the results of recognizing the baby's cry and the results of recognizing the specific baby's facial area. You can.

상기 정보 확인부(120)는 상기 상태 확인부(115)를 통해 특정 아기의 울음상태가 확인되면, 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 아기 울음상태에 대응하여 설정된 울음상황 대응 규칙정보가 지정된 운영D/B(140)에 저장되어 있는지 확인할 수 있다.When the crying state of a specific baby is confirmed through the status checking unit 115, the information confirmation unit 120 sets a crying situation response rule corresponding to the crying state of the specific baby photographed through the camera device 200. You can check whether the information is stored in the designated operating D/B (140).

여기서, 상기 울음상황 대응 규칙정보는 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함할 수 있다.Here, the crying situation response rule information may further include one or more response measures (or combinations of response measures) for each priority in addition to the response measures (or combination of response measures) of the highest priority.

본 발명의 실시 방법에 따르면, 상기 정보 확인부(120)는 상기 지정된 운영D/B(140)에 상기 카메라장치(200)를 이용한 서비스를 관리하기 위한 고유정보가 저장되어 있는 경우, 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 아기 울음상태를 종료시키기 위한 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 포함하는 울음상황 대응 규칙정보가 상기 고유정보와 연계 저장되어 있는지 확인할 수 있다.According to the implementation method of the present invention, if unique information for managing a service using the camera device 200 is stored in the designated operating D/B 140, the information confirmation unit 120 stores the camera device 200. Through (200), it can be confirmed whether crying situation response rule information including the highest priority response action (or combination of response actions) to end the crying state of a specific baby being photographed is stored in connection with the unique information.

또한, 본 발명의 실시 방법에 따르면, 상기 정보 확인부(120)는 특정한 대응 조치(또는 대응 조치의 조합)에 의해 종료된 아기 울음소리의 특징을 정성화(qualification) 및 정량화(quantification)하여 생성된 울음소리 특징 정보가 상기 특정한 대응 조치(또는 대응 조치의 조합)을 최우선 순위의 대응 조치(또는 대응 조치의 조합)로 포함하는 울음상황 대응 규칙정보와 연계 저장되어 있는지 확인할 수 있다.In addition, according to the implementation method of the present invention, the information confirmation unit 120 is generated by qualifying and quantifying the characteristics of the baby's cry ended by a specific response action (or combination of response actions). It can be confirmed whether the crying sound characteristic information is stored in connection with crying situation response rule information that includes the specific response action (or combination of response actions) as the highest priority response action (or combination of response actions).

본 발명에 따르면, 상기 대응 조치는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자에게 연락하기 위한 보호자 무선단말 정보가 지정된 운영D/B(140)에 저장되어 있는 경우, 상기 보호자 무선단말 정보를 이용하여 상기 특정 아기의 보호자 무선단말(300)로 상기 특정 아기의 아기 울음상태를 알리는 알림정보를 발송하는 알림 대응 조치를 더 포함할 수 있다.According to the present invention, the countermeasure is carried out when the guardian wireless terminal information for contacting the guardian of a specific baby photographed through the camera device 200 is stored in the designated operation D/B (140), the guardian wireless terminal It may further include a notification response measure for sending notification information informing of the crying state of the specific baby to the guardian wireless terminal 300 of the specific baby using the information.

또한 본 발명에 따르면, 상기 대응 조치는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자가 소지한 보호자 무선단말(300)의 앱과 통신하기 위한 고유식별정보가 지정된 운영D/B(140)에 저장되어 있는 경우, 상기 고유식별정보를 근거로 상기 보호자 무선단말(300)의 앱과 연동하여 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 상기 보호자 무선단말(300)의 사운드 출력부를 통해 출력되도록 처리하거나 상기 보호자 무선단말(300)의 사운드 입력부를 입력되어 엔코딩된 사운드 데이터를 상기 카메라장치(200)의 사운드 출력부를 통해 출력되도록 처리하는 보호자 연동 대응 조치를 더 포함할 수 있다.In addition, according to the present invention, the countermeasure is an operation D/B (140) with unique identification information designated for communicating with the app of the guardian wireless terminal 300 possessed by the guardian of a specific baby photographed through the camera device 200. ), the audio data stored in a specific storage area of the storage medium 145 is linked to the app of the guardian wireless terminal 300 based on the unique identification information. It may further include a guardian interlocking response measure that processes the encoded sound data to be output through the sound output unit or input to the sound input unit of the guardian wireless terminal 300 so that it is output through the sound output unit of the camera device 200. there is.

여기서, 상기 보호자 연동 대응 조치는 상기 보호자 무선단말(300)의 앱과 연동하여 상기 보호자 무선단말(300)의 카메라부를 촬영된 영상 데이터를 상기 카메라장치(200)의 프로젝터부를 통해 투영하여 출력되도록 처리하는 대응 조치를 더 포함할 수 있다.Here, the guardian interlocking response measures process image data captured by the camera unit of the guardian wireless terminal 300 in conjunction with the app of the guardian wireless terminal 300 to be projected and output through the projector unit of the camera device 200. Additional countermeasures may be included.

상기 대응조치 실행부(125)는 상기 정보 확인부(120)를 통해 상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장되지 않은 것으로 확인되면, 기 설정된 공통 대응 규칙에 따라 상기 카메라장치(200)의 프로젝터부를 통해 f(f≥1)개의 형상이나 i(i≥0)개의 영상 중 지정된 투영 대상을 투영하는 시각적 대응 조치와 상기 카메라장치의 사운드 출력부를 통해 m(m≥1)개의 음악, s(s≥1)개의 소음, v(v≥1)개의 목소리 중 지정된 출력 대상을 출력하는 청각적 대응 조치 중 기 설정된 대응 조치(또는 대응 조치의 조합)를 지정된 순서에 따라 일정 시간씩 순차(또는 조합) 실행할 수 있다.If it is confirmed through the information confirmation unit 120 that the specific baby's crying situation response rule information is not stored in the operation D/B (140), the response action execution unit 125 follows the preset common response rule. Accordingly, a visual countermeasure is taken to project a designated projection target among f (f ≥ 1) shapes or i (i ≥ 0) images through the projector unit of the camera device 200 and m (m Among the auditory countermeasures that output the specified output target among ≥1) pieces of music, s(s≥1) noises, and v(v≥1) voices, preset countermeasures (or a combination of countermeasures) are performed in a specified order. It can be executed sequentially (or in combination) for a certain amount of time.

또한, 상기 대응조치 실행부(125)는 상기 정보 확인부(120)를 통해 상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장된 경우 상기 저장된 울음상황 대응 규칙에 따라 상기 카메라장치(200)의 프로젝터부를 통해 f개의 형상이나 i개의 영상 중 지정된 투영 대상을 투영하는 시각적 대응 조치와 상기 카메라장치(200)의 사운드 출력부를 통해 m개의 음악, s개의 소음, v개의 목소리 중 지정된 출력 대상을 출력하는 청각적 대응 조치 중 상기 특정 아기에게 최우선 순위로 설정된 대응 조치(또는 대응 조치의 조합)를 확인하여 실행할 수 있다.In addition, the response action execution unit 125 stores the crying situation response rule information of the specific baby in the operation D/B 140 through the information confirmation unit 120, according to the stored crying situation response rule. A visual countermeasure to project a designated projection target among f shapes or i images through the projector unit of the camera device 200, and a sound output unit of the camera device 200 to project one of m pieces of music, s noises, and v voices. Among the auditory response measures that output the designated output target, the response measure (or combination of response measures) set as the highest priority for the specific baby can be confirmed and executed.

본 발명의 실시 방법에 따르면, 상기 대응조치 실행부(125)는 상기 울음상황 대응 규칙정보기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함하고, 상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장된 경우, 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 지정된 시간 동안 실행하면서 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 아기 울음상태가 종료되는지 확인할 수 있다.According to the implementation method of the present invention, the response action executing unit 125 performs one or more response actions (or a combination of response measures) for each priority in addition to the response action (or combination of response measures) of the highest priority in the crying situation response rule information. ), and when rule information for responding to a crying situation of the specific baby is stored in the operation D/B 140, the camera device executes the highest priority response action (or combination of response actions) for a specified time. Audio data received in real time from 200 and stored in a specific storage area of the storage medium 145 can be read to confirm whether the baby's crying state ends in response to the implemented countermeasure (or combination of countermeasures). .

그리고, 상기 대응조치 실행부(125)는 지정된 순위의 대응 조치(또는 대응 조치의 조합)를 실행 한 후 지정된 시간 내에 상기 아기 울음상태가 종료되지 않는 경우 다음 순위의 대응 조치(또는 대응 조치의 조합)을 지정된 시간 동안 실행하면서 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 아기 울음상태가 종료되는지 확인하는 과정을 마지막 순위까지 반복할 수 있다.In addition, if the baby's crying state does not end within the specified time after executing the response action (or combination of response actions) of the specified priority, the response action executing unit 125 takes the response action (or combination of response actions) of the next priority. ) is executed for a specified time while reading audio data received in real time from the camera device 200 and stored in a specific storage area of the storage medium 145 in response to the implemented countermeasure (or combination of countermeasures). The process of checking whether the baby's crying state ends can be repeated up to the last rank.

한편, 본 발명의 실시 방법에 따르면, 상기 대응조치 실행부(125)는 상기 대응 조치(또는 대응 조치의 조합) 실행 시, 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 아기 울음소리 외에 상기 특정 아기의 아기 울음상태를 해소하기 위해 발화되는 보호자의 달래기 음성을 인식할 수 있으며, 상기 달래기 음성을 인식한 경우 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료할 수 있다.Meanwhile, according to the implementation method of the present invention, when executing the countermeasure (or combination of countermeasures), the countermeasure execution unit 125 reads audio data stored in a specific storage area of the storage medium 145 and In addition to the baby's cry, it is possible to recognize the guardian's soothing voice uttered to relieve the baby's crying state of the specific baby, and when the soothing voice is recognized, the execution of the response action (or combination of response actions) can be terminated. You can.

또한, 본 발명의 실시 방법에 따르면, 상기 대응조치 실행부(125)는 상기 대응 조치(또는 대응 조치의 조합) 실행 시, 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 특정 아기의 아기 울음상태를 해소하기 위한 보호자의 달래기 동작을 인식할 수 있으며, 상기 달래기 동작을 인식한 경우 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료할 수 있다.In addition, according to the implementation method of the present invention, when executing the countermeasure (or combination of countermeasures), the countermeasure execution unit 125 reads video data stored in a specific storage area of the storage medium 145 and The guardian's soothing action to relieve the crying state of the specific baby can be recognized, and when the soothing action is recognized, the execution of the response action (or combination of response actions) can be terminated.

상기 대응조치 반응부(130)는 상기 대응조치 실행부(125)를 통해 특정 아기에게 설정된 대응 조치(또는 대응 조치의 조합)가 확인되어 실행된 후, 상기 카메라장치(200)를 통해 지정된 대응 조치(또는 대응 조치의 조합)가 실행되는 동안 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 인식된 아기 울음소리를 근거로 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 특정 아기의 아기 울음상태가 종료되는지 확인할 수 있다.The countermeasure response unit 130 confirms and executes the countermeasure (or combination of countermeasures) set for a specific baby through the countermeasure execution unit 125, and then takes the countermeasure specified through the camera device 200. While (or a combination of countermeasures) is being executed, audio data stored in a specific storage area of the storage medium 145 is read and the executed countermeasure (or combination of countermeasures) is performed based on the recognized baby's cry. In response, it can be confirmed whether the crying state of the specific baby has ended.

본 발명의 실시 방법에 따르면, 상기 대응조치 반응부(130)는 상기 카메라장치(200)를 통해 지정된 대응 조치가 실행되는 동안 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 인식된 특정 아기의 안면 영역의 특징점 간 변화 패턴을 분석하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 시각 또는 청각적으로 반응하는 지정된 표정 변화를 인식할 수 있으며, 상기 지정된 표정 변화를 인식한 경우, 상기 아기 울음소리를 인식한 결과와 상기 표정 변화를 인식한 결과를 조합하여 상기 특정 아기의 아기 울음상태가 종료되는지 확인할 수 있다.According to the implementation method of the present invention, the countermeasure response unit 130 reads video data stored in a specific storage area of the storage medium 145 while the countermeasure designated through the camera device 200 is executed. By analyzing the pattern of changes between feature points of the recognized facial area of a specific baby, a specified facial expression change that visually or auditorily responds to the executed response action (or a combination of response actions) can be recognized, and the specified facial expression change is recognized. In one case, the result of recognizing the baby's crying sound and the result of recognizing the facial expression change can be combined to confirm whether the crying state of the specific baby has ended.

상기 실행 종료부(135)는 상기 대응조치 반응부(130)를 통해 상기 특정 아기의 아기 울음상태가 종료되는지 확인되면, 지정된 시간 내에 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료할 수 있다.When the execution end unit 135 determines whether the crying state of the specific baby is terminated through the response action response unit 130, the execution end unit 135 may end execution of the response action (or combination of response actions) within a specified time. there is.

본 발명의 실시 방법에 따르면, 상기 실행 종료부(135)는 상기 아기 울음상태가 종료된 경우 상기 아기 울음상태를 종료시킨 특정한 대응 조치(또는 대응 조치의 조합)의 종류와 실행 시간을 포함하는 대응 조치 이력정보를 구성하여 운영D/B(140)에 저장하고, 상기 운영D/B(140)에 저장된 복수의 대응 조치 이력정보를 분석하여 상기 특정 아기의 아기 울음상태를 종료시키기 위한 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, when the baby's crying state is terminated, the execution end unit 135 provides a response including the type and execution time of a specific response action (or combination of response actions) that terminated the baby's crying state. Action history information is configured and stored in the operation D/B (140), and the plurality of response action history information stored in the operation D/B (140) is analyzed to determine the highest priority for ending the baby crying state of the specific baby. Crying situation response rule information including response measures (or a combination of response measures) can be created and stored in the operation DB 140.

여기서, 상기 실행 종료부(135)는 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 아기 울음소리 외에 상기 특정 아기의 아기 울음상태를 해소하기 위해 발화되는 보호자의 달래기 음성을 인식할 수 있으며, 상기 달래기 음성을 인식한 경우 상기 대응 조치 이력정보의 저장 과정을 생략할 수 있다.Here, the execution end unit 135 reads audio data stored in a specific storage area of the storage medium 145, and the guardian's soothing voice uttered to relieve the crying state of the specific baby in addition to the baby's crying sound can be recognized, and when the soothing voice is recognized, the process of storing the response action history information can be omitted.

본 발명의 실시 방법에 따르면, 상기 실행 종료부(135)는 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 특정 아기의 아기 울음상태를 해소하기 위한 보호자의 달래기 동작을 인식할 수 있으며, 상기 달래기 동작을 인식한 경우 상기 대응 조치 이력정보의 저장 과정을 생략할 수 있다.According to the implementation method of the present invention, the execution end unit 135 reads video data stored in a specific storage area of the storage medium 145 and performs a guardian's soothing operation to relieve the crying state of the specific baby. It can be recognized, and if the appeasement action is recognized, the process of storing the countermeasure history information can be omitted.

본 발명의 실시 방법에 따르면, 상기 실행 종료부(135)는 상기 운영D/B(140)에 저장된 복수의 대응 조치 이력정보를 분석하여 상기 특정 아기의 아기 울음상태를 종료시킨 대응 조치(또는 대응 조치의 조합)를 분류하고 종료 횟수를 기준으로 정렬하여 상기 특정 아기의 아기 울음상태를 가장 많이 종료시킨 대응 조치(또는 대응 조치의 조합)를 최우선 순위의 대응 조치(또는 대응 조치의 조합)로 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the execution termination unit 135 analyzes a plurality of response action history information stored in the operation D/B 140 and takes a response action (or response) that terminates the baby crying state of the specific baby. By sorting the response actions (or combinations of actions) by the number of terminations, the response action (or combination of response actions) that ended the crying state for that particular baby the most is included as the highest priority response action (or combination of response actions). Crying situation response rule information can be created and stored in the operation D/B (140).

본 발명의 실시 방법에 따르면, 상기 실행 종료부(135)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함하는 울음상황 대응 규칙정보를 생성할 수 있다.According to the implementation method of the present invention, the execution end unit 135 further includes one or more response measures (or combinations of response measures) for each priority in addition to the response measures (or combination of response measures) of the highest priority crying situation. Response rule information can be created.

본 발명의 실시 방법에 따르면, 상기 대응 조치 이력정보는 각 대응 조치(또는 대응 조치의 조합)에 의해 종료된 아기 울음소리를 포함하는 오디오 데이터를 더 포함할 수 있으며, 상기 실행 종료부(135)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)에 대응하는 대응 조치 이력정보의 오디오 데이터에 포함된 아기 울음소리의 특징을 정성화(qualification) 및 정량화(quantification)하여 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)에 의해 종료된 최우선 순위의 울음소리 특징 정보를 생성하고, 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)과 상기 생성된 최우선 순위의 울음소리 특징 정보를 연계 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the response action history information may further include audio data including a baby's cry that is terminated by each response action (or combination of response actions), and the execution end unit 135 Qualifies and quantifies the characteristics of the baby's cry included in the audio data of the response action history information corresponding to the highest priority response action (or combination of response actions), and takes the highest priority response action (or combination of response actions). or a combination of response measures) to generate high-priority cry characteristic information, and linking the high-priority response action (or combination of response measures) with the generated high-priority cry characteristic information. Situation response rule information can be created and stored in the operation D/B (140).

본 발명의 실시 방법에 따르면, 상기 실행 종료부(135)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)에 대응하는 대응 조치 이력정보의 오디오 데이터에 포함된 아기 울음소리의 특징을 정성화 및 정량화하여 각 순위 별 대응 조치(또는 대응 조치의 조합)에 의해 종료된 각 순위 별 울음소리 특징 정보를 생성할 수 있으며, 각 순위 별 대응 조치(또는 대응 조치의 조합)과 상기 생성된 각 순위 별 울음소리 특징 정보를 더 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the execution end unit 135 records the response action history corresponding to one or more response actions (or combinations of response actions) for each priority in addition to the response action (or combination of response actions) of the highest priority. By quarantining and quantifying the characteristics of the baby's cry contained in the audio data of the information, it is possible to generate cry sound characteristic information for each rank, completed by response actions (or a combination of response actions) for each rank, and responses for each rank. Crying situation response rule information, which further includes measures (or a combination of response measures) and crying sound characteristic information for each generated rank, can be generated and stored in the operation D/B 140.

도면2는 본 발명의 실시 방법에 따른 운영서버와 통신하는 프로젝터가 구비된 카메라장치의 기능 구성을 도시한 도면이다.Figure 2 is a diagram showing the functional configuration of a camera device equipped with a projector that communicates with an operating server according to the implementation method of the present invention.

보다 상세하게 본 도면2는 사운드 입력부(220)와 사운드 출력부(225) 및 카메라모듈(210)을 구비하고 지정된 형상, 영상, 동영상 중 어느 하나를 천정이나 벽면에 선택적으로 투영하는 프로젝터부(230)를 구비하여 지정된 거점에 구비되는 것을 특징으로 하며, 상기 사운드 입력부(220)를 통해 입력되어 지정된 방식으로 엔코딩된 오디오 데이터와 상기 카메라모듈(210)을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 운영서버(100)로 전송하고, 상기 특정 아기의 울음 상태가 확인되는 경우, 상기 프로젝터부(230)를 통해 지정된 형상, 영상, 동영상 중 어느 하나를 천정이나 벽면에 선택적으로 투영하여 상기 특정 아기의 울음을 그치게 할 수 있도록 하는 카메라장치(200)의 기능 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 카메라장치(200)의 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. In more detail, Figure 2 shows a projector unit 230 that includes a sound input unit 220, a sound output unit 225, and a camera module 210, and selectively projects any one of a specified shape, image, or video onto the ceiling or wall. ), characterized in that it is provided at a designated base, and audio data is input through the sound input unit 220 and encoded in a designated manner, and a specific baby in the base is photographed through the camera module 210 in a designated manner. The encoded video data is transmitted to the operation server 100, and when the crying state of the specific baby is confirmed, one of the designated shapes, images, and videos is selectively projected onto the ceiling or wall through the projector unit 230. This shows the functional configuration of the camera device 200 that can stop the crying of the specific baby by projecting it. Those of ordinary skill in the art to which the present invention pertains will refer to and/or modify Figure 2. Thus, various implementation methods for the function of the camera device 200 can be inferred, but the present invention includes all of the inferred implementation methods, and its technical features are limited to only the implementation method shown in Figure 2. It doesn't work.

도면2를 참조하면, 상기 카메라장치(200)는 제어모듈(205)과 메모리부(240)와 카메라모듈(210)과 구동모듈(215)과 사운드 입력부(220)와 사운드 출력부(225)와 통신모듈(235)과 프로젝터부(230)를 구비하며, 전원 공급을 위한 배터리를 포함하는 전원 공급부(250)를 구비할 수 있다.Referring to Figure 2, the camera device 200 includes a control module 205, a memory unit 240, a camera module 210, a driving module 215, a sound input unit 220, a sound output unit 225, and It may be provided with a communication module 235 and a projector unit 230, and a power supply unit 250 including a battery for power supply.

상기 제어모듈(205)은 상기 카메라장치(200)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 카메라장치(200)에 구비된 각 구성부와 버스(BUS)를 통해 연결될 수 있다. 본 발명에 따르면, 상기 제어모듈(205)은 상기 프로세서를 통해 상기 카메라장치(200)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 카메라장치(200)의 동작을 제어할 수 있다. 이하, 편의상 프로그램코드 형태로 구현되는 상기 카메라장치(200)의 프로그램(250)에 대응하는 구성을 본 제어모듈(205) 내에 도시하여 설명하기로 한다. The control module 205 is a general term for components that control the operation of the camera device 200, and is comprised of at least one processor and an execution memory, and each component and bus provided in the camera device 200. It can be connected via (BUS). According to the present invention, the control module 205 loads at least one program code provided in the camera device 200 into the execution memory through the processor and performs calculations, and executes the result through the bus. The operation of the camera device 200 can be controlled by transmitting it to the component part. Hereinafter, for convenience, the configuration corresponding to the program 250 of the camera device 200, which is implemented in the form of program code, will be illustrated and explained within the control module 205.

본 발명의 실시 방법에 따르면, 상기 제어모듈(205)은 상기 카메라모듈(210)을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈(235)을 통해 지정된 운영서버(100)로 전송하는 기능을 수행하고, 상기 통신모듈(235)을 통해 지정된 운영서버(100)로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어하는 기능을 수행할 수 있다.According to the implementation method of the present invention, the control module 205 generates acquired data including video data encoded in a specified manner from the image signal acquired through the camera module 210 and uses the communication module 235 to generate the acquired data. Performs the function of transmitting to the designated operation server 100 through the communication module 235, and controls the designated projector operation of the projector unit 230 based on the projector control information received from the designated operation server 100 through the communication module 235. It can perform the function:

상기 메모리부(240)는 상기 카메라장치(200)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어모듈(205)을 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(240)는 기본적으로 상기 카메라장치(200)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 무선단말(300)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 상기 카메라장치(200)의 프로그램(250)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(240)에 저장된다. 본 발명의 실시 방법에 따르면, 상기 메모리부(240)에는 비디오 데이터, 오디오 데이터, 프로젝터 제어정보, 규칙 정보 및 촬영방향 제어정보가 저장될 수 있다.The memory unit 240 is a general term for non-volatile memory corresponding to the storage resources of the camera device 200, and includes at least one program code executed through the control module 205 and at least one program code used. Store and maintain the dataset. The memory unit 240 basically contains a system program code and a system data set corresponding to the operating system of the camera device 200, a communication program code and a communication data set for processing the wireless communication connection of the wireless terminal 300, and at least One application program code and one application data set are stored, and the program code and data set corresponding to the program 250 of the camera device 200 are also stored in the memory unit 240. According to the implementation method of the present invention, video data, audio data, projector control information, rule information, and shooting direction control information may be stored in the memory unit 240.

상기 카메라모듈(210)은 거점 내의 아기를 촬영한 영상 신호를 획득하며, 피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부와, 상기 렌즈부를 통해 입력되는 광신호를 검지하여 영상 신호로 변환하는 이미지 센서부와, 상기 이미지 센서부를 통해 생성된 영상 신호를 상기 제어모듈(205)로 제공하기 위한 인터페이스부를 구비하여 구성될 수 있다.The camera module 210 acquires an image signal of a baby in the base, has one or more lens units that receive an optical signal reflected from the subject, and detects the optical signal input through the lens unit and converts it into an image signal. It may be comprised of an image sensor unit and an interface unit for providing an image signal generated through the image sensor unit to the control module 205.

또한, 상기 카메라모듈(210)은 상기 렌즈부와 이미지 센서부 사이에서 자동초점이나 줌을 위한 지정된 기능 동작을 구현하는 액츄에이터부(Actuator)를 더 포함하여 구성될 수 있다.Additionally, the camera module 210 may further include an actuator that implements a designated function for autofocus or zoom between the lens unit and the image sensor unit.

또한, 상기 카메라모듈(210)은 상기 렌즈부와 이미지 센서부 사이에서 야간에도 아기를 촬영하기 위한 적외선 필터부를 더 포함하여 구성될 수 있다.Additionally, the camera module 210 may further include an infrared filter unit between the lens unit and the image sensor unit for photographing the baby even at night.

상기 구동모듈(215)은 상기 카메라모듈(210)의 촬영 방향을 상/하/좌/우 지정된 방향으로 지정된 각도 범위 내로 구동할 수 있다.The driving module 215 can drive the camera module 210 in a designated up/down/left/right direction within a designated angle range.

상기 사운드 입력부(220)는 상기 거점 내의 사운드신호를 입력받는 마이크로폰을 포함하여 구성될 수 있으며, 마이크로폰을 통해 입력되는 사운드신호를 지정된 엔코딩(Encoding) 규칙에 따라 엔코딩한 오디오 데이터를 상기 제어모듈(205)로 전달할 수 있다. 본 발명의 실시 방법에 따르면, 상기 사운드 입력부(220)는 상기 카메라장치(200)가 구비된 거점의 특정 아기로부터 입력되는 사운드 신호(예컨대, 울음소리 등)를 입력받을 수 있다.The sound input unit 220 may be configured to include a microphone that receives a sound signal within the base, and outputs audio data encoded by the sound signal input through the microphone according to specified encoding rules to the control module 205. ) can be transmitted. According to the implementation method of the present invention, the sound input unit 220 can receive a sound signal (eg, a cry, etc.) from a specific baby at a base where the camera device 200 is installed.

상기 사운드 출력부(225)는 지정된 오디오 데이터를 디코딩한 사운드 신호를 지정된 신호 출력 강도로 출력하는 스피커를 포함하여 구성될 수 있으며, 상기 제어모듈(205)은 상기 통신모듈(235)을 통해 지정된 운영서버(100)로부터 오디오 데이터를 수신하고, 상기 오디오 데이터를 디코딩하여 상기 사운드 출력부(225)를 통해 출력할 수 있다.The sound output unit 225 may be configured to include a speaker that outputs a sound signal decoded from specified audio data at a specified signal output intensity, and the control module 205 may perform a specified operation through the communication module 235. Audio data can be received from the server 100, the audio data can be decoded, and output through the sound output unit 225.

여기서, 상기 신호 출력 강도는 상기 카메라장치(200)의 위치에서 상기 카메라모듈(210)을 통해 촬영하는 거점 내의 아기 위치까지 상기 출력되는 사운드 신호를 지정된 신호 수신 강도 범위로 도달하게 계산된 신호 강도를 포함할 수 있다.Here, the signal output strength is a signal strength calculated to reach the specified signal reception strength range of the output sound signal from the position of the camera device 200 to the baby's position within the shooting point through the camera module 210. It can be included.

본 발명의 실시 방법에 따르면, 상기 사운드 출력부(225)는 상기 운영서버(100)와 연동하여, m(m≥1)개의 음악, s(s≥1)개의 소음, v(v≥1)개의 목소리 중 지정된 출력 대상을 출력하는 청각적 대응 조치 중 기 설정된 대응 조치(또는 대응 조치의 조합)를 출력할 수 있다.According to the implementation method of the present invention, the sound output unit 225 works in conjunction with the operation server 100 to output m (m ≥ 1) music, s (s ≥ 1) noise, and v (v ≥ 1). Among the auditory response measures that output a designated output target among the dog's voices, a preset response measure (or a combination of response measures) can be output.

상기 통신모듈(235)은 지정된 통신망을 통해 지정된 운영서버와 통신하는 통신 자원의 총칭으로서, 유선 케이블을 통해 통신망 연결하는 유선 통신모듈, 무선랜을 통해 통신망 연결하는 무선랜 통신모듈 중 적어도 하나의 통신모듈을 포함할 수 있다.The communication module 235 is a general term for communication resources that communicate with a designated operating server through a designated communication network, and is at least one of a wired communication module that connects to a communication network through a wired cable and a wireless LAN communication module that connects to a communication network through a wireless LAN. Can contain modules.

상기 유선 통신모듈은 상기 카메라장치(200)의 유선 통신 기능을 수행하기 위한 유선 통신수단을 제공하는 것을 특징으로 하며, 유선망을 통해 운영서버(100)와 통신을 제공하는 네트워크 통신부 및/또는 소정의 케이블 통신포트(예컨대, RS-232c, USB(Universal Serial Bus) 등)를 통해 외부 통신장치와 통신을 제공하는 케이블 통신부를 포함하여 이루어질 수 있으며, 소프트웨어적으로 통신을 제공하기 위한 통신 프로토콜 및 통신 애플리케이션을 포함하여 이루어질 수 있다.The wired communication module is characterized by providing a wired communication means for performing the wired communication function of the camera device 200, and includes a network communication unit and/or a predetermined network communication unit that provides communication with the operation server 100 through a wired network. It may include a cable communication unit that provides communication with an external communication device through a cable communication port (e.g., RS-232c, USB (Universal Serial Bus), etc.), and a communication protocol and communication application to provide communication in software. It can be done including.

상기 무선랜 통신모듈은 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 카메라장치(200)를 통신망에 접속시키는 무선 통신수단을 제공하는 것을 특징으로 하며, 바람직하게 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 카메라장치(200)를 통신망에 접속시킬 수 있다. 본 발명에 따르면, 상기 무선랜 통신모듈은 무선AP를 통해 상기 카메라장치(200)를 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결할 수 있다.The wireless LAN communication module connects a communication session using a radio frequency signal as a communication medium within a certain distance (e.g., 10 m) and provides a wireless communication means for connecting the camera device 200 to a communication network based on this. Preferably, the camera device 200 can be connected to a communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the present invention, the wireless LAN communication module can connect the camera device 200 to a data network that provides packet communication-based short-distance wireless data communication through a wireless AP.

상기 프로젝터부(230)는 램프를 이용하여 지정된 형상, 영상, 동영상 중 어느 하나를 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터를 포함할 수 있다. 본 발명의 실시 방법에 따르면, 상기 프로젝터부(230)는 운영서버(100)와 연동하여 f(f≥1)개의 형상이나 i(i≥0)개의 영상 중 지정된 투영 대상을 상기 천정이나 벽면에 투영할 수 있다.The projector unit 230 may include a projector that selectively projects any one of a designated shape, image, or video onto the ceiling or wall within the base using a lamp. According to the implementation method of the present invention, the projector unit 230 works in conjunction with the operation server 100 to project a designated projection target among f (f ≥ 1) shapes or i (i ≥ 0) images onto the ceiling or wall. It can be projected.

본 발명의 실시 방법에 따르면, 상기 프로젝터부(230)는 상기 램프의 빛 방사 방향에 지정된 형상이나 영상이 인화된 필름을 거치하는 필름 거치부를 포함할 수 있다.According to the implementation method of the present invention, the projector unit 230 may include a film holder for mounting a film on which a shape or image designated in the light emission direction of the lamp is printed.

또한, 본 발명의 실시 방법에 따르면, 상기 프로젝터부(230)는 지정된 형상이나 영상이 인화된 복수의 필름을 보관하는 필름 보관부와, 상기 복수의 필름 중에서 선택된 어느 한 필름을 상기 램프의 빛 방사 방향에 거치하는 필름 거치부를 포함할 수 있다.In addition, according to the method of carrying out the present invention, the projector unit 230 includes a film storage unit that stores a plurality of films on which a designated shape or image is printed, and a film selected from the plurality of films is radiated with light from the lamp. It may include a film holder mounted in the direction.

또한, 본 발명의 실시 방법에 따르면, 상기 프로젝터부(230)는 지정된 하나 이상의 동영상을 저장하는 동영상 저장부를 포함할 수 있으며, 상기 제어모듈(205)의 제어에 따라 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 할 수 있다.In addition, according to the method of implementing the present invention, the projector unit 230 may include a video storage unit that stores one or more designated videos, and a plurality of video storage units stored in the video storage unit are controlled by the control module 205. You can select any one of the videos to project.

본 발명에 따르면, 상기 제어모듈(205)은 상기 프로젝터부(230)와 연동하여 상기 지정된 형상이나 영상이 인화된 하나 이상의 필름 또는 상기 복수의 동영상 중 어느 하나를 선택적으로 상기 램프의 빛 방사 방향에 투영하도록 할 수 있다.According to the present invention, the control module 205 works in conjunction with the projector unit 230 to selectively project one of one or more films or the plurality of videos on which the specified shape or image is printed in the direction of light emission of the lamp. You can make it project.

도면2를 참조하면, 상기 카메라장치(200)의 제어모듈(205)은, 영상 신호를 엔코딩 처리하여 지정된 운영서버(100)로 전송하는 영상신호 처리부(250)와, 운영서버(100)의 프로젝터 제어정보를 통해 프로젝터를 제어하는 프로젝터 제어부(255)와, 사운드 신호를 지정 방식으로 엔코딩한 오디오 데이터를 생성하여 지정된 운영서버(100)로 전송하는 사운드신호 처리부(260)와, 촬영된 비디오 데이터를 판독하여 아기에 대응하는 객체 영역을 인식하는 객체영역 인식부(265)와, 객체 영역 인식에 따라 카메라모듈(210)의 촬영방향을 제어하는 카메라 제어부(270)를 구비하여 구성될 수 있다.Referring to Figure 2, the control module 205 of the camera device 200 includes a video signal processing unit 250 that encodes and transmits video signals to the designated operation server 100, and a projector of the operation server 100. A projector control unit 255 that controls the projector through control information, a sound signal processing unit 260 that generates audio data encoded by a sound signal in a designated manner and transmits it to the designated operation server 100, and captured video data. It may be comprised of an object area recognition unit 265 that reads and recognizes the object area corresponding to the baby, and a camera control unit 270 that controls the shooting direction of the camera module 210 according to the object area recognition.

상기 영상신호 처리부(250)는 상기 카메라모듈(210)을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈(235)을 통해 지정된 운영서버(100)로 전송할 수 있다.The video signal processing unit 250 generates acquired data including video data encoded in a designated manner from the video signal acquired through the camera module 210 and transmits it to the operation server 100 designated through the communication module 235. It can be sent to .

상기 프로젝터 제어부(255)는 기 설정된 규칙이나 프로젝터 제어정보를 근거로 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어할 수 있다. 여기서 상기 프로젝터 제어정보는 램프의 온/오프 동작 제어, 특정 필름 선택 제어, 특정 동영상 선택 제어, 프로젝터 동작 시간 제어, 프로젝터를 통해 투영된 영상의 크기 제어를 하나 이상 포함하는 프로젝터 동작 제어정보를 포함할 수 있다.The projector control unit 255 may control the designated projector operation of the projector unit 230 based on preset rules or projector control information. Here, the projector control information may include projector operation control information including one or more of lamp on/off operation control, specific film selection control, specific video selection control, projector operation time control, and size control of the image projected through the projector. You can.

상기 프로젝터 동작의 제어에 대한 제1 실시예에 따르면, 상기 프로젝터 제어부(255)는 상기 카메라장치(200)의 메모리부(240)에 저장된 규칙정보에 근거하여 기 설정된 규칙에 따라 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어할 수 있다. 여기서, 기 설정된 규칙정보는 상기 프로젝터가 동작하도록 설정된 특정 시간, 예약 시간 등을 포함할 수 있다.According to the first embodiment of controlling the projector operation, the projector control unit 255 controls the projector unit 230 according to a preset rule based on rule information stored in the memory unit 240 of the camera device 200. ) can control the specified projector operation. Here, the preset rule information may include a specific time at which the projector is set to operate, a reservation time, etc.

상기 프로젝터 동작의 제어에 대한 제2 실시예에 따르면, 상기 프로젝터 제어부(255)는 상기 통신모듈(235)을 통해 지정된 운영서버(100)로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어할 수 있다.According to the second embodiment of the control of the projector operation, the projector control unit 255 controls the projector unit 230 based on the projector control information received from the operation server 100 designated through the communication module 235. You can control designated projector operations.

상기 프로젝터 동작의 제어에 대한 제3 실시예에 따르면, 상기 프로젝터 제어부(255)는 상기 카메라장치(200)의 사운드 입력부(220)를 통해 수신된 특정 아기의 울음소리를 근거로 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어할 수 있다.According to a third embodiment of the control of the projector operation, the projector control unit 255 controls the projector unit 230 based on the crying sound of a specific baby received through the sound input unit 220 of the camera device 200. ) can control the specified projector operation.

상기 프로젝터 동작의 제어에 대한 제4 실시예에 따르면, 상기 프로젝터 제어부(255)는 상기 통신모듈(235)을 통해 지정된 무선단말(300)로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부(230)의 지정된 프로젝터 동작을 제어할 수 있다. 상기 무선단말(300)의 프로젝터 제어정보는 상기 무선단말(300)로부터 직접 수신되거나, 또는 상기 운영서버(100)를 통해 수신될 수 있다.According to the fourth embodiment of controlling the projector operation, the projector control unit 255 controls the projector unit 230 based on projector control information received from the designated wireless terminal 300 through the communication module 235. You can control designated projector operations. Projector control information of the wireless terminal 300 may be received directly from the wireless terminal 300 or may be received through the operation server 100.

본 발명의 실시 방법에 따르면, 상기 프로젝터 제어부(255)는 상기 프로젝터부(230)가 상기 램프의 빛 방사 방향에 지정된 형상이나 영상이 인화된 필름을 거치하는 필름 거치부를 포함하는 경우, 상기 램프의 온/오프 동작을 포함하는 프로젝터 동작을 제어할 수 있다.According to the method of implementing the present invention, the projector control unit 255 controls the lamp when the projector unit 230 includes a film holder for holding a film on which a shape or image designated in the light emission direction of the lamp is printed. Projector operations including on/off operation can be controlled.

또한, 본 발명의 실시 방법에 따르면, 상기 프로젝터 제어부(255)는 상기 프로젝터부(230)가 지정된 형상이나 영상이 인화된 복수의 필름을 보관하는 필름 보관부와, 상기 복수의 필름 중에서 선택된 어느 한 필름을 상기 램프의 빛 방사 방향에 거치하는 필름 거치부를 포함하는 경우, 상기 램프의 온/오프 동작과, 상기 필름 보관부에 보관된 복수의 필름 중 어느 한 필름을 선택하여 상기 필름 거치부에 거치하는 동작을 포함하는 프로젝터 동작을 제어할 수 있다.In addition, according to the method of carrying out the present invention, the projector control unit 255 includes a film storage unit for storing a plurality of films on which the projector unit 230 has a designated shape or image printed, and one selected from among the plurality of films. In the case of including a film holder that mounts a film in the light emission direction of the lamp, the on/off operation of the lamp is performed, and one of a plurality of films stored in the film storage unit is selected and placed on the film holder. You can control projector operations, including operations.

또한, 본 발명의 실시 방법에 따르면, 상기 프로젝터 제어부(255)는 상기 프로젝터부(230)가 상기 램프를 통해 투영되는 하나 이상의 동영상을 저장하는 동영상 저장부를 포함하는 경우, 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 할 수 있다.In addition, according to the method of carrying out the present invention, when the projector unit 230 includes a video storage unit that stores one or more videos projected through the lamp, the projector control unit 255 stores a plurality of videos stored in the video storage unit. You can select any one of the videos to project.

상기 프로젝터 제어부(255)는 상기 운영서버(100)에서 상기 오디오 데이터, 비디오 데이터, 동영상 데이터를 통해 특정 아기의 울음상태가 확인되면, f(f≥1)개의 형상이나 i(i≥0)개의 영상 중 지정된 투영 대상을 투영할 수 있다.When the operation server 100 confirms the crying state of a specific baby through the audio data, video data, and video data, the projector control unit 255 generates f (f ≥ 1) shapes or i (i ≥ 0) shapes. You can project a designated projection target among the images.

상기 사운드신호 처리부(260)는 상기 사운드 입력부(220)를 통해 상기 거점 내의 소리를 입력받은 사운드 신호가 획득되면, 획득된 사운드 신호를 지정 방식으로 엔코딩한 오디오 데이터를 생성하여 지정된 운영서버(100)로 전송할 수 있다.When the sound signal processing unit 260 obtains a sound signal inputting sound within the base through the sound input unit 220, the sound signal processing unit 260 generates audio data encoded in a designated manner and transmits the acquired sound signal to the designated operation server 100. It can be sent to .

또한, 상기 사운드신호 처리부(260)는 기 설정된 규칙에 따라 지정된 저장영역에 저장된 오디오 데이터를 추출하거나 상기 통신모듈(235)을 통해 지정된 운영서버(100)로부터 오디오 데이터를 수신하고, 상기 오디오 데이터를 디코딩하여 상기 사운드 출력부(225)를 통해 출력하도록 할 수 있다.In addition, the sound signal processing unit 260 extracts audio data stored in a designated storage area according to preset rules or receives audio data from the designated operation server 100 through the communication module 235, and stores the audio data. It can be decoded and output through the sound output unit 225.

상기 사운드신호 처리부(260)는 상기 운영서버(100)에서 상기 오디오 데이터, 비디오 데이터, 동영상 데이터를 통해 특정 아기의 울음상태가 확인되면, m(m≥1)개의 음악, s(s≥1)개의 소음, v(v≥1)개의 목소리 중 지정된 출력 대상을 출력할 수 있다.When the sound signal processing unit 260 confirms the crying state of a specific baby through the audio data, video data, and video data in the operation server 100, m (m ≥ 1) pieces of music, s (s ≥ 1) A designated output target can be output among dog noises and v(v≥1) voices.

상기 객체영역 인식부(265)는 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 수행할 수 있다.The object area recognition unit 265 reads the video data acquired through the camera module 210 and recognizes the object area corresponding to the baby (or the baby's face) or the cradle or blanket on which the baby is lying. can be performed.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 객체 영역이 인식되지 않는 경우 상기 구동모듈(215)을 통해 상기 카메라모듈(210)의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복할 수 있다.According to the implementation method of the present invention, when the object area is not recognized, the object area recognition unit 265 adjusts the shooting direction of the camera module 210 through the driving module 215 to a specified angle range in a specified direction. The process of recognizing the object area while separating may be repeated until recognition of the object area is successful or the separated angle range reaches the entire angle range.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 객체 영역이 인식된 경우 상기 인식된 객체 영역 상의 아기 안면 영역이 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈(210)의 촬영방향을 제어하거나, 상기 객체 영역이 인식된 경우 상기 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈(210)의 촬영방향을 제어할 수 있다.According to the implementation method of the present invention, when the object area is recognized, the object area recognition unit 265 uses the camera module 210 so that the baby's face area on the recognized object area is within a designated area on the video data. The camera module 210 controls the shooting direction, or tracks the movement or movement of the baby's facial area when the object area is recognized, and reacts to the movement or movement of the baby's facial area to exist within a designated area on the video data. ) You can control the shooting direction.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버(100)로부터 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영방향을 제어하여 상기 객체 영역을 인식하는 과정을 수행할 수 있다.According to the implementation method of the present invention, the object area recognition unit 265 receives acquisition data including video data acquired through the camera module 210 from the operation server 100 through the driving module. Receives shooting direction control information that sets the shooting direction of the module 210 apart by a specified angle range in a designated direction, and controls the shooting direction of the camera module 210 through the drive module based on the shooting direction control information. A process of recognizing the object area can be performed.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버(100)로부터 상기 구동모듈을 통해 상기 비디오 데이터 상의 지정된 영역 내에 아기 안면 영역이 존재하도록 상기 카메라모듈(210)의 촬영 방향을 제어하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영방향을 제어하여 상기 객체 영역을 인식하는 과정을 수행할 수 있다.According to the implementation method of the present invention, the object area recognition unit 265 receives the video data through the driving module from the operation server 100, which receives acquisition data including video data acquired through the camera module 210. Receives shooting direction control information that controls the shooting direction of the camera module 210 so that the baby's face area exists within a designated area on the data, and controls the camera module 210 through the drive module based on the shooting direction control information. The process of recognizing the object area can be performed by controlling the shooting direction.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 사운드 입력부(220)를 통해 아기의 울음소리가 인식되면, 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 시도하고, 상기 객체 영역이 인식되지 않는 경우 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복하도록 할 수 있다.According to the method of implementing the present invention, when the baby's cry is recognized through the sound input unit 220, the object area recognition unit 265 reads the video data acquired through the camera module 210 and reads the baby ( Or, attempt to recognize an object area corresponding to the baby's face) or the cradle or blanket on which the baby is lying, and if the object area is not recognized, the shooting direction of the camera module 210 is determined through the drive module. The process of recognizing the object area while spaced apart by a specified angle range in a specified direction may be repeated until recognition of the object area is successful or the spaced angle range reaches the entire angle range.

만약 상기 울음소리가 인식된 아기에 대응하는 객체 영역이 인식된 경우, 상기 인식된 객체 영역 상의 아기 안면 영역이 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈(210)의 촬영방향을 제어하거나, 상기 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈(210)의 촬영방향을 제어하여 객체 영역을 인식할 수 있다.If the object area corresponding to the baby whose crying sound was recognized is recognized, the shooting direction of the camera module 210 is controlled so that the baby's face area on the recognized object area is within a designated area of the video data, or The object area can be recognized by tracking the movement or movement of the baby's facial area and controlling the shooting direction of the camera module 210 to exist within a designated area on the video data in response to the movement or movement of the baby's facial area. there is.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 운영서버(100)로부터 제공받는 무선단말(300)로부터 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영방향을 제어하여 상기 객체 영역을 인식하는 과정을 수행할 수 있다. 여기서 상기 무선단말(300)의 촬영방향 제어정보는 상기 무선단말(300)로부터 직접 수신되거나, 또는 상기 운영서버(100)를 통해 수신될 수 있다.According to the implementation method of the present invention, the object area recognition unit 265 receives acquired data including video data acquired through the camera module 210 from the wireless terminal 300 provided by the operation server 100. Receives shooting direction control information that sets the shooting direction of the camera module 210 apart by a specified angle range in a specified direction through a driving module, and receives the camera module 210 through the driving module based on the shooting direction control information. The process of recognizing the object area can be performed by controlling the shooting direction. Here, the shooting direction control information of the wireless terminal 300 may be received directly from the wireless terminal 300, or may be received through the operation server 100.

본 발명의 실시 방법에 따르면, 상기 객체영역 인식부(265)는 상기 카메라모듈(210)을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 운영서버(100)로부터 제공받는 무선단말(300)로부터 상기 구동모듈을 통해 상기 비디오 데이터 상의 지정된 영역 내에 아기 안면 영역이 존재하도록 상기 카메라모듈(210)의 촬영 방향을 제어하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈(210)의 촬영방향을 제어하여 상기 객체 영역을 인식하는 과정을 수행할 수 있다. 여기서 상기 무선단말(300)의 촬영방향 제어정보는 상기 무선단말(300)로부터 직접 수신되거나, 또는 상기 운영서버(100)를 통해 수신될 수 있다.According to the implementation method of the present invention, the object area recognition unit 265 receives acquired data including video data acquired through the camera module 210 from the wireless terminal 300 provided by the operation server 100. Receives shooting direction control information that controls the shooting direction of the camera module 210 so that the baby's face area exists within a designated area of the video data through a driving module, and receives shooting direction control information through the driving module based on the shooting direction control information. The process of recognizing the object area can be performed by controlling the shooting direction of the camera module 210. Here, the shooting direction control information of the wireless terminal 300 may be received directly from the wireless terminal 300, or may be received through the operation server 100.

도면3은 본 발명의 실시 방법에 따른 운영서버와 통신하는 보호자 무선단말과 앱의 기능 구성을 도시한 도면이다.Figure 3 is a diagram showing the functional configuration of the guardian's wireless terminal and app that communicates with the operating server according to the implementation method of the present invention.

보다 상세하게 본 도면3은 운영서버(100)로부터 카메라장치(200)를 통해 촬영되는 특정 아기의 울음상태를 알리는 알림정보를 수신하거나, 상기 운영서버(100)와 연동하여 상기 운영서버(100)에 저장된 오디오 데이터를 수신하여 출력하거나, 사운드 입력부를 통해 입력되어 엔코딩된 사운드 데이터를 상기 운영서버(100)를 통해 상기 카메라장치(200)로 제공하여 출력하도록 하는 무선단말(300)의 기능과, 상기 무선단말(300)에 설치되는 앱(355)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 무선단말(300)의 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면3의 무선단말(300)은 각종 이동통신단말, 각종 휴대폰, 각종 스마트폰, 각종 태블릿PC 중 적어도 하나를 포함할 수 있다.In more detail, Figure 3 shows that notification information indicating the crying state of a specific baby captured through the camera device 200 is received from the operation server 100, or the operation server 100 is operated in conjunction with the operation server 100. A function of the wireless terminal 300 to receive and output audio data stored in the sound input unit or to provide and output encoded sound data input through the sound input unit to the camera device 200 through the operation server 100, This shows the configuration of the app 355 installed in the wireless terminal 300, and those skilled in the art will refer to and/or modify Figure 3 to configure the wireless terminal 300. ), various implementation methods for the function can be inferred, but the present invention includes all of the above inferred implementation methods, and its technical features are not limited to only the implementation method shown in Figure 3. Preferably, the wireless terminal 300 of Figure 3 may include at least one of various mobile communication terminals, various mobile phones, various smartphones, and various tablet PCs.

도면3을 참조하면, 상기 무선단말(300)은 제어부(305)와 메모리부(350)와 화면 출력부(310)와 사용자 입력부(315)와 사운드 입력부(320)와 사운드 출력부(325)와 카메라부(330)와 무선망 통신부(335)와 근거리망 통신부(340)와 USIM 리더부(345)를 구비하며, 전원 공급을 위한 배터리를 구비할 수 있다.Referring to Figure 3, the wireless terminal 300 includes a control unit 305, a memory unit 350, a screen output unit 310, a user input unit 315, a sound input unit 320, a sound output unit 325, and It is provided with a camera unit 330, a wireless network communication unit 335, a local area network communication unit 340, and a USIM reader unit 345, and may be provided with a battery for power supply.

상기 제어부(305)는 상기 무선단말(300)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성될 수 있으며, 상기 무선단말(300)에 구비된 각 구성부와 버스(BUS)를 통해 연결될 수 있다. 본 발명에 따르면, 상기 제어부(305)는 상기 프로세서를 통해 상기 무선단말(300)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 무선단말(300)의 동작을 제어할 수 있다. 이하, 편의상 프로그램코드 형태로 구현되는 본 발명의 앱(355)에 대응하는 구성을 본 제어부(305) 내에 도시하여 설명하기로 한다.The control unit 305 is a general term for components that control the operation of the wireless terminal 300, and may be configured to include at least one processor and an execution memory, and each component provided in the wireless terminal 300 It can be connected via a bus (BUS). According to the present invention, the control unit 305 loads at least one program code provided in the wireless terminal 300 into the execution memory through the processor and performs calculations, and outputs the result to at least one component through the bus. By transmitting it to the unit, the operation of the wireless terminal 300 can be controlled. Hereinafter, for convenience, the configuration corresponding to the app 355 of the present invention implemented in the form of program code will be illustrated and explained within the control unit 305.

상기 메모리부(350)는 상기 무선단말(300)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(305)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지할 수 있다. 상기 메모리부(350)는 기본적으로 상기 무선단말(300)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 무선단말(300)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장할 수 있으며, 본 발명의 앱(355)에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(350)에 저장될 수 있다.The memory unit 350 is a general term for non-volatile memory corresponding to the storage resources of the wireless terminal 300, and includes at least one program code executed through the control unit 305 and at least one program code used. Data sets can be saved and maintained. The memory unit 350 basically contains system program code and system data set corresponding to the operating system of the wireless terminal 300, communication program code and communication data set for processing the wireless communication connection of the wireless terminal 300, and at least One application program code and one application data set can be stored, and the program code and data set corresponding to the app 355 of the present invention can also be stored in the memory unit 350.

상기 화면 출력부(310)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 출력모듈을 포함하여 이루어지며, 상기 제어부(305)와 연동되어 상기 제어부(305)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력할 수 있다. The screen output unit 310 includes a screen output device (e.g., LCD (Liquid Crystal Display), etc.) and an output module that drives it, and is linked with the control unit 305 to produce various calculation results of the control unit 305. The calculation result corresponding to the middle screen output can be output to the screen output device.

상기 사용자 입력부(315)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(310)와 연동하는 터치스크린 등)와 이를 구동하는 입력모듈을 포함하여 이루어지며, 상기 제어부(305)와 연동되어 상기 제어부(305)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(305)의 연산에 필요한 데이터를 입력할 수 있다.The user input unit 315 includes one or more user input devices (e.g., buttons, keypads, touch pads, touch screens linked to the screen output unit 310, etc.) and an input module that drives them, and the control unit 305 ), a command for commanding various operations of the control unit 305 can be entered, or data necessary for the operation of the control unit 305 can be input.

상기 사운드 입력부(320)는 사운드신호를 입력받는 마이크로폰과 및 이를 구동하는 구동 모듈로 구성될 수 있으며, 마이크로폰을 통해 입력되는 사운드신호를 지정된 엔코딩(Encoding) 규칙에 따라 엔코딩하여 상기 제어부(305)로 전달할 수 있다. The sound input unit 320 may be composed of a microphone that receives a sound signal and a driving module that drives the sound signal, and encodes the sound signal input through the microphone according to specified encoding rules to the control unit 305. It can be delivered.

상기 사운드 출력부(325)는 사운드신호를 출력하는 스피커와 이를 구동하는 구동 모듈로 구성될 수 있으며, 상기 제어부(305)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력할 수 있다. The sound output unit 325 may be composed of a speaker that outputs a sound signal and a driving module that drives the speaker, and decodes sound data corresponding to the sound output among various operation results of the control unit 305. It can be output through speakers.

상기 카메라부(330)는 카메라 렌즈와 이미지센 및 이를 구동하는 카메라모듈을 포함하여 이루어지며, 자동초점 기능이나 손떨림보정 기능을 위한 액츄에이터(Actuator) 및/또는 각종 필터(예컨대, IR필터 등) 등을 더 포함하여 이루어진다. 바람직하게, 상기 카메라부(330)는 시선 방향의 피사체 중 지정된 화각 내의 피사체에 대한 광학 신호를 카메라 렌즈를 통해 입력받아 이미지센서를 통해 디지털화하여 영상데이터를 생성하여 제어부(305)로 제공할 수 있으며, 상기 액츄에이터를 통해 자동초점 기능이나 손떨림보정 기능을 제공하며, 적어도 하나의 필터를 통해 상기 영상데이터의 품질을 보정할 수 있다. The camera unit 330 includes a camera lens, an image sensor, and a camera module that drives them, and an actuator for an autofocus function or image stabilization function and/or various filters (e.g., IR filters, etc.). It further includes. Preferably, the camera unit 330 may receive an optical signal for a subject within a designated viewing angle among the subjects in the viewing direction through the camera lens, digitize it through an image sensor, generate image data, and provide it to the control unit 305. , an autofocus function or an image stabilization function is provided through the actuator, and the quality of the image data can be corrected through at least one filter.

상기 무선망 통신부(335)와 근거리망 통신부(340)는 상기 무선단말(300)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 무선단말(300)은 무선망 통신부(335)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(340)를 구비할 수 있다.The wireless network communication unit 335 and the local area network communication unit 340 are general names for communication resources that connect the wireless terminal 300 to a designated communication network. Preferably, the wireless terminal 300 may be equipped with a wireless network communication unit 335 as a basic communication resource and may be equipped with one or more local area network communication units 340.

상기 무선망 통신부(335)는 상기 무선단말(300)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(305)와 연결되어 상기 제어부(305)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(305)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(330)는 상기 무선단말(300)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.The wireless network communication unit 335 is a general term for communication resources that connect the wireless terminal 300 to a wireless communication network via a base station, and includes an antenna, RF module, baseband module, and signal that transmit and receive radio frequency signals in a specific frequency band. It is configured to include at least one processing module and is connected to the control unit 305 to transmit calculation results corresponding to wireless communication among various calculation results of the control unit 305 through a wireless communication network or receive data through a wireless communication network. and transmits it to the control unit 305, and simultaneously performs the wireless communication connection, registration, communication, and handoff procedures. According to the present invention, the wireless network communication unit 330 can connect the wireless terminal 300 to a communication network including a communication channel and a data channel via an exchange, and in some cases, packet communication without via the exchange. It can be connected to a data network that provides wireless network-based data communication (eg, the Internet).

본 발명의 실시 방법에 따르면, 상기 무선망 통신부(335)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(335)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(335)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(335)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.According to the implementation method of the present invention, the wireless network communication unit 335 performs at least one of connection to a mobile communication network, location registration, call processing, call connection, data communication, and handoff according to CDMA/WCDMA/LTE standards. Includes composition. Meanwhile, according to the intention of those skilled in the art, the wireless network communication unit 335 may further include a portable Internet communication configuration that performs at least one connection to the portable Internet, location registration, data communication, and handoff in accordance with the IEEE 802.16 related standard. It is clearly stated that the present invention is not limited by the wireless communication configuration provided by the wireless network communication unit 335. In other words, the wireless network communication unit 335 is a general term for a component that connects to a wireless communication network through a cell-based base station regardless of the frequency band of the wireless section or the type or protocol of the communication network.

상기 근거리망 통신부(340)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 무선단말(300)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 무선단말(300)을 통신망에 접속시킬 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(340)는 무선AP를 통해 상기 무선단말(300)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.The local area network communication unit 340 is a general term for communication resources that connects a communication session using radio frequency signals as a communication medium within a certain distance (e.g., 10 m) and connects the wireless terminal 300 to a communication network based on this. , Preferably, the wireless terminal 300 can be connected to a communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the present invention, the local area network communication unit 340 connects the wireless terminal 300 to a data network that provides short-range wireless data communication based on packet communication through a wireless AP.

상기 USIM 리더부(345)는 ISO/IEC 7816 규격을 기반으로 상기 무선단말(300)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.The USIM reader unit 345 is a general term for a configuration that exchanges at least one data set with a universal subscriber identity module mounted on or detached from the wireless terminal 300 based on the ISO/IEC 7816 standard. As, the data set is exchanged in half-duplex communication through APDU (Application Protocol Data Unit).

상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(345)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 무선단말(300)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.The USIM is a SIM-type card equipped with an IC chip according to the ISO/IEC 7816 standard, an input/output interface including at least one contact point connected to the USIM reader unit 345, and a program code for at least one IC chip. and an IC chip memory that stores the data set, and is connected to the input/output interface to calculate the program code for the IC chip or extract (or process) the data set according to at least one command transmitted from the wireless terminal 300. It includes a processor that transmits data to the input/output interface.

상기 무선단말(300)의 제어부(305)는 상기 통신 자원이 접속 가능한 데이터망을 통해 지정된 앱제공서버(예컨대, 애플사의 앱스토어 등)로부터 본 발명에 따른 무선단말(300)의 기능을 수행하기 위한 앱(355)을 다운로드하여 설치하는 과정을 수행할 수 있다. 한편 상기 무선단말(300)에 다운로드 설치된 앱(355)은 설치 후 최초 실행(또는 정보 등록 전 실행) 시 상기 무선단말(300)과 앱(355)의 조합(또는 상기 앱(355)을 설치한 무선단말(300), 또는 상기 무선단말(300)에 설치된 앱(355))을 고유한 매체로 식별하는 매체식별정보(예컨대, 디바이스토큰, UUID 등)를 생성하거나 지정된 운영서버(100)를 통해 할당받는 절차를 수행할 수 있으며, 상기 무선단말(300)과 앱(355)의 조합을 고유한 매체로 고유 식별하는 매체식별정보를 지정된 운영서버(100)에 등록하는 절차를 수행할 수 있다. The control unit 305 of the wireless terminal 300 performs the function of the wireless terminal 300 according to the present invention from a designated app providing server (e.g., Apple's App Store, etc.) through a data network to which the communication resource is accessible. You can perform the process of downloading and installing the app 355. Meanwhile, the app 355 downloaded and installed on the wireless terminal 300 is run for the first time after installation (or run before information registration) by combining the wireless terminal 300 and the app 355 (or installing the app 355). Media identification information (e.g., device token, UUID, etc.) that identifies the wireless terminal 300 or the app 355 installed on the wireless terminal 300 as a unique medium is generated or through a designated operation server 100. The allocation process can be performed, and the process of registering media identification information that uniquely identifies the combination of the wireless terminal 300 and the app 355 as a unique medium can be performed on the designated operation server 100.

한편 상기 무선단말(300)의 앱(355)은 상기 무선단말(300)을 고유 식별하는 무선단말정보(예컨대, 전화번호, IMSI, IMEI 등)를 지정된 운영서버(100)에 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(100)는 상기 매체식별정보와 상기 무선단말정보를 연계 저장하여 관리할 수 있다. 한편 상기 무선단말(300)의 앱(355)은 상기 앱(355)을 설치한 무선단말(300)의 사용자를 고유 식별하는 고유식별정보(예컨대, 주민등록번호, 고유ID(또는 회원ID), 성명, 생년월일 등)를 등록하는 절차를 수행할 수 있으며, 이 경우 상기 운영서버(100)는 상기 매체식별정보와 상기 사용자의 고유식별정보를 연계 저장하여 관리할 수 있다.Meanwhile, the app 355 of the wireless terminal 300 performs a procedure to register wireless terminal information (e.g., phone number, IMSI, IMEI, etc.) that uniquely identifies the wireless terminal 300 in the designated operation server 100. In this case, the operation server 100 can link and manage the media identification information and the wireless terminal information. Meanwhile, the app 355 of the wireless terminal 300 contains unique identification information (e.g., resident registration number, unique ID (or member ID), name, Date of birth, etc.) can be registered, and in this case, the operation server 100 can link and manage the media identification information and the user's unique identification information.

도면3을 참조하면, 상기 무선단말(300)의 앱(355)은, 운영서버(100)로부터 알림정보를 수신하는 알림정보 수신부(360)와, 운영서버(100)로부터 수신되는 오디오 데이터를 처리하는 오디오데이터 처리부(365)와, 운영서버(100)로 사운드데이터를 전송하는 사운드데이터 처리부(370)와, 운영서버(100)로 영상데이터를 전송하는 영상데이터 처리부(375)와, 상기 운영서버(100)와 연동하는 지정된 카메라장치(200)를 제어하는 장치 제어부(380)를 구비하여 구성될 수 있다.Referring to Figure 3, the app 355 of the wireless terminal 300 processes the notification information receiver 360, which receives notification information from the operation server 100, and the audio data received from the operation server 100. an audio data processing unit 365 that transmits sound data to the operation server 100, a sound data processing unit 370 that transmits sound data to the operation server 100, an image data processing unit 375 that transmits image data to the operation server 100, and the operation server It may be configured to include a device control unit 380 that controls a designated camera device 200 that interlocks with (100).

상기 알림정보 수신부(360)는 상기 운영서버(100)에서 특정 거점에 구비된 카메라장치를 통해 촬영되는 특정 아기의 울음상태가 확인되는 경우, 상기 운영서버(100)로부터 상기 특정 아기의 아기 울음상태를 알리는 알림정보를 수신할 수 있다.When the operation server 100 confirms the crying state of a specific baby photographed through a camera device installed at a specific base, the notification information receiving unit 360 detects the crying state of the specific baby from the operation server 100. You can receive notification information notifying you.

상기 오디오데이터 처리부(365)는 상기 운영서버(100)의 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 수신하여 사운드 출력부를 통해 출력되도록 처리할 수 있다.The audio data processing unit 365 may receive audio data stored in a specific storage area of the storage medium 145 of the operation server 100 and process it to be output through the sound output unit.

상기 사운드데이터 처리부(370)는 상기 사운드 입력부를 입력되어 엔코딩된 사운드 데이터를 상기 운영서버(100)로 전송하여 상기 카메라장치의 사운드 출력부를 통해 출력되도록 처리할 수 있다. 또한 상기 사운드 입력부를 통해 입력된 사운드 데이터 또는 상기 메모리부에 저장된 사운드 데이터를 상기 운영서버(100)로 전송하여 상기 카메라장치(200)의 사운드 출력부(225)를 통해 출력되도록 처리하거나, 상기 카메라장치(200)와 직접 통신하여 상기 카메라장치(200)의 사운드 출력부(225)를 통해 출력되도록 처리할 수 있다.The sound data processing unit 370 may transmit the encoded sound data input from the sound input unit to the operation server 100 and process it to be output through the sound output unit of the camera device. In addition, sound data input through the sound input unit or sound data stored in the memory unit is transmitted to the operation server 100 and processed to be output through the sound output unit 225 of the camera device 200, or the camera It can be processed to be output through the sound output unit 225 of the camera device 200 by directly communicating with the device 200.

상기 영상데이터 처리부(375)는 상기 카메라부를 통해 촬영된 영상 데이터 또는 상기 메모리부에 저장된 영상 데이터를 상기 운영서버(100)로 전송하여 상기 카메라장치(200)의 프로젝터부를 통해 투영하여 출력되도록 처리할 수 있다.The image data processing unit 375 transmits the image data captured through the camera unit or the image data stored in the memory unit to the operation server 100 and processes it to be projected and output through the projector unit of the camera device 200. You can.

상기 장치 제어부(380)는 지정된 카메라장치(200)를 제어하기 위한 제어정보를 입력 또는 선택받아 상기 운영서버(100)를 통해 상기 카메라장치(200)로 전송하도록 하거나, 또는 상기 제어정보를 상기 카메라장치(200)와 직접 통신하여 전송할 수 있다.The device control unit 380 receives or selects control information for controlling a designated camera device 200 and transmits it to the camera device 200 through the operation server 100, or transmits the control information to the camera device 200. It can be transmitted by directly communicating with the device 200.

본 발명에 따르면, 상기 제어정보는 상기 카메라장치(200)에 구비된 프로젝터를 제어하기 위한 프로젝터 제어정보를 포함할 수 있다.According to the present invention, the control information may include projector control information for controlling a projector provided in the camera device 200.

또한, 상기 제어정보는 상기 카메라장치(200)에 구비된 카메라모듈의 촬영방향을 제어하기 위한 촬영방향 제어정보를 포함할 수 있다.Additionally, the control information may include shooting direction control information for controlling the shooting direction of the camera module provided in the camera device 200.

도면4는 본 발명의 실시 방법에 따른 아기 울음소리를 인식하여 아기 울음상태를 확인하는 과정을 도시한 도면이다.Figure 4 is a diagram showing the process of recognizing the baby's crying sound and confirming the baby's crying state according to the implementation method of the present invention.

보다 상세하게 본 도면4는 사운드 입력부와 사운드 출력부 및 카메라모듈을 구비하고 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 구비하여 지정된 거점에 구비된 카메라장치(200)와 통신하는 운영서버(100)에서 상기 카메라장치(100)를 통해 입력되거나 촬영된 상기 거점 내의 특정 아기의 오디오 데이터와 비디오 데이터를 수신하여 저장하고, 상기 오디오 데이터를 판독하여 상기 아기의 울음소리를 인식하여 아기의 울음상태를 확인하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 아기 울음소리를 인식하여 아기 울음상태를 확인하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 4 shows an operation server ( In 100), audio data and video data of a specific baby in the base input or photographed through the camera device 100 are received and stored, and the audio data is read to recognize the baby's crying sound to determine the baby's crying state. It shows the process of confirming, and those of ordinary skill in the technical field to which the present invention pertains will refer to and/or modify Figure 4 to learn about the process of recognizing the baby's cry and confirming the baby's crying state. Although various implementation methods (e.g., implementation methods in which some steps are omitted or the order is changed) can be inferred, the present invention includes all of the above inferred implementation methods, and only the implementation method shown in Figure 4 is used. Its technical features are not limited.

도면4를 참조하면, 사운드 입력부와 사운드 출력부 및 카메라모듈을 구비하고 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 구비하여 지정된 거점에 구비된 카메라장치(200)와 통신하는 운영서버(100)에서 지정된 운영D/B(140)에 상기 카메라장치를 이용한 서비스를 관리하기 위한 고유정보를 저장한다(400). Referring to Figure 4, an operation server (100) is equipped with a sound input unit, a sound output unit, and a camera module, and has a projector unit that projects a designated shape or image onto the ceiling or wall, and communicates with a camera device 200 installed at a designated base. ) stores unique information for managing the service using the camera device in the designated operation D/B (140) (400).

또한, 상기 운영서버(100)는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자에게 연락하기 위한 보호자 무선단말 정보를 지정된 운영D/B(105)에 저장할 수 있으며, 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자가 소지한 보호자 무선단말(300)의 앱과 통신하기 위한 고유식별정보를 지정된 운영D/B(140)에 저장할 수 있다.In addition, the operation server 100 can store guardian wireless terminal information for contacting the guardian of a specific baby captured through the camera device 200 in the designated operation D/B 105, and the camera device 200 ), the unique identification information for communicating with the app of the guardian wireless terminal 300 possessed by the guardian of a specific baby photographed through ) can be stored in the designated operation D/B 140.

카메라장치(200)는 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩한 비디오 데이터를 생성하고(405), 사운드 입력부를 통해 입력되어 지정된 방식으로 엔코딩한 오디오 데이터를 생성하여(410), 상기 생성된 비디오 데이터 및 오디오 데이터를 상기 운영서버(100)로 전송한다(415).The camera device 200 captures a specific baby within the base through a camera module and generates video data encoded in a designated manner (405), and audio data input through a sound input unit and encoded in a designated manner is generated (410). ), the generated video data and audio data are transmitted to the operation server 100 (415).

상기 운영서버(100)는 상기 카메라장치(200)의 사운드 입력부를 통해 입력되어 지정된 방식으로 엔코딩된 오디오 데이터와 상기 카메라장치(200)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리한다(420).The operation server 100 captures audio data input through the sound input unit of the camera device 200 and encoded in a designated manner, and a specific baby within the base through the camera module of the camera device 200, and encodes the audio data in a designated manner. Encoded video data is received and stored and managed in a specific storage area of the designated storage medium 145 (420).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 카메라장치(200)로부터 상기 오디오 데이터와 비디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리하는 과정을 유지할 수 있다.According to the implementation method of the present invention, the operation server 100 receives video data including the audio data and video data from the camera device 200 and stores and manages the video data including the audio data and video data in a specific storage area of the designated storage medium 145. You can maintain the course.

또한, 본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 카메라장치(200)로부터 상기 오디오 데이터와 비디오 데이터를 제각기 수신하여 지정된 저장매체(145)의 특정 저장영역에 저장 관리하는 과정을 유지할 수 있으며, 상기 데이터 관리부(110)는 상기 카메라장치(200)로부터 제각기 수신된 상기 오디오 데이터와 비디오 데이터의 시간을 동기화시켜 지정된 저장매체(145)의 특정 저장영역에 저장할 수 있다.In addition, according to the implementation method of the present invention, the operation server 100 receives the audio data and video data from the camera device 200 and stores them in a specific storage area of the designated storage medium 145. The data management unit 110 can synchronize the times of the audio data and video data received from the camera device 200 and store them in a specific storage area of the designated storage medium 145.

상기 오디오 데이터 및 비디오 데이터가 지정된 저장매체(145)의 특정 저장영역에 저장된 후, 상기 운영서버(100)는 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여(425), 지정된 아기 울음소리 주파수 대역에 포함되고 기 설정된 P(P≥1)개의 아기 울음소리 패턴 중 적어도 하나의 아기 울음소리 패턴과 기 설정된 유사도 범위 내에서 매칭된 상태의 소리를 기 설정된 유지시간 이상 유지하는 아기 울음소리를 인식하여 아기 울음상태를 확인한다(430).After the audio data and video data are stored in a specific storage area of the designated storage medium 145, the operation server 100 reads the audio data stored in the specific storage area of the storage medium 145 (425), Maintaining the sound that is included in the designated baby cry frequency band and matched within a preset similarity range with at least one of the P (P≥1) baby cry patterns among the preset baby cry patterns for more than a preset retention time. The baby's crying sound is recognized and the baby's crying condition is confirmed (430).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 아기 울음소리를 인식하면, 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 카메라장치를 통해 촬영되는 특정 아기의 안면 영역에 존재하는 지정 개수 이상의 특징점을 인식하고, 상기 인식된 특정 아기의 안면 영역의 특징점 간 기하학 관계를 분석하여 아기 울음상태에 대응하는 특징점 분포 패턴과 기 설정된 유사도 범위 내에서 매칭되는지 확인할 수 있으며, 상기 특정 아기의 안면 영역이 인식되면, 상기 아기 울음소리를 인식한 결과와 상기 특정 아기의 안면 영역을 인식한 결과를 조합하여 아기 울음상태를 확인할 수 있다.According to the implementation method of the present invention, when the operation server 100 recognizes the baby's cry, it reads video data received in real time from the camera device 200 and stored in a specific storage area of the storage medium 145. Recognizes a specified number of feature points or more in the facial area of a specific baby photographed through the camera device, analyzes the geometric relationship between feature points of the recognized facial area of the specific baby, and creates a feature point distribution pattern corresponding to the baby's crying state. You can check whether the match is within a preset similarity range, and when the facial area of the specific baby is recognized, the baby's crying state can be confirmed by combining the results of recognizing the baby's crying sound and the results of recognizing the facial area of the specific baby. there is.

도면5는 본 발명의 실시 방법에 따른 카메라장치를 통해 시각적 대응 조치 및 청각적 대응 조치를 실행하여 우는 아기를 달래는 과정을 도시한 도면이다.Figure 5 is a diagram illustrating the process of soothing a crying baby by executing visual and auditory response measures through a camera device according to the implementation method of the present invention.

보다 상세하게 본 도면5는 상기 도면4의 과정을 통해 상기 카메라장치(100)로부터 수신된 오디오 데이터를 판독하여 상기 아기의 울음소리를 인식하여 아기의 울음상태가 확인된 이후, 운영서버(100)에서 상기 확인된 울음상태에 대응하여 상기 카메라장치(200)의 사운드 출력부를 통한 청각적 대응 조치 및/또는 상기 카메라장치(200)의 프로젝터부를 통한 시각적 대응 조치를 실행하여 울음상태가 확인된 아기를 달래는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 카메라장치(200)를 통해 시각적 대응 조치 및 청각적 대응 조치를 실행하여 우는 아기를 달래는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 5 shows that after the baby's crying state is confirmed by reading the audio data received from the camera device 100 through the process of Figure 4 and recognizing the baby's crying, the operation server 100 In response to the confirmed crying state, auditory response measures through the sound output unit of the camera device 200 and/or visual response measures through the projector unit of the camera device 200 are implemented to determine the crying state of the baby. As an illustration of the soothing process, those skilled in the art will refer to and/or modify Figure 5 to execute visual and auditory response measures through the camera device 200. Thus, it may be possible to infer various implementation methods for the process of soothing a crying baby (for example, implementation methods in which some steps are omitted or the order is changed), but the present invention includes all the implementation methods inferred above, and the present invention includes all the implementation methods inferred above. The technical features are not limited to the implementation method shown in Figure 5.

도면5를 참조하면, 상기 도면4의 과정을 통해 아기의 울음상태가 확인된 이후, 운영서버(100)에서 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 아기 울음상태에 대응하여 설정된 울음상황 대응 규칙정보가 지정된 운영D/B(140)에 저장되어 있는지 확인한다(500). 여기서, 상기 울음상황 대응 규칙정보는 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함할 수 있다.Referring to Figure 5, after the baby's crying state is confirmed through the process of Figure 4, a crying situation is set in response to the baby's crying state of a specific baby photographed through the camera device 200 in the operation server 100. Check whether the response rule information is stored in the designated operation D/B (140) (500). Here, the crying situation response rule information may further include one or more response measures (or combinations of response measures) for each priority in addition to the response measures (or combination of response measures) of the highest priority.

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 지정된 운영D/B(140)에 상기 카메라장치(200)를 이용한 서비스를 관리하기 위한 고유정보가 저장되어 있는 경우, 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 아기 울음상태를 종료시키기 위한 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 포함하는 울음상황 대응 규칙정보가 상기 고유정보와 연계 저장되어 있는지 확인할 수 있다.According to the implementation method of the present invention, if unique information for managing a service using the camera device 200 is stored in the designated operation D/B 140, the operation server 100 stores the camera device ( 200), it is possible to check whether crying situation response rule information including the highest priority response action (or combination of response actions) to end the crying state of a specific baby being photographed is stored in connection with the unique information.

또한, 본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 특정한 대응 조치(또는 대응 조치의 조합)에 의해 종료된 아기 울음소리의 특징을 정성화(qualification) 및 정량화(quantification)하여 생성된 울음소리 특징 정보가 상기 특정한 대응 조치(또는 대응 조치의 조합)을 최우선 순위의 대응 조치(또는 대응 조치의 조합)로 포함하는 울음상황 대응 규칙정보와 연계 저장되어 있는지 확인할 수 있다.In addition, according to the implementation method of the present invention, the operation server 100 is a cry generated by qualifying and quantifying the characteristics of the baby's cry that is terminated by a specific response action (or a combination of response actions). It can be confirmed whether the sound characteristic information is stored in connection with crying situation response rule information that includes the specific response action (or combination of response actions) as the highest priority response action (or combination of response actions).

본 발명에 따르면, 상기 대응 조치는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자에게 연락하기 위한 보호자 무선단말 정보가 지정된 운영D/B(140)에 저장되어 있는 경우, 상기 보호자 무선단말 정보를 이용하여 상기 특정 아기의 보호자 무선단말(300)로 상기 특정 아기의 아기 울음상태를 알리는 알림정보를 발송하는 알림 대응 조치를 더 포함할 수 있다.According to the present invention, the countermeasure is carried out when the guardian wireless terminal information for contacting the guardian of a specific baby photographed through the camera device 200 is stored in the designated operation D/B (140), the guardian wireless terminal It may further include a notification response measure for sending notification information informing of the crying state of the specific baby to the guardian wireless terminal 300 of the specific baby using the information.

또한 본 발명에 따르면, 상기 대응 조치는 상기 카메라장치(200)를 통해 촬영되는 특정 아기의 보호자가 소지한 보호자 무선단말(300)의 앱과 통신하기 위한 고유식별정보가 지정된 운영D/B(140)에 저장되어 있는 경우, 상기 고유식별정보를 근거로 상기 보호자 무선단말(300)의 앱과 연동하여 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 상기 보호자 무선단말(300)의 사운드 출력부를 통해 출력되도록 처리하거나 상기 보호자 무선단말(300)의 사운드 입력부를 입력되어 엔코딩된 사운드 데이터를 상기 카메라장치(200)의 사운드 출력부를 통해 출력되도록 처리하는 보호자 연동 대응 조치를 더 포함할 수 있다. 여기서, 상기 보호자 연동 대응 조치는 상기 보호자 무선단말(300)의 앱과 연동하여 상기 보호자 무선단말(300)의 카메라부를 촬영된 영상 데이터를 상기 카메라장치(200)의 프로젝터부를 통해 투영하여 출력되도록 처리하는 대응 조치를 더 포함할 수 있다.In addition, according to the present invention, the countermeasure is an operation D/B (140) with unique identification information designated for communicating with the app of the guardian wireless terminal 300 possessed by the guardian of a specific baby photographed through the camera device 200. ), the audio data stored in a specific storage area of the storage medium 145 is linked to the app of the guardian wireless terminal 300 based on the unique identification information. It may further include a guardian interlocking response measure that processes the encoded sound data to be output through the sound output unit or input to the sound input unit of the guardian wireless terminal 300 so that it is output through the sound output unit of the camera device 200. there is. Here, the guardian interlocking response measures process image data captured by the camera unit of the guardian wireless terminal 300 in conjunction with the app of the guardian wireless terminal 300 to be projected and output through the projector unit of the camera device 200. Additional countermeasures may be included.

상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장된 경우, 상기 운영서버(100)는 상기 저장된 울음상황 대응 규칙에 따라 상기 카메라장치(200)의 프로젝터부를 통해 f개의 형상이나 i개의 영상 중 지정된 투영 대상을 투영하는 시각적 대응 조치와 상기 카메라장치(200)의 사운드 출력부를 통해 m개의 음악, s개의 소음, v개의 목소리 중 지정된 출력 대상을 출력하는 청각적 대응 조치를 확인하고(505), 상기 확인된 대응 조치 중 상기 특정 아기에게 최우선 순위로 설정된 대응 조치(또는 대응 조치의 조합)를 확인하여 실행한다(510).When rule information for responding to crying situations of a specific baby is stored in the operating D/B (140), the operating server (100) projects f shapes through the projector unit of the camera device (200) according to the stored crying situation responding rules. Check visual countermeasures for projecting a designated projection target among i images and auditory countermeasures for outputting a designated output target among m music, s noise, and v voices through the sound output unit of the camera device 200. (505), and among the confirmed response measures, the response measure (or combination of response measures) set as the highest priority for the specific baby is confirmed and executed (510).

여기서, 상기 대응 조치는 상기 우는 아기가 바라볼 수 있도록 상기 카메라장치(200)에 구비된 프로젝터를 통해 지정된 형상, 영상, 동영상 중 어느 하나를 상기 거점 내의 천정이나 벽면에 투영하는 것을 포함할 수 있다.Here, the countermeasure may include projecting any one of a designated shape, image, or video onto the ceiling or wall within the base through a projector provided in the camera device 200 so that the crying baby can view it. .

반면, 상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장되지 않은 것으로 확인되면, 상기 운영서버(100)는 기 설정된 공통 대응 규칙에 따라 상기 카메라장치(200)의 프로젝터부를 통해 f(f≥1)개의 형상이나 i(i≥0)개의 영상 중 지정된 투영 대상을 투영하는 시각적 대응 조치와 상기 카메라장치의 사운드 출력부를 통해 m(m≥1)개의 음악, s(s≥1)개의 소음, v(v≥1)개의 목소리 중 지정된 출력 대상을 출력하는 청각적 대응 조치 중 기 설정된 대응 조치(또는 대응 조치의 조합)를 지정된 순서에 따라 일정 시간씩 순차(또는 조합) 실행한다(515).On the other hand, if it is confirmed that the specific baby's crying situation response rule information is not stored in the operation D/B (140), the operation server (100) operates the projector of the camera device (200) according to a preset common response rule. Visual countermeasures for projecting a designated projection target among f(f≥1) shapes or i(i≥0) images through the unit and m(m≥1) pieces of music, s(s) through the sound output unit of the camera device. Among the auditory response measures that output the designated output target among ≥1) noises and v(v≥1) voices, preset response measures (or a combination of response measures) are sequentially performed (or combined) for a certain period of time in a specified order. Execute (515).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 울음상황 대응 규칙정보기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함하고, 상기 운영D/B(140)에 상기 특정 아기의 울음상황 대응 규칙정보가 저장된 경우, 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 지정된 시간 동안 실행하면서 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 아기 울음상태가 종료되는지 확인할 수 있다.According to the implementation method of the present invention, the operation server 100 takes one or more response measures (or a combination of response measures) for each priority in addition to the response measure (or combination of response measures) of the highest priority in the crying situation response rule information device. It further includes, when rule information for responding to a crying situation of the specific baby is stored in the operation D/B 140, the camera device 200 while executing the highest priority response action (or combination of response actions) for a specified time. ) It is possible to check whether the baby's crying state ends in response to the implemented countermeasure (or combination of countermeasures) by reading the audio data received in real time and stored in a specific storage area of the storage medium 145.

그리고, 상기 운영서버(100)는 지정된 순위의 대응 조치(또는 대응 조치의 조합)를 실행 한 후 지정된 시간 내에 상기 아기 울음상태가 종료되지 않는 경우 다음 순위의 대응 조치(또는 대응 조치의 조합)을 지정된 시간 동안 실행하면서 상기 카메라장치(200)로부터 실시간 수신되어 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 아기 울음상태가 종료되는지 확인하는 과정을 마지막 순위까지 반복할 수 있다.In addition, if the baby's crying state does not end within the specified time after executing the response measure (or combination of response measures) of the designated priority, the operation server 100 executes the response measure (or combination of response measures) of the next priority. While executing for a specified time, the audio data received in real time from the camera device 200 and stored in a specific storage area of the storage medium 145 is read, and the baby responds to the implemented countermeasure (or combination of countermeasures). The process of checking whether the crying state ends can be repeated up to the last rank.

한편, 본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 대응 조치(또는 대응 조치의 조합) 실행 시, 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 아기 울음소리 외에 상기 특정 아기의 아기 울음상태를 해소하기 위해 발화되는 보호자의 달래기 음성을 인식할 수 있으며, 상기 달래기 음성을 인식한 경우 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료할 수 있다.Meanwhile, according to the implementation method of the present invention, when executing the countermeasure (or combination of countermeasures), the operation server 100 reads audio data stored in a specific storage area of the storage medium 145 and In addition to the crying sound, the guardian's soothing voice uttered to relieve the crying state of the specific baby can be recognized, and when the soothing voice is recognized, the execution of the response action (or combination of response actions) can be terminated. .

또한, 본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 대응 조치(또는 대응 조치의 조합) 실행 시, 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 특정 아기의 아기 울음상태를 해소하기 위한 보호자의 달래기 동작을 인식할 수 있으며, 상기 달래기 동작을 인식한 경우 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료할 수 있다.In addition, according to the implementation method of the present invention, when executing the countermeasure (or combination of countermeasures), the operation server 100 reads video data stored in a specific storage area of the storage medium 145 and The guardian's soothing motion to relieve the baby's crying state can be recognized, and when the soothing motion is recognized, the execution of the countermeasure (or combination of countermeasures) can be terminated.

상기 특정 아기에게 설정된 대응 조치(또는 대응 조치의 조합)가 확인되어 실행된 후, 상기 운영서버(100)는 상기 카메라장치(200)를 통해 지정된 대응 조치(또는 대응 조치의 조합)가 실행되는 동안 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 아기 울음소리가 인식되면(520), 상기 인식된 아기 울음소리를 근거로 상기 실행된 대응 조치(또는 대응 조치의 조합)에 반응하여 상기 특정 아기의 아기 울음상태가 종료되는지 확인한다(525).After the response measure (or combination of response measures) set for the specific baby is confirmed and executed, the operation server 100 operates while the response measure (or combination of response measures) specified through the camera device 200 is executed. When a baby's cry is recognized by reading audio data stored in a specific storage area of the storage medium 145 (520), the executed response action (or combination of response actions) is taken based on the recognized baby's cry. In response, it is confirmed whether the crying state of the specific baby ends (525).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 카메라장치(200)를 통해 지정된 대응 조치가 실행되는 동안 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 인식된 특정 아기의 안면 영역의 특징점 간 변화 패턴을 분석하여 상기 실행된 대응 조치(또는 대응 조치의 조합)에 시각 또는 청각적으로 반응하는 지정된 표정 변화를 인식할 수 있으며, 상기 지정된 표정 변화를 인식한 경우, 상기 아기 울음소리를 인식한 결과와 상기 표정 변화를 인식한 결과를 조합하여 상기 특정 아기의 아기 울음상태가 종료되는지 확인할 수 있다.According to the implementation method of the present invention, the operation server 100 reads and recognizes video data stored in a specific storage area of the storage medium 145 while a specified response action is executed through the camera device 200. By analyzing the pattern of changes between feature points in the facial area of a specific baby, it is possible to recognize a specified facial expression change that visually or auditorily responds to the executed response action (or a combination of response actions), and when the specified facial expression change is recognized. , by combining the results of recognizing the baby's crying sound and the results of recognizing the facial expression change, it can be confirmed whether the crying state of the specific baby has ended.

상기 특정 아기의 아기 울음상태가 종료되는지 확인되면, 상기 운영서버(100)는 지정된 시간 내에 상기 대응 조치(또는 대응 조치의 조합)의 실행을 종료한다(530).When it is confirmed that the crying state of the specific baby has ended, the operation server 100 ends execution of the response action (or combination of response actions) within a specified time (530).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 아기 울음상태가 종료된 경우 상기 아기 울음상태를 종료시킨 특정한 대응 조치(또는 대응 조치의 조합)의 종류와 실행 시간을 포함하는 대응 조치 이력정보를 구성하여 운영D/B(140)에 저장하고, 상기 운영D/B(140)에 저장된 복수의 대응 조치 이력정보를 분석하여 상기 특정 아기의 아기 울음상태를 종료시키기 위한 최우선 순위의 대응 조치(또는 대응 조치의 조합)를 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, when the baby's crying state is terminated, the operation server 100 takes response measures including the type and execution time of a specific response action (or combination of response measures) that terminated the baby's crying state. History information is configured and stored in the operation D/B (140), and the plurality of response action history information stored in the operation D/B (140) is analyzed to provide the highest priority response to end the baby crying state of the specific baby. Crying situation response rule information including actions (or a combination of response actions) can be created and stored in the operation DB 140.

또한, 상기 운영서버(100)는 상기 저장매체(145)의 특정 저장영역에 저장되는 오디오 데이터를 판독하여 상기 아기 울음소리 외에 상기 특정 아기의 아기 울음상태를 해소하기 위해 발화되는 보호자의 달래기 음성을 인식할 수 있으며, 상기 달래기 음성을 인식한 경우 상기 대응 조치 이력정보의 저장 과정을 생략할 수 있다.In addition, the operating server 100 reads audio data stored in a specific storage area of the storage medium 145 and provides a guardian's soothing voice uttered to relieve the crying state of the specific baby in addition to the baby's crying sound. When the soothing voice is recognized, the process of storing the response action history information can be omitted.

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 저장매체(145)의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 상기 특정 아기의 아기 울음상태를 해소하기 위한 보호자의 달래기 동작을 인식할 수 있으며, 상기 달래기 동작을 인식한 경우 상기 대응 조치 이력정보의 저장 과정을 생략할 수 있다.According to the implementation method of the present invention, the operation server 100 reads video data stored in a specific storage area of the storage medium 145 and recognizes the guardian's soothing operation to relieve the crying state of the specific baby. In addition, if the appeasement action is recognized, the process of storing the response action history information can be omitted.

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 운영D/B(140)에 저장된 복수의 대응 조치 이력정보를 분석하여 상기 특정 아기의 아기 울음상태를 종료시킨 대응 조치(또는 대응 조치의 조합)를 분류하고 종료 횟수를 기준으로 정렬하여 상기 특정 아기의 아기 울음상태를 가장 많이 종료시킨 대응 조치(또는 대응 조치의 조합)를 최우선 순위의 대응 조치(또는 대응 조치의 조합)로 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the operation server 100 analyzes a plurality of response action history information stored in the operation D/B 140 and takes response measures (or response actions) to end the baby crying state of the specific baby. The response measures (or combination of response measures) that terminated the baby's crying state for the specific baby the most were classified and sorted based on the number of terminations, and the response measures (or combination of response measures) that resulted in the most termination of the baby's crying state for the specific baby were included as the highest priority response measures (or combination of response measures). Crying situation response rule information can be created and stored in the operation D/B (140).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)를 더 포함하는 울음상황 대응 규칙정보를 생성할 수 있다.According to the implementation method of the present invention, the operation server 100 responds to a crying situation by further including one or more response measures (or combinations of response measures) for each priority in addition to the response measures (or combination of response measures) of the highest priority. Rule information can be created.

본 발명의 실시 방법에 따르면, 상기 대응 조치 이력정보는 각 대응 조치(또는 대응 조치의 조합)에 의해 종료된 아기 울음소리를 포함하는 오디오 데이터를 더 포함할 수 있으며, 상기 운영서버(100)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)에 대응하는 대응 조치 이력정보의 오디오 데이터에 포함된 아기 울음소리의 특징을 정성화(qualification) 및 정량화(quantification)하여 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)에 의해 종료된 최우선 순위의 울음소리 특징 정보를 생성하고, 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합)과 상기 생성된 최우선 순위의 울음소리 특징 정보를 연계 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the response action history information may further include audio data including a baby's cry that was terminated by each response action (or combination of response actions), and the operation server 100 Qualify and quantify the characteristics of the baby's cry included in the audio data of the response action history information corresponding to the highest priority response action (or combination of response actions) and take the highest priority response action (or A crying situation that generates high-priority crying sound characteristic information terminated by a combination of response measures, and links the high-priority response action (or combination of response measures) with the generated high-priority crying sound characteristic information. Corresponding rule information can be created and stored in the operation DB (140).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 상기 최우선 순위의 대응 조치(또는 대응 조치의 조합) 이외에 하나 이상의 각 순위 별 대응 조치(또는 대응 조치의 조합)에 대응하는 대응 조치 이력정보의 오디오 데이터에 포함된 아기 울음소리의 특징을 정성화 및 정량화하여 각 순위 별 대응 조치(또는 대응 조치의 조합)에 의해 종료된 각 순위 별 울음소리 특징 정보를 생성할 수 있으며, 각 순위 별 대응 조치(또는 대응 조치의 조합)과 상기 생성된 각 순위 별 울음소리 특징 정보를 더 포함하는 울음상황 대응 규칙정보를 생성하여 상기 운영D/B(140)에 저장할 수 있다.According to the implementation method of the present invention, the operation server 100 provides response action history information corresponding to one or more response actions (or combinations of response actions) for each priority in addition to the response action (or combination of response actions) of the highest priority. By quarantining and quantifying the characteristics of the baby's cry contained in the audio data, it is possible to generate crying sound characteristic information for each rank, completed by response actions (or a combination of response actions) for each rank, and response actions for each rank. Crying situation response rule information further including (or a combination of response measures) and crying sound characteristic information for each generated rank may be generated and stored in the operation D/B 140.

100 : 운영서버 105 : 정보 저장부
110 : 데이터 관리부 115 : 상태 확인부
120 : 정보 확인부 125 : 대응조치 실행부
130 : 대응조치 반응부 135 : 실행 종료부
140 : 운영D/B 145 : 저장매체
200 : 카메라장치 300 : 사용자 무선단말
100: operating server 105: information storage unit
110: data management unit 115: status confirmation unit
120: Information confirmation department 125: Response action implementation department
130: response action response unit 135: execution end unit
140: Operation D/B 145: Storage medium
200: Camera device 300: User wireless terminal

Claims (19)

지정된 거점에 존재하는 아기를 촬영하기 위해 상기 거점 내에 구비되는 카메라장치에 있어서,
상기 거점 내의 아기를 촬영한 영상 신호를 획득하는 카메라모듈;
상기 카메라모듈의 촬영 방향을 상/하/좌/우 지정된 방향으로 지정된 각도 범위 내로 구동하는 구동모듈;
지정된 통신망을 통해 지정된 운영서버와 통신하는 통신모듈;
램프를 통해 투영되는 하나 이상의 동영상을 저장하는 동영상 저장부를 포함하며, 제어모듈의 제어에 따라 램프를 이용하여 지정된 동영상을 거점 내의 천정이나 벽면에 선택적으로 투영하는 프로젝터부; 및
상기 카메라모듈을 통해 획득된 영상 신호를 지정 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버로 전송하는 기능을 수행하고, 상기 통신모듈을 통해 지정된 운영서버로부터 수신된 프로젝터 제어정보를 근거로 상기 프로젝터부의 지정된 프로젝터 동작을 제어하는 기능을 수행하는 제어모듈;을 포함하며,
상기 프로젝터 동작은, 상기 램프의 온/오프 동작과, 상기 동영상 저장부에 저장된 복수의 동영상 중 어느 한 동영상을 선택하여 투영하도록 하는 것을 특징으로 하며,
상기 제어모듈은,
상기 카메라모듈을 통해 획득되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체 영역을 인식하는 과정을 시도하고,
상기 객체 영역이 인식되지 않는 경우 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체 영역을 인식하는 과정을 상기 객체 영역의 인식이 성공하거나 상기 이격되는 각도 범위가 전 각도 범위에 도달할 때까지 반복하는 기능을 수행하고, 상기 객체 영역이 인식된 경우 아기 안면 영역의 움직임이나 이동을 추적하고, 상기 아기 안면 영역의 움직임이나 이동에 반응하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
In the camera device provided in the designated base to photograph the baby present at the designated base,
A camera module that acquires an image signal of a baby in the base;
A driving module that drives the camera module in a designated up/down/left/right direction within a designated angle range;
A communication module that communicates with a designated operating server through a designated communication network;
a projector unit including a video storage unit that stores one or more videos projected through a lamp, and selectively projecting a designated video onto the ceiling or wall within the base using the lamp under the control of a control module; and
Performs the function of generating acquisition data including video data encoded in a designated manner from the video signal acquired through the camera module and transmitting it to the designated operation server through the communication module, and transmits it to the designated operation server through the communication module. It includes a control module that performs a function of controlling a designated projector operation of the projector unit based on received projector control information,
The projector operation is characterized by turning on/off the lamp and selecting and projecting one video among a plurality of videos stored in the video storage unit,
The control module is,
By reading the video data acquired through the camera module, an attempt is made to recognize an object area corresponding to the baby (or the baby's face) or the cradle or blanket on which the baby is lying,
If the object area is not recognized, the process of recognizing the object area is performed by spacing the shooting direction of the camera module in a designated direction by a specified angle range through the drive module. If the recognition of the object area is successful or the spaced angle range is performs a function that repeats until the entire angular range is reached, tracks the movement or movement of the baby's facial area when the object area is recognized, and responds to the movement or movement of the baby's facial area by A camera device equipped with a projector, characterized in that it performs a function of controlling the shooting direction of the camera module so that it exists within an area.
삭제delete 삭제delete 삭제delete 제 1항에 있어서, 상기 카메라모듈은,
피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부;
상기 렌즈부를 통해 입력되는 광신호를 검지하여 영상 신호로 변환하는 이미지 센서부;
상기 이미지 센서부를 통해 생성된 영상 신호를 상기 제어모듈로 제공하기 위한 인터페이스부;를 포함하여 이루어지는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
The method of claim 1, wherein the camera module:
One or more lens units that receive optical signals reflected from the subject;
an image sensor unit that detects an optical signal input through the lens unit and converts it into an image signal;
A camera device equipped with a projector, comprising an interface unit for providing an image signal generated through the image sensor unit to the control module.
삭제delete 제 5항에 있어서, 상기 카메라모듈은,
상기 렌즈부와 이미지 센서부 사이에서 야간에도 아기를 촬영하기 위한 적외선 필터부를 더 포함하여 이루어지는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
The method of claim 5, wherein the camera module:
A camera device equipped with a projector, further comprising an infrared filter unit between the lens unit and the image sensor unit for photographing the baby even at night.
제 1항에 있어서, 상기 통신모듈은,
유선 케이블을 통해 통신망 연결하는 유선 통신모듈,
무선랜을 통해 통신망 연결하는 무선랜 통신모듈 중 적어도 하나의 통신모듈을 포함하여 이루어지는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
The method of claim 1, wherein the communication module,
A wired communication module that connects to a communication network through a wired cable,
A camera device equipped with a projector, characterized in that it includes at least one communication module among wireless LAN communication modules that connect to a communication network through wireless LAN.
제 1항에 있어서,
상기 거점 내의 소리를 입력받은 사운드 신호를 획득하는 사운드 입력부를 더 포함하고,
상기 획득 데이터는, 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정 방식으로 엔코딩한 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
According to clause 1,
It further includes a sound input unit that acquires a sound signal that receives sound within the base,
The acquired data further includes audio data obtained by encoding the sound signal acquired through the sound input unit in a specified manner.
제 1항에 있어서,
지정된 오디오 데이터를 디코딩한 사운드 신호를 지정된 신호 출력 강도로 출력하는 사운드 출력부를 더 포함하고,
상기 제어모듈은, 기 설정된 규칙에 따라 지정된 저장영역에 저장된 오디오 데이터를 추출하거나 상기 통신모듈을 통해 지정된 운영서버로부터 오디오 데이터를 수신하거나, 상기 통신모듈을 통해 지정된 무선단말로부터 오디오 데이터를 수신하고, 상기 오디오 데이터를 디코딩하여 상기 사운드 출력부를 통해 출력하는 기능을 수행하는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
According to clause 1,
It further includes a sound output unit that outputs a sound signal decoded from specified audio data at a specified signal output intensity,
The control module extracts audio data stored in a designated storage area according to preset rules, receives audio data from a designated operating server through the communication module, or receives audio data from a designated wireless terminal through the communication module, A camera device equipped with a projector, characterized in that it performs a function of decoding the audio data and outputting it through the sound output unit.
제 10항에 있어서, 상기 신호 출력 강도는,
상기 카메라장치의 위치에서 상기 카메라모듈을 통해 촬영하는 거점 내의 아기 위치까지 상기 출력되는 사운드 신호를 지정된 신호 수신 강도 범위로 도달하게 계산된 신호 강도를 포함하여 이루어지는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
The method of claim 10, wherein the signal output intensity is:
A camera device equipped with a projector, characterized in that it includes a signal intensity calculated so that the output sound signal reaches a specified signal reception intensity range from the location of the camera device to the baby's location within the shooting base through the camera module. .
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서, 상기 제어모듈은,
상기 카메라모듈을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버로부터 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.
The method of claim 1, wherein the control module:
Receiving, through the drive module, from an operation server that receives acquisition data including video data acquired through the camera module, capturing direction control information that sets the capturing direction of the camera module apart by a specified angle range in a specified direction, A camera device equipped with a projector, characterized in that it performs a function of controlling the shooting direction of the camera module through the driving module based on shooting direction control information.
제 1항 또는 제 16항에 있어서, 상기 제어모듈은,
상기 카메라모듈을 통해 획득되는 비디오 데이터를 포함하는 획득 데이터를 제공받는 운영서버로부터 상기 구동모듈을 통해 상기 비디오 데이터 상의 지정된 영역 내에 아기 안면 영역이 존재하도록 상기 카메라모듈의 촬영 방향을 제어하는 촬영방향 제어정보를 수신하고, 상기 촬영방향 제어정보를 근거로 상기 구동모듈을 통해 상기 카메라모듈의 촬영방향을 제어하는 기능을 수행하는 것을 특징으로 하는 프로젝터가 구비된 카메라 장치.

The method of claim 1 or 16, wherein the control module,
A shooting direction control that controls the shooting direction of the camera module so that the baby's face area exists within a designated area of the video data through the driving module from an operation server that receives acquisition data including video data acquired through the camera module. A camera device equipped with a projector, characterized in that it receives information and performs a function of controlling the shooting direction of the camera module through the driving module based on the shooting direction control information.

삭제delete 삭제delete
KR1020180106254A 2018-09-06 2018-09-06 Camera Device with Projector KR102645453B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106254A KR102645453B1 (en) 2018-09-06 2018-09-06 Camera Device with Projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106254A KR102645453B1 (en) 2018-09-06 2018-09-06 Camera Device with Projector

Publications (2)

Publication Number Publication Date
KR20200028527A KR20200028527A (en) 2020-03-17
KR102645453B1 true KR102645453B1 (en) 2024-03-12

Family

ID=70003756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106254A KR102645453B1 (en) 2018-09-06 2018-09-06 Camera Device with Projector

Country Status (1)

Country Link
KR (1) KR102645453B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015107746A1 (en) 2014-01-17 2015-07-23 任天堂株式会社 Display system and display apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101584547B1 (en) * 2009-02-26 2016-01-12 엘지전자 주식회사 Mobile terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015107746A1 (en) 2014-01-17 2015-07-23 任天堂株式会社 Display system and display apparatus

Also Published As

Publication number Publication date
KR20200028527A (en) 2020-03-17

Similar Documents

Publication Publication Date Title
KR102645447B1 (en) Method for Registering Camera Device
KR20200028532A (en) Camera Device with Function of Projection
KR102645453B1 (en) Camera Device with Projector
KR20210081459A (en) Camera Device for Responding Pet Crying Sound
KR20210080701A (en) Method for Soothing Crying Pet by Using Camera Device
KR20200028540A (en) Projector Control Type Camera Device
KR102529725B1 (en) Method for Soothing Crying Baby by Using Camera Device
KR102645462B1 (en) Method for Providing Moving Picture Summary
KR102645451B1 (en) Method for Setting-up Camera Device by Using Mobile Device
KR20200028533A (en) Camera Device with Function of Projection
KR20200028534A (en) Camera Device with Function of Projection
KR20200028535A (en) Camera Device with Function of Projection
KR20200028523A (en) Method for Making Baby Album by Using Camera Device
KR20200028536A (en) Camera Device for Responding Baby Crying Sound
KR20200028538A (en) Camera Device for Responding Baby Crying Sound
KR20200028537A (en) Camera Device for Responding Baby Crying Sound
KR20200028530A (en) Camera Device with Projector
KR20210081458A (en) Camera Device for Responding Pet Crying Sound
KR20200028528A (en) Camera Device with Projector
KR20200028539A (en) Camera Device for Responding Baby Crying Sound
KR20200028541A (en) Projector Control Type Camera Device
KR20210081455A (en) Camera Device with Function of Projection for Pet
KR20200028542A (en) Projector Control Type Camera Device
KR20200028531A (en) Camera Device with Projector
KR20200028543A (en) Projector Control Type Camera Device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant