WO2017159902A1 - 온라인 면접 시스템 및 그 방법 - Google Patents

온라인 면접 시스템 및 그 방법 Download PDF

Info

Publication number
WO2017159902A1
WO2017159902A1 PCT/KR2016/002769 KR2016002769W WO2017159902A1 WO 2017159902 A1 WO2017159902 A1 WO 2017159902A1 KR 2016002769 W KR2016002769 W KR 2016002769W WO 2017159902 A1 WO2017159902 A1 WO 2017159902A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
interview
video
unit
text data
Prior art date
Application number
PCT/KR2016/002769
Other languages
English (en)
French (fr)
Inventor
이유섭
Original Assignee
주식회사 이노스피치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노스피치 filed Critical 주식회사 이노스피치
Priority to PCT/KR2016/002769 priority Critical patent/WO2017159902A1/ko
Publication of WO2017159902A1 publication Critical patent/WO2017159902A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • the present invention relates to an online interview system and a method thereof, and more particularly, to an interview system capable of realizing an interview efficiency by providing a video interview image of an interview applicant in a form edited to meet the requirements of an interviewer.
  • a plurality of applicants are required to register their resumes, the type of business they wish to find a job, and local information on the website, and receive job information from a number of job companies to provide job interview information to each interviewer.
  • Applicants who have passed a documentary interview from the website will go directly to the job site and receive an offline interview to be hired.
  • the applicant must visit the job offer directly, and if the distance between the applicant and the job offer is far away, inconvenience caused by the movement becomes considerable.
  • interviewers also have to prepare for offline interviews with applicants regardless of the size of the job.
  • an interview applicant and an interviewer need a system that saves time and money, and also has excellent interview effectiveness.
  • video interviews by video and audio between remote terminals have emerged as an alternative.
  • the interview applicant's terminal and the interviewer's terminal for receiving and verifying the registered video and the registered video through the form of the basic configuration, a number of patent applications related to this.
  • Korean Patent Application Publication No. KR10-2004-0006879 in addition to providing job information for job seekers to a number of job seekers, an interview video or self-introduction video for job search and job search can be easily produced and provided to a plurality of job companies in real time. The video applause and the online interview system using the same are being launched.
  • Patent No. KR10-0453838 discloses the construction of an overall on-line interview system for online job search, job search processing stage, online interview performance and information management.
  • KR10-2002-0069973 applications, resumes, self-introductions, and interviews are collected from a plurality of individual users who want to find a job by collecting information of a plurality of companies or organizations that want to be hired from a server connected through an Internet network.
  • a video resume and video interview service method using the Internet which is capable of producing and transmitting the contents of the present invention, is disclosed.
  • patents have been filed that have configurations that employ various ways of evaluating interview video.
  • patents related to video interviews are mostly made in the form of responding to the pre-inquired questions as a video or text screen.
  • the video of the interview applicant includes the contents of the interview question, the handling time required to grasp the question, and the like. Or, there may be a section where the actual interview applicant is not speaking during the time required to answer the question. That is, a so-called idle time occurs. For that reason, unnecessary time can be wasted on the part of the interviewer who receives and reviews the interview applicant's video.
  • the idle time may occur even in the process of answering when the response time is not fully met. Alternatively, the idle time may occur while inputting a signal indicating that the answer is completed.
  • unnecessary children's times may also occur from the interviewer's point of view even in the process of explaining the questions.
  • the authentication means due to the activation of the authentication means, the actual request for the interviewer through the SMS of the mobile phone, or by pressing the authentication number of the SMS may go through a verification process. These times can be idle time in the process of evaluating the interviewer's video.
  • the contents of the answers that are not the questions or the contents of the answers that do not include the keywords that are important may be unnecessary parts, and the video section including these may be unnecessary review time from the interviewer's point of view. have. Conversely, the video section including the specific keyword may be an important video section from the interviewer's point of view.
  • the position of the recruiting company or organization may need to find and exclude interview applicants that are less than the level, and the video interview video will be closely examined for those who need to conduct further in-depth or offline interviews. You will also need to consider.
  • the interview video needs to be provided with unnecessary idle time removed from the interviewer's point of view. Or, for efficiency and accuracy of the interview, it may be necessary to revisit specific sections or to provide a more abstract form of interview data.
  • the present invention is to provide a means for increasing the efficiency of the interview in an online interview system provided with a video.
  • an interview system that provides an interview video in a state in which unnecessary idle time is removed from an interviewer's point of view.
  • interview system that can extract and provide the necessary image parts for the accuracy and efficiency of interview evaluation.
  • the present invention for this purpose, the interview applicant receiving the question information from the service server, the interview terminal for forming and transmitting the video data photographed the interview image corresponding thereto; A service server for receiving and storing the moving image data through a network, processing and editing the moving image data, and transmitting the processed and edited moving image data to an interviewer terminal; And an interviewer terminal for receiving the processed edited moving picture data from the service server through a network.
  • the service server detects voice data of the moving picture data, converts the detected voice data into text data, indexes text data, indexes the moving picture data corresponding to the indexed text data, and indexes the text.
  • a data matching unit for matching data and video data;
  • a data determination unit for evaluating characteristics of the text data;
  • a data extracting unit which selects the text data according to the evaluation of the data discriminating unit and extracts moving image data corresponding to an index of the selected text data;
  • a data merging unit for merging moving image data obtained through the data extracting unit.
  • the text indexing method may employ a method of indexing time as a function.
  • the text data may be indexed in words or syllable units.
  • the data determiner may evaluate the idle time portion, the data extractor extracts video data corresponding to the idle time portion, and the data merger may merge the excepted video data corresponding to the idle time.
  • the idle time portion may be evaluated by using a time interval as a function. Alternatively, the idle time portion may be evaluated by using a word or sentence unit as a function.
  • the interviewer terminal includes a data editing request unit for requesting processing editing of moving image data to the service server, and the data discriminating unit of the service server evaluates the request of the data editing request unit against the text data.
  • the data editing requesting unit may request a video section including a specific keyword, and the data extracting section extracts the moving image data by selecting text data including a specific keyword in sentence units or selecting a time interval as a function. It may be.
  • the data editing request unit may also request a video section satisfying a previously stored questionnaire and an evaluation item corresponding thereto. In this case, video data extraction of the data extraction unit may be selected by selecting a time interval as a function.
  • the data determination unit of the service server may implement the evaluation of the correspondence between the evaluation item and the text data and transmit the result to the interviewer terminal.
  • the interview applicant receives the question information from the service server to form a video data photographed the interview image corresponding to the; Receiving and storing the moving image data through a network and processing and editing the moving image data; And receiving the processed edited moving picture data from the service server through a network.
  • the processing and editing of the moving image data may include: detecting audio data of the moving image data, converting the detected audio data into text data, and indexing the text data; Indexing the moving image data corresponding to the indexed text data to match the text data and the moving image data; Evaluating characteristics of the text data; Selecting text data according to the evaluation of the data characteristic and extracting moving image data corresponding to an index of the selected text data; And merging the extracted video data; provides an online interview method comprising a.
  • the interviewer is provided with an interview video in which unnecessary idle time is removed from an interviewer's point of view, or by receiving an interview video provided by extracting a necessary video portion, thereby improving efficiency and accuracy of an online interview.
  • the present invention can be sufficiently applied not only for actual adoption but also for interview training.
  • 1 is a basic configuration for explaining an online interview system of the present invention.
  • FIG. 2 is a block diagram of an interview terminal of the present invention.
  • FIG. 3 is a configuration diagram of a service server of the present invention.
  • FIG. 4 is a block diagram of an interviewer terminal of the present invention.
  • data extraction unit 240 data merge unit
  • interviewer terminal 310 data editing request unit
  • the online interview system of the present invention includes an interview terminal 100, a service server 200, and an interviewer terminal 300, and is connected through a network centering on the service server 200.
  • the service server 200 transmits a question for an interview to the interview terminal 100.
  • the interview applicant receives question information or instructions from the service server through the interview terminal 100, thereby photographing the interview image to form video data.
  • This basic configuration is a general configuration and flow of an online interview system, and the present invention also has such a configuration. It is apparent that the service server 200 may request the general request information such as essential personal information and history of the interview applicant, in addition to the question through the interview terminal 100.
  • the contents such as allowing the interviewer to read such materials are generally known to those skilled in the art, and the related screen configuration, questioning system, input system, and detailed flowcharts can be configured in various ways. Matters are omitted so as not to obscure the essential technical construction of the present invention.
  • the service server 200 stores the video data received from the interview terminal 100 and transmits the data to the interviewer terminal 300.
  • the interviewer terminal 300 receives the video data and evaluates the interview.
  • the interviewer terminal 300 transmits the question items for the interview or the above-mentioned matters to the service server 200 so that the service server 200 displays various items on the interview terminal 100.
  • This process is also a general flowchart of the video interview system.
  • the core technical idea of the present invention lies in a method of processing and editing video data received from the interview terminal 100 and transmitting the processed video data to the interviewer terminal 300 to ensure efficiency and accuracy of the interview.
  • the interview terminal 100 may basically have a controller 110, a communication module 120, a display module 130, a video module 140, a camera module 150, and a storage module 160. Other module parts can be configured.
  • the controller 110 coordinates and controls the functions of the respective modules. Each module may be one of known types.
  • the interview terminal 100 may be a terminal installed at a predetermined place, or may be a mobile terminal such as a desktop computer or a portable smartphone on which a program having a platform of the interview system is installed, and a plurality of terminals may be provided.
  • the overall interview system is preferably in the form of a platform, such a platform will be installed in the interview terminal 100 will be linked with the service server.
  • the video data generated by the interview terminal 100 includes video data and audio data, and the video data and audio data may be indexed to correspond to each other.
  • the index method may be indexed through time, or may be indexed by various coding methods.
  • the video data and the audio data may be transmitted to the service server 200 in a combined form, or may be transmitted separately, and the combined type may be separated in the service server 200.
  • the video data sent from the interview terminal 100 to the service server 200 is not only photographing the answer portion of the question, but also the handling time (handling time) required to grasp the contents of the interview question, the question, etc.
  • idle time By instructing the start and end of the photographing time through the control unit 110 of the interview terminal 100, even when only the answer portion is photographed, various forms of idle time are generated. Even when the service server 200 uses a method of setting an answering time for an individual question to photograph only in this case, various forms of idle time may also occur.
  • the video data sent from the interview terminal 100 to the service server 200 may include various kinds of idle time. none. Although it is possible to improve the platform method to have a minimum idle time, in this case, the interview applicant must perform various actions other than the interview response, which prevents the user from focusing on the interview, rather, the video through the service server 200. It would be desirable to process and edit the data.
  • the form of the platform will be a form in which a certain question is displayed on the screen as an image or text, and the answer is given for a certain time to proceed to the next question. Of course, various forms of platform design will be possible, but the fact that idle time still occurs will remain the same.
  • the service server 200 of the online interview system of the present invention includes a data matching unit 210, a data discriminating unit 220, a data extracting unit 230, and a data merging unit 240.
  • the data matching unit 210 detects voice data from the received video data, converts the detected voice data into text data, and indexes the corresponding text data, wherein the index is associated with the video data corresponding to the text data. To be indexed. By doing so, the text data and the moving picture data are matched in association.
  • the data matching unit 210 may include more specific functional units 211, 212,... To perform the above process.
  • the video data including video data and audio data may include a function unit for detecting only an audio portion and converting the audio portion into text data. Modules for performing these functions can utilize open source (eg FFmpeg library) to detect voice data, and various open sources (eg HTK open source) for speech recognition, which are known in the art. It is not mentioned in detail.
  • indexing the text data There may be various ways of indexing the text data. The most convenient way would be to index the time as a function. By indexing the corresponding time for the text data, and the index is mapped or mapped to correspond to the index of the moving picture data, the text data and the moving picture data are matched with each other. Therefore, the processing edit form of the text data can be applied to the moving picture data. If you index time as a function, the index might be in syllable or word units. That is, the syllable at a certain position of the text data has an index of a specific time, and the position of the moving image data to be processed and edited can be detected through the index of the moving image data corresponding to the index.
  • the data discriminating unit 220 is a part for evaluating various characteristics of the text data.
  • the criterion for processing and editing the moving image data begins by identifying the characteristics of the text data. It is also possible to analyze psychological confidence and emotional state by analyzing voice by acoustic phonetics for processing and editing of moving image data, but there is a high possibility of error and the objective criteria are not established. Alternatively, it is possible to analyze the movement, facial expression, posture, etc. of interview candidates in the video for processing and editing of the moving image data according to specific criteria, but it is also possible to develop an image analysis technology. I think it is difficult to build.
  • the interviewer can reduce the time for evaluating the interview and the like by processing the editing to exclude the video of the idle time part by grasping the characteristics of the text data.
  • grasping the characteristics of the text data it is possible to show the processing edit to search for a part including a specific answer, or to collect and edit only the essential matters of the answers to the interview question, and to display the processing edit in the form of highlights.
  • the data determination unit 220 may analyze the text data to evaluate the idle time portion. Depending on how you define idle time within the platform, you can evaluate a wide variety of idle times. The easiest thing to think about is the time between questions and answers. In addition, the time at which the question is started may be the idle time from the interviewer's point of view. This is because the interviewer already knows the content of the question, so that part of the video data may be unnecessary. And, if the platform is designed in the form of limiting the response time for a specific question, if the answer has already been completed in the situation, the time that is not answered may also be the idle time. As mentioned above, when text data is indexed as a function of time, the idle time can be found by evaluating the time interval between each index as a function.
  • the sentence unit or word unit may be evaluated as a function. Since sentences are basically understood as units containing specific thoughts, the spacing between sentences can be idle time. Words may contain words that contain thoughts, so if more research is used, the method of word analysis will be fully usable.
  • the data extracting unit 230 may extract a specific portion of the moving image data according to the evaluation of the data determining unit 220, and may select or discard the extracted moving image data as necessary. Since the premise for extracting a specific part of the video data should be the evaluation or analysis of the text data, in order to extract the text data, the text data will be extracted first, and the video data will be found by searching the index of the video data corresponding to the index of the extracted text data. Will be extracted. Taking the above-described idle time evaluation, for example, the video data corresponding to the portion corresponding to the idle time may be discarded, or the video data corresponding to the portion corresponding to the portion other than the idle time may be extracted.
  • the data merger 240 combines the moving image data obtained through the data extraction unit 230 to configure new moving image data.
  • the merging module can be configured by using open source for data merging, and this is omitted in order not to obscure the gist of the invention.
  • Other service servers may include various functional units. It may include a DB for coding the new video data extracted and merged and stored under a new name, and may include elements for functions of various platforms that may be implemented for convenience of an online interview system. Of course.
  • the present invention includes a data editing request unit 310 for requesting the service server 200 to process video data as necessary.
  • the data editing request unit 310 makes a request that satisfies a specific condition
  • the text data section of the specific condition section can be found by evaluating the text data and the request condition, and the video satisfying the request condition in the same manner. You can extract the data and merge it to provide it.
  • the interviewer terminal 300 may be a terminal that is linked to a specific server of a company or a public institution. If there are a plurality of companies or public institutions, and a singular number, the interviewer terminal 300 may have a plurality of forms.
  • the data editing request unit 310 may be a case of requesting processing editing after the moving image data is stored in the service server 200 through the interview terminal 100.
  • the text data is extracted in contrast to the text data and then the video data corresponding thereto is extracted.
  • the selected text data should be selected in units of minimum sentences rather than syllables or words. It would be desirable to extend the paragraphs to a more extended level, and the algorithm for finding them would be a time interval function. There may be some time intervals when thoughts or thoughts are switched, and an algorithm for identifying these time intervals may determine the selection unit of text data.
  • the data editing request unit 310 of the interviewer terminal 300 may request a video section satisfying the pre-stored questionnaire and evaluation items corresponding thereto.
  • the video data that can be received by the interviewer terminal 300 may be video data in which only the highlight of the interview applicant's answer is extracted.
  • the evaluation method of the data determination unit 220 or the extraction method of the data extraction unit 230 may be applied to the above-described types.
  • the service server 200 may include an algorithm for extracting the highlight image in advance so that the highlight image may be separately stored.
  • the data editing request unit 310 may select corresponding video data through the interviewer terminal 200. If necessary, if it is necessary to make a more in-depth selection from the original video data including idle time, the original video data may be selected.
  • NCS National Competency Standards
  • the present invention can be sufficiently applied not only for actual adoption but also for interview training.
  • the data determination unit 220 may extract a case containing an unhealthy element such as abusive language and add it to an evaluation item.
  • the present invention includes the steps of the interview applicant receiving the question information from the service server to form the video data photographed the interview image corresponding thereto; Receiving and storing the moving image data through a network and processing and editing the moving image data; And receiving the edited and edited moving picture data from the service server through a network, wherein the processing and editing of the moving picture data comprises: detecting and detecting the audio data of the moving picture data.
  • the above method may be implemented by building a platform to implement, and other additional functions may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 온라인 면접 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 면접지원자의 동영상 면접 영상을 면접관의 요구사항에 맞게 편집된 형태로 제공함으로써 면접의 효율성을 실현할 수 있는 면접시스템에 관한 것이다. 이를 위한 본 발명은, 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하여 이를 송신하는 면접 단말기; 네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하고, 가공편집된 동영상 데이타를 면접관 단말에 송신하는 서비스 서버; 및 네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 면접관 단말기;를 포함하는 온라인 면접시스템에 있어서, 상기 서비스 서버는, 상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하여 텍스트 데이타를 인덱스하고, 상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 데이타 매칭부; 상기 텍스트 데이타의 특성을 평가하는 데이타 판별부; 상기 데이타 판별부의 평가에 따라 상기 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 데이타 추출부; 및 상기 데이타 추출부를 통해 얻어진 동영상 데이타들을 병합하는 데이타 병합부;를 포함하여 이루어지는 것을 특징으로 하는 면접시스템이다.

Description

온라인 면접 시스템 및 그 방법
본 발명은 온라인 면접 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 면접지원자의 동영상 면접 영상을 면접관의 요구사항에 맞게 편집된 형태로 제공함으로써 면접의 효율성을 실현할 수 있는 면접시스템에 관한 것이다.
최근 기업들의 신입사원 채용 방식이 서류와 필기시험 위주에서 면접평가, 적성평가 등의 방식으로 많이 바뀌고 있다. 이러한 이유는 면접을 통해 면접지원자와 면접관이 인성 및 사고 등을 종합적으로 파악하거나 피력할 수 있기 때문이다. 또한, 다양한 경영환경 변화에 따라 창의적이고 능동적인 인재의 필요성이 강조되는 상황에서 이를 파악하기 위한 방법으로 면접의 중요성이 이전에 비해 더욱 커지고 있다.
종래의 경우, 다수의 지원자들로부터 이력서와 구직을 희망하는 업종, 지역 정보 등을 웹사이트에 등록받고, 다수의 구인회사로부터 채용 정보 등을 제공받아 각 면접자에게 접합한 채용 정보를 제공하도록 되어 있다. 그리고 웹사이트로부터 서류면접을 통과한 지원자는 해당 구인 회사에 직접 방문하여 오프라인 면접을 받아 채용 여부를 결정받게 된다. 그러나, 지원자가 구인회사에 직접 방문해야 하며, 지원자와 구인회사의 거리가 멀리 떨어져 있는 경우 그 이동에 따른 불편함이 상당하게 된다. 또한 면접자도 채용규모의 많고 적음에 상관없이 지원자에 대한 오프라인 면접을 준비해야 하기 때문에, 시간 및 비용상 적지 않은 부담이 있게 된다.
따라서, 면접지원자와 면접관이 시간 및 비용을 절감하고, 면접의 효과도 우수한 시스템이 필요한 실정이다. 통신기술의 발달에 따라 원격지의 단말간에 영상과 음성에 의한 영상 면접이 그 대안으로 떠올랐다. 면접지원자의 단말기와 이를 통한 동영상의 등록, 등록된 동영상을 수신, 확인하는 면접관 단말기를 기본으로 구성하는 형태로서, 이와 관련된 특허출원이 다수 이루어졌다.
공개특허 KR10-2004-0006879호에서는, 다수의 구직자에게 구인회사별 채용정보를 제공함과 더불어 구인 및 구직을 위한 면접 동영상이나 자기소개 동영상을 용이하게 제작하고 이를 다수의 구인회사에 실시간 제공할 수 있도록 된 동영상 인터뷰 박수와 이를 이용한 온라인 면접 시스템을 개시하고 있다. 등록특허 KR10-0453838호에서는 온라인상 구인, 구직 처리단계와, 온라인상의 면접수행 및 정보 관리에 대한 전반적인 온라인 면접 시스템의 구성을 개시하고 있다. 공개특허 KR10-2002-0069973호에서는 인터넷망을 통하여 접속되는 서버에서 구인을 원하는 다수의 기업이나 기관의 업체 사업자들의 정보를 수집하여 취업을 원하는 다수의 개인 사용자들에게 원서와 이력서와 자기소개서 및 면접의 내용까지 제작하여 전송할 수 있도록 한 인터넷을 이용한 동영상 이력서 및 화상면접 서비스방법을 개시하고 있다. 그 외에도, 면접 동영상을 평가하는 다양한 방식들을 채택하는 구성을 가지는 특허들도 출원되고 있다.
한편, 동영상 면접과 관련한 특허들은 미리 입력된 질문들을 동영상 또는 문자화된 화면 등으로 제공받고서, 이에 대한 응답을 하는 형태로 대부분 이루어지고 있다. 이 경우, 면접 지원자의 동영상은 면접질문의 내용이나, 질문을 파악하기 위해 소요되는 핸들링 타임(handling time)등의 시간들을 포함하고 있게 된다. 또는, 질문에 대한 답변을 위해 소요되는 시간 동안 실제 면접지원자가 말을 하지 않고 있는 구간도 존재하게 된다. 즉, 소위 아이들 타임(idle time;유휴시간)이 발생하게 된다. 그러한 이유로, 면접지원자의 동영상을 수신, 검토하는 면접관의 입장에서는 불필요한 시간들을 낭비할 수 있다.
동영상 면접의 구체적인 과정에서, 면접지원자에 대한 평가 질문들에 대하여 일정한 답변시간을 제시하는 경우 그 답변시간을 다 채우지 못하는 경우 답변하는 과정에서도 아이들 타임이 발생할 수 있다. 또는 답변을 완료하였다는 신호를 입력하는 동안에도 아이들 타임이 발생할 수 있다. 평가 컨텐츠를 평가 항목별로 카테고리화하여 질문을 제공할 때, 이에 대한 설명을 하는 과정에서도 실제 면접관의 입장에서는 불필요한 아이들 타임들도 발생할 수 있다. 최근에는 인증수단의 활성화로 인해, 실제 지원면접자에 대한 질문요청을 휴대전화의 SMS를 통해 진행하거나, SMS의 인증번호를 누르게 하여 본인 확인 절차 등을 거치는 경우도 있다. 이러한 시간들은 면접관의 입장에서 면접지원자의 면접 영상을 평가하는 과정에서 아이들 타임이 될 수 있다.
또한, 구인하는 기업이나 기관의 입장에서, 질문과 동떨어진 답변의 내용들이나 또는 중요시되는 키워드를 포함하지 않는 답변내용은 불필요한 부분일 수 있고, 이를 포함하는 영상 구간은 면접관의 입장에서 불필요한 검토 시간일 수 있다. 역으로, 특정 키워드가 포함된 영상구간은 면접관의 입장에서 중요한 영상 구간일 수 있을 것이다. 한편, 구인하는 기업이나 기관의 입장에서는 수준에 미달하는 면접지원자를 보다 빠르게 찾아서 이를 제외할 필요가 있을 수도 있고, 보다 심층면접이나 오프라인 면접을 추가로 실시하여야 할 대상자에 대하여는 보다 면밀하게 동영상 면접영상을 고찰할 필요도 있을 것이다.
결국은, 동영상 면접의 효율성을 위하여, 면접관의 입장에서 불필요한 아이들 타임이 제거된 상태의 면접 동영상이 제공될 필요가 있다. 또는, 효율성과 아울러 면접의 정확성을 위해 특정 구간을 다시 찾아보거나, 보다 요약된 형태의 면접 자료가 제공될 필요가 있다.
본 발명은 동영상이 제공되는 온라인 면접 시스템에서의 면접 효율성을 높이기 위한 수단을 제공하고자 한다.
보다 구체적으로는, 면접관의 입장에서 불필요한 아이들 타임이 제거된 상태의 면접 동영상을 제공하는 면접시스템을 제공하고자 한다. 또한, 면접 평가의 정확성과 효율성을 위해 필요한 영상 부분을 추출하여 제공할 수 면접시스템을 제공하고자 한다.
이를 위한 본 발명은, 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하여 이를 송신하는 면접 단말기; 네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하고, 가공편집된 동영상 데이타를 면접관 단말에 송신하는 서비스 서버; 및 네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 면접관 단말기;를 포함하는 온라인 면접시스템에 있어서,
상기 서비스 서버는, 상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하여 텍스트 데이타를 인덱스하고, 상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 데이타 매칭부; 상기 텍스트 데이타의 특성을 평가하는 데이타 판별부; 상기 데이타 판별부의 평가에 따라 상기 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 데이타 추출부; 및 상기 데이타 추출부를 통해 얻어진 동영상 데이타들을 병합하는 데이타 병합부;를 포함하여 이루어지는 것을 특징으로 하는 면접시스템이다.
그리고, 상기 텍스트 데이타를 인덱스하는 방식은 시간을 함수로 인덱스하는 방법을 채택할 수 있다. 그리고, 상기 텍스트 데이타의 인덱스는 어절 또는 음절 단위로 이루어질 수 있다.
그리고, 상기 데이타 판별부는 아이들 타임 부분을 평가하고, 상기 데이타 추출부는 아이들 타임 부분과 대응되는 동영상 데이타를 추출하며, 상기 데이타 병합부는 아이들 타임과 대응되는 동영상 데이타를 제외하고 병합하는 형태일 수 있다. 그리고, 상기 아이들 타임 부분의 평가는 시간간격을 함수로 하여 평가하는 것일 수 있다. 또는 상기 아이들 타임 부분의 평가는 어절 또는 문장 단위를 함수로 하여 평가하는 것일 수도 있다.
그리고, 상기 면접관 단말기는, 상기 서비스 서버에 동영상 데이타의 가공편집을 요청하는 데이타 편집 요청부를 포함하고, 상기 서비스 서버의 데이타 판별부는 상기 데이타 편집 요청부의 요청사항을 상기 텍스트 데이타와 대비하여 평가하는 것을 특징으로 하는 면접시스템을 제공한다. 그리고, 상기 데이타 편집 요청부는 특정 키워드를 포함하는 동영상 구간을 요청할 수 있으며, 상기 데이타 추출부의 동영상 데이타 추출은, 특정 키워드를 포함하는 텍스트 데이타를 문장 단위로 선택하거나, 시간 간격을 함수로 하여 선택하는 것일 수 있다. 그리고, 상기 데이타 편집 요청부는 기 저장된 질문지와 이에 대응하는 평가항목을 만족하는 동영상 구간을 요청하는 형태도 가능하다. 이때, 상기 데이타 추출부의 동영상 데이타 추출은, 시간 간격을 함수로 하여 선택하는 방법을 택할 수도 있다. 그리고, 상기 서비스 서버의 데이타 판별부는 평가항목과 텍스트 데이타의 일치성을 평가하고, 그 결과를 면접관 단말기로 송신하는 것을 구현할 수도 있다.
그리고 본 발명은, 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하는 단계; 네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하는 단계; 및 네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 단계;를 포함하는 온라인 면접방법에 있어서,
상기 동영상 데이타를 가공편집하는 단계는, 상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하고 텍스트 데이타를 인덱스 하는 단계; 상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 단계; 상기 텍스트 데이타의 특성을 평가하는 단계; 상기 데이타 특성의 평가에 따라 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 단계; 및 상기 추출된 동영상 데이타들을 병합하는 단계;를 포함하는 것을 특징으로 하는 온라인 면접 방법을 제공한다.
본 발명에 따르면, 면접관의 입장에서 불필요한 아이들 타임이 제거된 상태의 면접 동영상을 제공받거나, 또는, 필요한 영상 부분을 추출하여 제공되는 면접 동영상을 제공받음으로써, 온라인 면접의 효율성과 정확성을 기할 수 있다.
또한, 적용 형태에 따라 실제 채용은 물론, 면접트레이닝용으로도 충분히 적용할 수 있다.
또한, 데이타 판별의 알고리즘에 따라 면접 자동평가시스템의 형태나 오토 헤드헌팅 시스템에 적용할 수도 있으며, 질문과 평가항목의 선정에 따라 구직자 매칭시스템에 적용도 가능하다.
도 1은 본 발명의 온라인 면접시스템을 설명하기 위한 기본 구성도이다.
도 2는 본 발명의 면접 단말기의 구성도이다.
도 3은 본 발명의 서비스 서버의 구성도이다.
도 4는 본 발명의 면접관 단말기의 구성도이다.
<부호의 설명>
100 : 면접 단말기
200 : 서비스 서버
210 : 데이타 매칭부 220 : 데이타 판별부
2230 : 데이타 추출부 240 : 데이타 병합부
300 : 면접관 단말기 310 : 데이타 편집 요청부
이하 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의한다.
특히 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 온라인 면접시스템을 설명하기 위한 기본 구성도이다. 본 발명의 온라인 면접 시스템은 면접 단말기(100), 서비스 서버(200), 면접관 단말기(300)를 포함하여 이루어지며, 서비스 서버(200)를 중심으로 네트워크를 통해 연결된다.
서비스 서버(200)는 면접 단말기(100)에 면접을 위한 질문을 송신하게 된다. 면접 지원자는 면접 단말기(100)를 통해 서비스 서버로부터 질문 정보 내지 지시사항에 받아, 이에 따라 면접 영상을 촬영하여 동영상 데이터를 형성한다. 이러한 기본적인 구성은 온라인 면접 시스템의 일반적인 구성과 흐름이며, 본 발명 또한 이러한 구성을 가진다. 서비스 서버(200)는 면접 단말기(100)를 통해 질문 이외에도 면접 지원자의 필수적인 인적사항, 이력사항 등 구직과정에서 일반적으로 요청하는 사항 등도 요청할 수 있음은 자명하다. 또한 이러한 자료를 면접관이 열람할 수 있도록 하는 등의 내용도 일반적으로 당업자입장에서 자명한 사실들이며 이와 관련한 구체적인 화면구성, 질문 체계, 입력 체계, 구체적 흐름도 등은 매우 다양하게 구성할 수 있을 것이며, 이러한 사항은 본 발명의 핵심적인 기술적 구성을 모호하지 않게 하기 위해 생략한다.
서비스 서버(200)는 면접 단말기(100)로부터 받은 동영상 데이타를 저장하고, 상기 면접관 단말기(300)에 송신하게 된다. 면접관 단말기(300)는 동영상 데이타를 받아 면접 평가를 하게 된다. 면접관 단말기(300)는 면접을 위한 질문사항 내지 앞서 언급된 여러 가지 사항을 서비스 서버(200)에 전송하여 서비스 서버(200)로 하여금 면접 단말기(100)에 여러 가지 사항을 디스플레이하게 한다. 이러한 과정 역시 동영상 면접 시스템의 일반적인 흐름도라고 할 수 있다.
본 발명의 핵심적인 기술 사상은 면접 단말기(100)로 부터 받은 동영상 데이터를 어떻게 가공 편집하여, 면접관 단말기(300)에 송신함으로써, 면접의 효율성과 정확성을 확보할 수 있게 하는 방식에 있다.
도 2는 본 발명의 면접 단말기의 구성도이다. 면접 단말기(100)는 기본적으로 제어부(110), 통신모듈(120), 디스플레이모듈(130), 동영상모듈(140), 카메라모듈(150), 저장모듈(160)을 가질 수 있으며, 필요에 따라 다른 모듈 부분을 구성할 수 있다. 제어부(110)는 각각의 모듈들의 기능을 조율하고 제어한다. 각각의 모듈들은 공지되어 있는 형태의 것들이 채택가능하다.
면접 단말기(100)는 기 설정된 장소에 설치된 단말기일 수도 있고, 면접 시스템의 플랫폼을 갖는 프로그램이 설치된 데스크탑 컴퓨터이나 휴대가 가능한 스마트폰 같은 이동 단말기일 수 있으며, 복수개가 가능하다. 전체적인 면접 시스템은 플랫폼화되어 있는 형태가 바람직하며, 이러한 플랫폼이 면접 단말기(100)에 설치되어 서비스 서버와 연동되게 될 것이다. 면접 단말기(100)에서 생성하는 동영상 데이타는 영상 데이타와 음성 데이타를 포함하고 있으며, 영상 데이타와 음성 데이타가 서로 대응되게 서로 인덱스 되어 있을 수 있다. 인덱스 방식은 시간을 매개로 인덱스 될 수 있으며, 또는 다양한 코딩 방식으로 인덱스 될 수 있다. 영상 데이타와 음성 데이타가 결합된 형태로 서비스 서버(200)로 송신되거나, 또는 분리되어 송신될 수도 있고, 결합된 형태의 것도 서비스 서버(200) 내에서 분리될 수 있음은 자명하다.
한편, 면접 단말기(100)에서 서비스 서버(200)로 보내는 동영상 데이타는 질문에 대한 답변 부분만의 촬영만이 아니라, 면접질문의 내용이나, 질문을 파악하기 위해 소요되는 핸들링 타임(handling time)등의 시간들을 포함되거나, 답변을 하지 못하고 있는 시간들이 있을 수 있고, 이러한 시간들은 아이들 타임(idle time;유휴시간)을 포함할 수 있게 된다. 면접 단말기(100)의 제어부(110)를 통해 촬영 시기의 시작과 종결을 지시함으로써 답변 부분만을 촬영한다고 하여도 다양한 형태의 아이들 타임은 발생하게 된다. 서비스 서버(200)에서 개별 질문에 대한 답변시간을 설정하여 이 경우에만 촬영하게 하는 방식을 사용하게 되는 경우라도 역시 다양한 형태의 아이들 타임이 발생할 수 있다. 플랫폼의 방식을 개선하여 면접 단말기(100)의 플로우를 조절 내지 제어한다고 하여도, 결국, 면접 단말기(100)에서 서비스 서버(200)로 보내지는 동영상 데이타는 다양한 종류의 아이들 타임을 포함할 수 밖에 없다. 플랫폼 방식을 개선하여 최소한의 아이들 타임을 갖게 할 수는 있겠으나, 이 경우, 면접 지원자는 면접 응답 이외의 여러 가지 행위를 하여야 하고 이는 면접에 집중하지 못하게 하므로, 오히려 서비스 서버(200)를 통해 동영상 데이타를 가공 편집하는 것이 바람직할 것으로 생각된다. 플랫폼의 형태는 일정한 질문을 영상이나 텍스트로 화면에 디스플레이하고, 이에 대한 답변을 일정시간 부여하는 형태로 다음 질문으로 진행하는 형태가 될 것이다. 물론 다양한 형태의 플랫폼 설계가 가능할 것이지만, 여전히 아이들 타임이 발생된다는 사실은 변함이 없을 것이다.
도 3은 본 발명의 서비스 서버의 구성도로서, 동영상 데이타의 가공 편집을 실행하는 핵심적인 부분이다. 본 발명의 온라인 면접 시스템의 서비스 서버(200)는 데이타 매칭부(210), 데이타 판별부(220), 데이타 추출부(230) 및 데이타 병합부(240)를 포함하고 있다.
데이타 매칭부(210)는 수신받은 동영상 데이타에서 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하고, 해당 텍스트 데이타를 인덱스하되, 상기 인덱스는 상기 텍스트 데이타와 대응되는 상기 동영상 데이타와 연계되어 인덱스 되게 하여야 한다. 이렇게 함으로써, 텍스트 데이타와 동영상 데이타는 연관성 있게 매칭되게 된다. 데이타 매칭부(210)는 상기 과정을 수행하기 위한 보다 구체적인 기능부들(211, 212,..)을 포함할 수 있다. 예컨대, 영상(video) 데이타와 음성(audio) 데이타를 포함하는 동영상 데이타에서, 음성 부분만을 검출하여 이를 텍스트 데이타로 변환하기 위한 기능부를 포함할 수 있다. 이러한 기능을 수행하기 위한 모듈은 음성 데이타를 검출하는 오픈 소스(예를 들면, FFmpeg 라이브러리), 음성 인식에 관한 다양한 오픈 소스(예를 들면, HTK 오픈 소스)를 활용할 수 있으며, 이러한 부분은 공지의 사항으로 구체적으로 언급하지는 않는다.
상기 텍스트 데이타를 인덱스하는 방식은 여러가지 방식들이 있을 수 있다. 가장 편리한 방식은 시간을 함수로 인덱스 하는 방식일 것이다. 텍스트 데이타에 대한 대응되는 시간을 인덱스하고, 해당 인덱스는 동영상 데이타의 인덱스와 대응되게 매핑화 내지 사상화함으로써, 텍스트 데이타와 동영상 데이타는 서로 매칭되어진다. 따라서, 텍스트 데이타의 가공 편집 형태를 동영상 데이타에 적용할 수 있게 된다. 시간을 함수로 인덱스 하는 경우에, 인덱스를 음절 단위나, 또는 어절 단위로 할 수도 있을 것이다. 즉, 텍스트 데이타의 어떤 위치의 음절은 특정 시간의 인덱스를 가지게 되고, 해당 인덱스와 대응되는 동영상 데이타의 인덱스를 통해 가공 편집할 동영상 데이타의 위치를 검출할 수 있게 된다.
데이타 판별부(220)는 텍스트 데이타의 여러가지 특성을 평가하는 부분으로, 본 발명에서 동영상 데이타의 가공편집의 기준은 텍스트 데이타의 특성을 파악하는데서 시작된다. 동영상 데이타의 가공편집을 위해 음성을 음향음성학(acoustic phonetics)으로 분석하여 심리적 자신감이나 감정상태 등을 분석하는 것도 가능하다고 하나, 오류의 가능성이 높으며 객관적 기준이 정립되지 않은 상태이다. 또는 동영상 데이타의 가공편집을 위해 영상내의 면접 지원자의 움직임, 표정, 자세 등을 분석하여 이를 특정 기준에 맞춰 분석하는 것도 영상분석기술의 발달로 가능하다고 하나, 이 역시 오류의 가능성이 높고 객관적 기준을 세우기 어렵다고 생각된다. 본 발명에서는 텍스트 데이타의 특성 파악을 통해, 아이들 타임 부분의 동영상을 제외하는 가공 편집을 함으로써 면접관이 면접 평가를 하는 시간등을 줄일 수 있게 하는 것도 하나의 기술적 과제로 하고 있다. 그리고, 텍스트 데이타의 특성 파악을 통해, 특정 답변을 포함하는 부분을 검색하는 가공 편집을 하여 보여주거나, 면접 질문에 대한 답변의 핵심적 사항만을 모아 하이라이트 형태로 가공 편집을 하여 보여주는 것도 가능하게 한다. 또한, 텍스트 데이타의 특성 분석을 통해 시스템적으로 평가항목에 대한 점수를 부여하는 방식등을 통해 면접 평가를 수행하는 것도 가능하다.
데이타 판별부(220)는 텍스트 데이타를 분석하여 아이들 타임 부분을 평가할 수 있다. 플랫폼 내에서 아이들 타임을 어떻게 정의하느냐에 따라 매우 다양한 아이들 타임을 평가할 수 있다. 가장 쉽게 생각할 수 있는 것은 질문과 답변사이의 시간이 될 수 있다. 또한, 질문이 개시되는 시간도 면접관의 입장에서는 아이들 타임이 될 수 있다. 왜냐하면, 면접관은 이미 질문의 내용을 알고 있기 때문에 동영상 데이타에서 해당 부분은 불필요한 부분일 수 있기 때문이다. 그리고, 특정질문에 대한 답변시간을 제한하는 형태로 플랫폼이 설계되었다면, 답변시간이 지나지 않은 상황에서 이미 답변을 마쳤다면, 답변하지 않고 있는 시간 또한 아이들 타임이 될 수 있다. 앞서 언급하였듯이 텍스트 데이타를 시간의 함수로 인덱스 한 경우, 각각의 인덱스 사이의 시간의 간격을 함수로 하여 평가함으로써 이러한 아이들 타임을 찾아낼 수 있다. 물론, 다른 여러 가지 알고리즘을 통해 아이들 타임을 찾아 내는 것도 가능할 것이다. 예를 들면, 텍스트 데이타의 분석 내지 평가에 있어서, 문장 단위 또는 어절 단위를 함수로 하여 평가할 수 있을 것이다. 문장은 기본적으로 특정 생각을 내포하는 단위로 이해되기 때문에 문장 사이의 간격은 아이들 타임이 될 수 있다. 어절의 경우에도 생각이 포함되는 단어를 포함하고 있을 수 있으므로, 보다 많은 연구를 통해 어절 분석의 방식이 객관화된다면 충분히 사용가능한 함수가 될 것이다.
데이타 추출부(230)는 데이타 판별부(220)의 평가에 따라 동영상 데이타의 특정 부분을 추출할 수 있고, 추출된 동영상 데이타를 필요에 따라 선택하거나 버릴 수 있는 기능을 한다. 동영상 데이타의 특정 부분을 추출하기 위한 전제는 텍스트 데이타의 평가 내지 분석이 전제되어야 하므로, 순서상으로는 텍스트 데이타의 추출이 먼저 이루어질 것이고, 추출된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타의 인덱스를 찾아 동영상 데이타를 추출하게 될 것이다. 앞서 언급된 아이들 타임의 평가를 예로 들면, 아이들 타임에 해당하는 부분과 대응되는 동영상 데이타를 버리거나, 또는 아이들 타임이 아닌 부분에 해당하는 부분과 대응되는 동영상 데이타를 추출하게 될 것이다.
데이타 병합부(240)는 데이타 추출부(230)를 통해 얻어진 동영상 데이타들을 병하여 새로운 동영상 데이타를 구성하는 역할을 한다. 데이타 병합에 대한 오픈 소스를 활용하여 병합모듈을 구성할 수 있음은 물론이며, 이러한 사항은 발명의 요지를 모호하지 않게 하기 위해 생략한다.
기타 서비스 서버는 여러가지 기능부를 포함할 수 있다. 상기 추출하여 병합된 새로운 동영상 데이타에 대하여 코딩을 하여 새로운 이름으로 저장하는 DB를 포함할 수 있으며, 그 밖에 온라인 면접 시스템의 편리성을 위해 구현될 수 있는 다양한 플랫폼의 기능을 위한 요소들을 구비할 수 있음은 물론이다.
도 4는 본 발명의 면접관 단말기(300)의 구성도로서, 온라인 면접 시스템을 위한 다양한 기능을 갖춘 모듈을 구비할 수 있다. 본 발명에서는 특히, 서비스 서버(200) 대하여 동영상 데이타를 필요에 맞게 가공을 하도록 요청하는 데이타 편집 요청부(310)를 구비하고 있다. 데이타 편집 요청부(310)가 특정 조건을 만족하는 요청을 하게 되는 경우, 텍스트 데이타와 요청 조건을 대비하여 평가함으로서 특정 조건 구간의 텍스트 데이타 구간을 찾을 수 있고, 마찬가지 방식으로 요청 조건을 만족하는 동영상 데이타를 추출하여 이를 병합하여 제공할 수 있을 것이다.
면접관 단말기(300)는 기업이나 공공기관의 특정서버와 연동되는 형태의 단말기일 수도 있다. 기업이나 공공기관이 복수일 있고, 단수인 경우라면 면접관 단말기(300)는 복수개의 형태일 수 있다.
상기 데이타 편집 요청부(310)는 특별히 면접 단말기(100)를 통해 동영상 데이타가 서비스 서버(200)에 저장된 이후 이의 가공 편집을 요청하는 경우일 수 있다. 특정 키워드를 포함하는 동영상 구간을 요청하는 경우, 앞서 설명한 바와 마찬가지로, 텍스트 데이타와 대비하여 텍스트 데이타를 추출한 후에 이에 대응되는 동영상 데이타를 추출하는 방식이 될 것이다. 키워드를 포함하는 동영상 구간의 설정의 경우, 선택되는 텍스트 데이타는 음절이나, 어절 단위가 아니라 최소 문장단위로 선택되어야 할 것이다. 좀 더 확장하여 문단 단위의 것이 바람직할 것인데, 이를 찾아내는 알고리즘은 시간 간격을 함수로 하는 알고리즘이 바람직할 것이다. 생각이나 사상이 전환되는 시기에 어느 정도의 시간 간격이 있을 수 있고, 이러한 시간 간격을 파악하는 알고리즘을 통해 텍스트 데이타의 선택단위를 결정할 수도 있을 것이다. 최근에는 텍스트 데이타의 의미 분석 기술이 발달하여, 특정 키워드를 포함하는 부분과 연관성이 있는 텍스트를 추출하는 기술도 발달하였기 때문에 이러한 기술을 이에 응용할 수도 있을 것이며, 이러한 부분은 본 발명의 기술적 사상내의 것으로 해석되어야 할 것이다.
한편, 통상적으로 면접단말기(100)를 통한 면접 지원자의 면접이 이루어지기 전에 면접관 단말기 내지 면접관 단말기와 연동되는 다른 서버를 통해 서비스 서버(200)에 질문사항 내지 기타 사항이 이미 전달된다. 따라서, 면접관 단말기(300)의 데이타 편집 요청부(310)에서 기 저장된 질문지와 이에 대응하는 평가항목을 만족하는 동영상 구간을 요청할 수 있다. 이 경우, 면접관 단말기(300)에서 받아 볼 수 있는 동영상 데이타는 면접 지원자의 답변의 하일라이트만을 추출한 형태의 동영상 데이타일 수 있다. 데이타 판별부(220)의 평가 방법이나, 데이타 추출부(230)의 추출방식은 앞서 언급한 형태의 것들이 응용될 수 있을 것이다.
또는, 온라인 면접 시스템의 플랫폼의 구현 방식의 변화를 통해, 미리 서비스 서버(200)에서 하일라이트 영상을 추출하는 알고리즘을 구비하도록 하여 하일라이트 영상을 별도로 저장하는 방식도 가능하다. 데이타 편집 요청부(310)는 면접관 단말기(200)를 통해 해당 동영상 데이타를 선택할 수 있다. 필요에 따라서는 아이들 타임이 포함된 원본의 동영상 데이타를 통해 보다 심도있는 선택을 할 필요성이 있을 경우라면, 원본 동영상 데이타를 선택할 수 있을 것이다.
기 저장된 질문지의 요지를 추출하고, 텍스트 데이타를 대비 비교하여 이의 일치 정도의 판별을 통해 면접 지원자의 역량을 수치화하는 형태도 가능할 것이다. 텍스트 데이타의 특성을 평가하는 데이타 판별부(220)를 통해 이러한 기능의 수행이 가능할 것이다. 따라서, 데이타 판별의 알고리즘에 따라 면접 자동평가시스템의 형태나 오토 헤드헌팅 시스템에 적용할 수도 있으며, 질문과 평가항목의 선정에 따라 구직자 매칭시스템에 적용도 가능하다.
특히, NCS(National competency stanadards; 국가직무능력표준)은 그 분류체계 및 구성이 매우 잘 이루어져 있기 때문에 본 발명의 기술개념을 사용하여 온라인 면접시스템에 적용하는 경우라면, 정확성과 효율성이 높아진 면접 자동평가시스템으로의 구현도 가능할 것으로 보인다.
또한, 적용 형태에 따라 실제 채용은 물론, 면접트레이닝용으로도 충분히 적용할 수 있다. 그리고, 데이타 판별부(220)를 통해 욕설 등의 불건전한 요소를 포함하는 경우를 추출하여 이를 평가항목에 추가할 수도 있을 것이다.
그리고 본 발명은 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하는 단계; 네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하는 단계; 및 네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 단계;를 포함하는 온라인 면접방법에 있어서, 상기 동영상 데이타를 가공편집하는 단계는, 상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하고 텍스트 데이타를 인덱스 하는 단계; 상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 단계; 상기 텍스트 데이타의 특성을 평가하는 단계; 상기 데이타 특성의 평가에 따라 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 단계; 및 상기 추출된 동영상 데이타들을 병합하는 단계;를 포함하는 것을 특징으로 하는 온라인 면접 방법을 제공한다. 상기한 방법이 구현하는 플랫폼을 구축하여 실시될 수 있을 것이며, 기타 부가적 기능이 추가될 수 있을 것이다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (13)

  1. 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하여 이를 송신하는 면접 단말기;
    네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하고, 가공편집된 동영상 데이타를 면접관 단말에 송신하는 서비스 서버; 및
    네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 면접관 단말기;를 포함하는 온라인 면접시스템에 있어서,
    상기 서비스 서버는,
    상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하여 텍스트 데이타를 인덱스하고, 상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 데이타 매칭부;
    상기 텍스트 데이타의 특성을 평가하는 데이타 판별부;
    상기 데이타 판별부의 평가에 따라 상기 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 데이타 추출부; 및
    상기 데이타 추출부를 통해 얻어진 동영상 데이타들을 병합하는 데이타 병합부;를 포함하여 이루어지는 것을 특징으로 하는 면접시스템.
  2. 제 1항에 있어서,
    상기 텍스트 데이타를 인덱스하는 방식은 시간을 함수로 인덱스하는 것을 특징으로 하는 면접시스템.
  3. 제 2항에 있어서,
    상기 텍스트 데이타의 인덱스는 어절 또는 음절 단위로 이루어지는 것을 특징으로 하는 면접시스템.
  4. 제 1항에 있어서,
    상기 데이타 판별부는 아이들 타임 부분을 평가하고, 상기 데이타 추출부는 아이들 타임 부분과 대응되는 동영상 데이타를 추출하며, 상기 데이타 병합부는 아이들 타임과 대응되는 동영상 데이타를 제외하고 병합하는 것을 특징으로 하는 면접시스템.
  5. 제 4항에 있어서,
    상기 아이들 타임 부분의 평가는 시간간격을 함수로 하여 평가하는 것을 특징으로 하는 면접시스템.
  6. 제 4항에 있어서,
    상기 아이들 타임 부분의 평가는 어절 또는 문장 단위를 함수로 하여 평가하는 것을 특징으로 하는 면접시스템.
  7. 제 1항에 있어서,
    상기 면접관 단말기는, 상기 서비스 서버에 동영상 데이타의 가공편집을 요청하는 데이타 편집 요청부를 포함하고,
    상기 서비스 서버의 데이타 판별부는 상기 데이타 편집 요청부의 요청사항을 상기 텍스트 데이타와 대비하여 평가하는 것을 특징으로 하는 면접시스템.
  8. 제 7항에 있어서,
    상기 데이타 편집 요청부는 특정 키워드를 포함하는 동영상 구간을 요청하는 것을 특징으로 하는 면접시스템.
  9. 제 8항에 있어서,
    상기 데이타 추출부의 동영상 데이타 추출은, 특정 키워드를 포함하는 텍스트 데이타를 문장 단위로 선택하거나, 시간 간격을 함수로 하여 선택하는 것을 특징으로 하는 면접시스템.
  10. 제 7항에 있어서,
    상기 데이타 편집 요청부는 기 저장된 질문지와 이에 대응하는 평가항목을 만족하는 동영상 구간을 요청하는 것을 특징으로 하는 면접시스템.
  11. 제 10항에 있어서,
    상기 데이타 추출부의 동영상 데이타 추출은, 시간 간격을 함수로 하여 선택하는 것을 특징으로 하는 면접시스템.
  12. 제 10항에 있어서,
    상기 서비스 서버의 데이타 판별부는 평가항목과 텍스트 데이타의 일치성을 평가하고, 그 결과를 면접관 단말기로 송신하는 것을 특징으로 하는 면접시스템.
  13. 면접 지원자가 서비스 서버로부터 질문정보를 수신하여 이에 대응하는 면접 영상을 촬영한 동영상 데이타를 형성하는 단계;
    네트워크를 통해 상기 동영상 데이타를 수신하여 저장하고, 상기 동영상 데이타를 가공편집하는 단계; 및
    네트워크를 통해 상기 서비스 서버로부터 상기 가공편집된 동영상 데이타를 수신하는 단계;를 포함하는 온라인 면접방법에 있어서,
    상기 동영상 데이타를 가공편집하는 단계는,
    상기 동영상 데이타의 음성 데이타를 검출하여 상기 검출된 음성데이타를 텍스트 데이타로 변환하고 텍스트 데이타를 인덱스 하는 단계;
    상기 인덱스된 텍스트 데이타와 대응되는 상기 동영상 데이타를 연계하여 인덱스화하여, 텍스트 데아타와 동영상 데이타를 매칭하는 단계;
    상기 텍스트 데이타의 특성을 평가하는 단계;
    상기 데이타 특성의 평가에 따라 텍스트 데이타를 선택하고, 상기 선택된 텍스트 데이타의 인덱스와 대응되는 동영상 데이타를 추출하는 단계; 및
    상기 추출된 동영상 데이타들을 병합하는 단계;를 포함하는 것을 특징으로 하는 온라인 면접 방법.
PCT/KR2016/002769 2016-03-18 2016-03-18 온라인 면접 시스템 및 그 방법 WO2017159902A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/002769 WO2017159902A1 (ko) 2016-03-18 2016-03-18 온라인 면접 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/002769 WO2017159902A1 (ko) 2016-03-18 2016-03-18 온라인 면접 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
WO2017159902A1 true WO2017159902A1 (ko) 2017-09-21

Family

ID=59851562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/002769 WO2017159902A1 (ko) 2016-03-18 2016-03-18 온라인 면접 시스템 및 그 방법

Country Status (1)

Country Link
WO (1) WO2017159902A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930106A (zh) * 2019-10-14 2020-03-27 平安科技(深圳)有限公司 线上面试***的信息处理方法、装置和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171481A (ja) * 2000-12-04 2002-06-14 Ricoh Co Ltd 映像処理装置
JP2008148077A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 動画再生装置
KR20080112975A (ko) * 2007-06-22 2008-12-26 서종훈 스크립트 정보 기반 동영상 검색을 위한 데이터베이스 구축방법, 데이터베이스 구축 시스템, 데이터베이스 구축용컴퓨터 프로그램이 기록된 기록매체 및 이를 이용한 동영상검색 방법
KR20090083300A (ko) * 2009-06-24 2009-08-03 (주)제이엠커리어 동영상 이력서 구성 마법사를 통한 온라인 구인구직 서비스 방법
KR20110056677A (ko) * 2009-11-23 2011-05-31 (주)길림컴즈 인터넷 동영상 음성/자막 정보검색을 통한 채용심사 웹사이트 시스템 및 그 운영방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171481A (ja) * 2000-12-04 2002-06-14 Ricoh Co Ltd 映像処理装置
JP2008148077A (ja) * 2006-12-12 2008-06-26 Hitachi Ltd 動画再生装置
KR20080112975A (ko) * 2007-06-22 2008-12-26 서종훈 스크립트 정보 기반 동영상 검색을 위한 데이터베이스 구축방법, 데이터베이스 구축 시스템, 데이터베이스 구축용컴퓨터 프로그램이 기록된 기록매체 및 이를 이용한 동영상검색 방법
KR20090083300A (ko) * 2009-06-24 2009-08-03 (주)제이엠커리어 동영상 이력서 구성 마법사를 통한 온라인 구인구직 서비스 방법
KR20110056677A (ko) * 2009-11-23 2011-05-31 (주)길림컴즈 인터넷 동영상 음성/자막 정보검색을 통한 채용심사 웹사이트 시스템 및 그 운영방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930106A (zh) * 2019-10-14 2020-03-27 平安科技(深圳)有限公司 线上面试***的信息处理方法、装置和***

Similar Documents

Publication Publication Date Title
JP6793975B2 (ja) 動画基盤求人求職マッチングサーバーおよび方法ならびにその方法を遂行するためのプログラムが記録されたコンピュータ読み取り可能記録媒体
KR101605430B1 (ko) 문답 데이터베이스 구축 시스템 및 방법, 그리고 이를 이용한 검색 시스템 및 방법
WO2018030672A1 (ko) 머신러닝을 활용한 정해진 시나리오로 고객과 상담하는 로봇 자동 상담 방법 및 시스템
US20160110415A1 (en) Using question answering (qa) systems to identify answers and evidence of different medium types
KR101830747B1 (ko) 온라인 면접 시스템 및 그 방법
WO2020141883A2 (ko) 인공지능 대화형 홈쇼핑 전화 주문 시스템
US20180082389A1 (en) Prediction program utilizing sentiment analysis
KR20210001419A (ko) 면접 컨설팅 서비스를 제공하기 위한 사용자 단말, 시스템 및 방법
CN109783624A (zh) 基于知识库的答案生成方法、装置和智能会话***
CN111696648A (zh) 一种基于互联网的心理咨询平台
CN111783449A (zh) 一种裁判文书中判决结果的要素提取方法及装置
CN111223487A (zh) 一种信息处理方法及电子设备
Late et al. In a perfect world: exploring the desires and realities for digitized historical image archives
WO2017159902A1 (ko) 온라인 면접 시스템 및 그 방법
CN110008314B (zh) 一种意图解析方法及装置
KR20020010226A (ko) 자연어로 입력된 사용자의 질문을 인공지능 시스템이분석하여 인터넷에 존재하는 정보를 효과적으로 제시하는서비스에 대한방법
CN114528851B (zh) 回复语句确定方法、装置、电子设备和存储介质
CN111241276A (zh) 题目搜索方法、装置、设备及存储介质
WO2011049313A9 (ko) 표현 및 설명 추출을 위한 문서 처리 장치 및 방법
Česonis Human language technologies and digitalisation in a multilingual interpreting setting
CN116071032A (zh) 基于深度学习的人力资源面试识别方法、装置及存储介质
CN107918606B (zh) 具象名词识别方法、装置及计算机可读存储介质
WO2021261617A1 (ko) 대화 의도 실시간 분석 방법
WO2017122872A1 (ko) 전자 출판물에 대한 정보를 생성하는 장치 및 방법
WO2020067666A1 (ko) 버추얼 상담 시스템 및 이를 이용한 상담방법

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16894633

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16894633

Country of ref document: EP

Kind code of ref document: A1