KR20170127354A - 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법 - Google Patents

페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법 Download PDF

Info

Publication number
KR20170127354A
KR20170127354A KR1020170031295A KR20170031295A KR20170127354A KR 20170127354 A KR20170127354 A KR 20170127354A KR 1020170031295 A KR1020170031295 A KR 1020170031295A KR 20170031295 A KR20170031295 A KR 20170031295A KR 20170127354 A KR20170127354 A KR 20170127354A
Authority
KR
South Korea
Prior art keywords
image
conversation
facial
face
facial motion
Prior art date
Application number
KR1020170031295A
Other languages
English (en)
Inventor
강미연
Original Assignee
강미연
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강미연 filed Critical 강미연
Publication of KR20170127354A publication Critical patent/KR20170127354A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 시스템 및 그 서비스 방법을 제공하되, 화상 대화에 참여한 대화 상대의 화상 대화 장치로부터 대화 상대의 얼굴 영상에 대한 페이셜 모션 데이터를 수신하고, 기설정된 컴퓨터 그래픽 캐릭터에 페이셜 모션 데이터를 맵핑하고, 맵핑된 페이셜 모션 데이터가 적용된 컴퓨터 그래픽 캐릭터를 대화 상대의 얼굴 영상으로서 출력하되, 페이셜 모션 데이터는 대화 상대의 화상 대화 장치에서 깊이 카메라를 통해 촬영된 얼굴 영상의 깊이 정보에 따른 페이셜 모션 캡쳐의 결과이다.

Description

페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING VIDEO CONVERSATION USING FACE CONVERSION BASED ON FACIAL MOTION CAPTURE}
본 발명은 페이셜 모션 캡쳐에 기반하여 생성된 컴퓨터 그래픽(CG: Computer Graphics) 캐릭터를 통해 대화자 간의 화상 대화를 제공하는 장치 및 방법에 관한 것이다.
최근 들어 오프라인 어학 교육의 번거로움을 해소하기 위하여 원격 어학 교육 시장이 크게 발전하고 있다. 그러나 기존의 전화 통화 등을 통한 어학 교육은 음성 교육에만 한정되어 사용자의 집중력이 떨어지고 입 모양을 통한 발음 확인 등이 불가능하여 학습 효율이 떨어진다는 문제가 있었다. 또한, 온라인 어학 교육 시스템은 대부분 어학 교육 서비스 제공자 측에서 제공한 교육 영상을 학생이 시청하는 단방향 방식이라는 한계가 있으며 실시간 교육이 어렵다는 단점이 있었다.
이와 관련하여, 대한민국 공개특허 제 2008-0096862 호(발명의 명칭: 온라인 원격 화상 교육의 운용 서비스 방법)에서는, 원어민 교사와 학생이 화상 대화와 같은 방법으로 화상수업을 진행할 수 있도록 제공되는 임베디드 시스템의 교육 장치들을 원어민 그룹과 학원 그룹에 각각 설치하고, 수업 스케줄 정보에 따라 원어민 교사 및 학생들에게 화상 수업을 제공하는 교육 장치들을 프랜차이즈 방식으로 운용 관리 및 서비스하는 것이 가능하도록 해주는 온라인 원격 화상 교육의 운용 서비스 방법을 개시하고 있다.
한편, 무선/정보통신기술의 비약적인 발전 및 스마트 기기 등의 개인용 휴대 단말의 사용이 활성화됨에 따라, 사용자가 장소 및 시간 등에 구애받지 않고 편리하게 화상 대화 서비스를 이용할 수 있게 되었다.
이러한 화상 대화 서비스는 다양한 대화형 시스템에 이용될 수 있으며, 예를들어 대화자 간의 대면이 필요하였던 온라인 어학 교육 시스템 뿐만 아니라 다양한 정보 안내 및 외국어 통역 등을 위한 인포메이션 시스템(information-system) 등에 유용하게 적용될 수 있다.
그러나 화상 대화 서비스의 경우 개인적인 친분이 있는 대화자 간에 사용되는 것이 일반적이며, 어학 교육, 정보 안내 및 통역 서비스 등에 이용될 경우 사용자에게 심리적 부담감을 줄 수 있다는 문제점이 있었다. 이에 따라, 화상 대화 서비스를 이용한 온라인 대화형 시스템에서 사용자의 집중도 및 시스템 활용도를 높일 수 있는 방식이 필요하다.
본 발명의 일 실시예는 페이셜 모션 캡쳐에 기반하여 생성된 컴퓨터 그래픽 캐릭터를 통해 대화자 간의 화상 대화를 처리하는 얼굴 변환 화상 대화 장치 및 방법을 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 측면에 따른 페이셜 모션 캡쳐 정보를 이용하여 대화 상대의 얼굴 변환을 처리하는 화상 대화 장치는, 화상 대화에 참여한 대화 상대의 화상 대화 장치와 데이터 송수신을 처리하는 통신모듈; 얼굴 변환 화상 대화 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 얼굴 변환 화상 대화 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 얼굴 변환 화상 대화 프로그램의 실행에 따라, 상기 통신모듈을 통해 상기 대화 상대의 화상 대화 장치로부터 상기 대화 상대의 얼굴 영상에 대한 페이셜 모션 데이터가 수신되면, 기설정된 컴퓨터 그래픽 캐릭터에 상기 페이셜 모션 데이터를 맵핑하고, 상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터를 상기 대화 상대의 얼굴 영상으로서 출력한다. 이때, 상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 깊이 카메라를 통해 촬영된 얼굴 영상의 깊이 정보에 따른 페이셜 모션 캡쳐의 결과이다.
그리고 본 발명의 다른 측면에 따른 페이셜 모션 캡쳐 정보를 이용하여 대화 상대의 얼굴 변환을 처리하는 화상 대화 서비스 제공 방법은, 화상 대화에 참여한 대화 상대의 화상 대화 장치로부터 상기 대화 상대의 얼굴 영상에 대한 페이셜 모션 데이터를 수신하는 단계; 기설정된 컴퓨터 그래픽 캐릭터에 상기 페이셜 모션 데이터를 맵핑하는 단계; 및 상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터를 상기 대화 상대의 얼굴 영상으로서 출력하는 단계를 포함한다. 이때, 상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 깊이 카메라를 통해 촬영된 얼굴 영상의 깊이 정보에 따른 페이셜 모션 캡쳐의 결과이다.
또한, 본 발명의 또 다른 측면에 따른 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치는, 화상 대화에 참여한 대화 상대의 화상 대화 장치와 데이터 송수신을 처리하는 통신모듈; 사용자의 얼굴 영상을 촬영하되, 촬영된 얼굴 영상으로부터 깊이 정보를 추출하는 깊이 카메라 모듈; 얼굴 변환 화상 대화 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 얼굴 변환 화상 대화 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 얼굴 변환 화상 대화 프로그램의 실행에 따라, 상기 촬영된 얼굴 영상에 대해 깊이 정보를 추출하여 페이셜 모션 캡쳐를 처리하고, 페이셜 모션 캡쳐의 결과에 따른 페이셜 모션 데이터를 상기 대화 상대의 화상 대화 장치로 전송한다. 이때, 상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 기설정된 컴퓨터 그래픽 캐릭터에 맵핑되며, 상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터가 상기 사용자의 얼굴 영상으로서 출력된다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 대화자 간의 실제 얼굴을 보고 대화하는 것과 동일한 효과를 갖되, 대화 참여자의 얼굴 모션을 컴퓨터 그래픽 캐릭터를 통해 그대로 구현함으로써 대화자의 표정, 근육을 이용한 사실적인 신체 표현, 피부 랜더링 및 동작 생성 등이 가능하여 실감도 및 대화 집중도를 높일 수 있으며, 어학용 화상 대화인 경우 학습 흥미도를 높일 수 있다.
도 1은 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 페이셜 모션 캡쳐를 위한 기준 데이터를 생성하는 방식을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 얼굴 변환 정보 제공자측의 화상 대화 서비스 제공 방법을 설명하기 위한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 얼굴 변환 정보 수신자측의 화상 대화 서비스 제공 방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)' 또는 '모듈'이란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부' 또는 '~모듈' 은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '~부' 또는 '~모듈' 은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과, '~부'(또는 '~모듈')들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'(또는 '~모듈')들로 결합되거나 추가적인 구성요소들과 '~부'(또는 '~모듈')들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'(또는 '~모듈')들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 휴대성과 이동성이 보장되는 무선 통신 장치로서 예를 들어, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, “네트워크”는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
도 1은 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 시스템의 구성도이다.
도 1에 도시한 바와 같이, 얼굴 변환 화상 대화 시스템(10)은, 페이셜 모션 캡쳐를 통해 사용자의 얼굴 영상으로부터 얼굴 변환 정보를 추출하여 대화 상대의 화상 대화 장치로 제공하는 제 1 화상 대화 장치(100), 및 제 1 화상 대화 장치(100)로부터 제공된 얼굴 변환 정보에 기초하여 대화 상대의 얼굴 영상을 임의의 디지털 액터(Digital Actor) 형태로 변환하여 출력하는 제 2 화상 대화 장치(200)를 포함한다.
제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)는 각각 개인 사용자의 단말일 수 있다. 또한, 제 1 화상 대화 장치(100)가 다수의 대화 상대에 대해 임의의 정보 서비스를 제공하는 장치이고, 제 2 화상 대화 장치(200)가 다수의 사용자가 제 1 화상 대화 장치(100)로부터 제공되는 정보 서비스를 사용할 수 있는 공용 장치인 경우, 제 1 화상 대화 장치(100)는 일종의 서버 장치이고 제 2 화상 대화 장치(200)는 키오스크 단말 또는 DID 시스템(Digital Information Display system)인 것도 가능하다. 이때, 서버 장치로서의 제 1 화상 대화 장치(100)에는 정보 제공자의 얼굴 영상을 촬영하여 화상 대화에 참여할 수 있도록 하는 사용자 인터페이스가 구현될 수 있다. 즉, 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)의 종류와 두 장치 간의 화상 대화를 처리하기 위한 통신 방식은 제한되지 않는다.
예를 들어, 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 시스템(10)은, 제 1 화상 대화 장치(100)의 사용자가 선생님이고 제 2 화상 대화 장치(200)의 사용자가 학생인, 언어학습용 화상 대화 서비스를 처리하는 시스템일 수 있다. 즉, 제 1 화상 대화 장치(100)는 선생님측 단말로서 선생님의 얼굴 영상을 깊이 카메라로 촬영한 후, 촬영된 영상 데이터로부터 깊이 정보를 추출하여 페이셜 모션 캡쳐를 수행한 결과에 따른 얼굴 변환 정보를 제 2 화상 대화 장치(200)로 전송한다. 또한, 제 2 화상 대화 장치(200)는 학생측 단말로서 제 1 화상 대화 장치(100)로부터 수신된 얼굴 변환 정보를 디지털 액터에 적용하여, 대화자의 실제 얼굴을 CG 캐릭터로 변환하여 출력한다.
한편, 본 발명의 다른 실시예에 따른 얼굴 변환 화상 대화 시스템(10)은 공항, 공연장, 교통안내소, 쇼핑몰, 관공서 등 다양한 종류의 현장에서 다수의 이용자에게 정보를 제공하는 인포메이션 시스템일 수 있다. 이러한 경우, 제 1 화상 대화 장치(100)는 한명 이상의 정보 제공자(예를 들어, 통역사 등)들의 단말일 수 있으며, 제 2 화상 대화 장치(200)는 임의의 정보를 제공받기 위해 제 1 화상 대화 장치(100)에 접속하는 하나 이상의 정보 이용자(예를 들어, 외국에 방문한 여행객, 쇼핑객, 공연 관람자 등)의 단말일 수 있다. 참고로, 제 2 화상 대화 장치(200)는 사용자 개인의 휴대용 단말일 뿐만 아니라 각종 장소에 배치되어 있는 키오스크 등의 형태인 것도 가능하다.
이하에서는, 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 시스템(10)이 언어학습용 대화 시스템인 것을 설명하도록 하며, 대화자의 실제 얼굴 모션을 구현하는 디지털 액터가 사용자의 선택에 따르거나 또는 자동으로 선택된 컴퓨터 그래픽 캐릭터(즉, CG 캐릭터)인 것을 설명하도록 한다.
구체적으로, 도 1에 도시한 바와 같이, 제 1 화상 대화 장치(100)는 깊이 카메라 모듈(110), 오디오 모듈(120), 통신 모듈(130), 메모리(140) 및 프로세서(150)를 포함하며, 제 2 화상 대화 장치(200)은 카메라 모듈(210), 오디오 모듈(220), 통신 모듈(230), 메모리(240) 및 프로세서(250)를 포함한다.
한편, 도 1에는 도시되지 않았으나, 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)는 각각 사용 목적에 따른 구성 요소들을 더 포함할 수 있다. 예를 들어, 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)가 스마트폰과 같이 무선 통신을 처리하는 단말인 경우, 음성 통화 기능, 무선 데이터 통신 기능 등의 원래의 기능을 처리하기 위한 구성을 더 포함할 수 있다. 이러한 경우, 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)의 깊이 카메라 모듈(110) 및 카메라 모듈(120)로서 스마트폰에 실장된 카메라를 사용할 수 있다. 또한, 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)가 데스크탑 또는 노트북과 같은 개별 사용자 단말인 경우, 깊이 카메라 모듈(110) 및 카메라 모듈(120)로서 화상캠을 사용하는 것도 가능하다. 이러한 제 1 화상 대화 장치(100) 및 제 2 화상 대화 장치(200)의 종류는 제한되지 않는다.
먼저, 제 1 화상 대화 장치(100)에 대해서 상세히 설명하도록 한다.
깊이 카메라 모듈(110)은 사용자의 얼굴 영상을 촬영하되, 촬영된 얼굴 영상으로부터 깊이 정보를 추출한다.
즉, 화상 대화에 참여하여 학생에게 어학 정보를 제공하고자 하는 선생님의 얼굴 영상을 깊이 카메라를 통해 촬영하고, 깊이 정보를 포함하는 선생님의 얼굴 영상 데이터를 프로세서(150)로 제공한다.
오디오 모듈(120)은 사용자의 음성 데이터를 녹음하며, 또한 제 2 화상 대화 장치(200)로부터 수신된 음성 데이터를 사용자가 청취할 수 있도록 출력한다.
통신모듈(130)은 프로세서(150)의 제어에 따라 화상 대화에 참여한 대화 상대의 화상 대화 장치(즉, 제 2 화상 대화 장치(200))와 데이터 송수신을 처리한다.
메모리(140)에는 대화 상대에게 사용자의 실제 얼굴 영상이 아닌 CG 캐릭터로 대체된 얼굴 영상의 정보를 제공할 수 있도록 하는 얼굴 변환 화상 대화 프로그램이 저장되어 있다.
이때, 메모리(140)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. 또한, 메모리(140)에는 얼굴 변환 화상 대화 프로그램 외에도 다양한 프로그램 및 데이터들이 저장되며, 이는 프로세서(150)에 의하여 처리될 수 있다.
프로세서(150)는 메모리(140)에 저장된 얼굴 변환 화상 대화 프로그램을 실행한다.
구체적으로, 프로세서(150)는 얼굴 변환 화상 대화 프로그램의 실행에 따라 다음과 같은 동작을 처리한다.
프로세서(150)는 깊이 카메라 모듈(110)을 통해 촬영된 사용자의 얼굴 영상에 대해 깊이 정보를 추출하여 페이셜 모션 캡쳐를 처리하고, 페이셜 모션 캡쳐의 결과에 따른 페이셜 모션 데이터를 제 2 화상 대화 장치(200)로 전송한다. 이때, 페이셜 모션 데이터는 제 2 화상 대화 장치(200) 상에서 기설정되어 있는 CG 캐릭터에 맵핑되며, 맵핑된 페이셜 모션 데이터가 적용된 CG 그래픽 캐릭터가 사용자(즉, 선생님)의 얼굴 영상으로서 출력된다. 이에 따라, 학생측 단말의 화상 대화 화면에는 선생님의 실제 얼굴 대신 선생님의 표정, 입모양 등을 따라하는 CG 캐릭터가 출력된다.
이때, 프로세서(150)는 깊이 카메라 모듈(110)을 통해 사용자(즉, 선생님)의 기설정된 기본 표정에 따른 깊이 정보를 추출하여 기준 데이터를 생성하고, 사용자의 얼굴 표정 변화에 따른 깊이 정보 값과 기준 데이터를 비교하여 사용자 얼굴 상에 기설정된 위치 요소 별 이동량을 계산하고, 이동량을 실시간으로 추적하여 위치 요소 별 변화량을 포함하는 페이셜 모션 데이터 생성하여 제 2 화상 대화 장치(200)로 스트리밍 전송한다.
도 2는 본 발명의 일 실시예에 따른 페이셜 모션 캡쳐를 위한 기준 데이터를 생성하는 방식을 설명하기 위한 도면이다.
프로세서(150)는 깊이 카메라 모듈(110)을 통해 동일 시점에서의 사용자의 2차원 얼굴 영상 및 3차원 얼굴 영상을 촬영하고, 사용자의 2차원 얼굴 영상과 3차원 얼굴 영상의 각 위치를 정합시킨다.
즉, 도 2의 (a)에서와 같은 사용자의 2차원 얼굴 영상으로부터, 도 2의 (b)에서와 같이 기설정된 표정 부위 요소들을 추출한다. 그리고 도 2의 (c)에서와 같이 3차원 얼굴 영상에서 해당 표정 부위 요소들에 대응되는 위치를 위치 요소로서 결정한다. 참고로, 표정 부위 요소는, 눈동자의 중심, 입꼬리, 눈썹 중심, 코 라인, 윗 입술 라인, 아랫 입술 라인 등 여러 부위가 설정될 수 있으며, 화상 대화의 목적에 따라 상이하게 설정될 수 있다. 예를 들어, 외국어 학습용 화상 대화 서비스의 경우 선생님의 발음과 관련된 표정을 보다 강조할 수 있도록 입꼬리, 윗 입술 및 아랫 입술 라인 등의 부위가 표정 부위 요소로서 포함될 수 있다.
또한, 사용자의 기본 표정은 각 표정 부위 요소 별로 이동량을 검출하는 기준이 되는 것으로서, 무표정한 상태의 사용자를 촬영한 2차원 및 3차원 얼굴 영상이 사용될 수 있다.
또한, 프로세서(150)는, 제 2 화상 대화 장치(200) 상에서 사용자(선생님)의 얼굴 영상의 페이셜 모션 캡쳐 결과가 적용된 CG 캐릭터가 출력될 경우 사용자의 음성과 표정이 자연스럽게 매칭될 수 있도록, 음성 데이터와 음성 데이터의 녹음 시점에 대응되는 페이셜 모션 데이터를 동기화하여 제 2 화상 대화 장치(200)로 전송한다. 이때, 프로세서(150)는 사용자가 화상 대화에 참여한 후 실시간으로 페이셜 모션 캡쳐를 수행하는 동안 발생되는 지연 시간에 따라 사용자의 음성 데이터를 버퍼링시켜 동기화를 수행할 수 있다. 참고로, 사용자의 음성 데이터 및 페이셜 모션 데이터의 동기화는 제 2 화상 대화 장치(200)에서 처리되는 것도 가능하다.
한편, 프로세서(150)는 제 2 화상 대화 장치(200)를 통해 대화 상대의 얼굴 영상은 별도의 얼굴 변환 처리없이 오디오 데이터와 함께 사용자가 확인할 수 있도록 출력하는 사용자 인터페이스를 제공한다. 즉, 학생측 또는 정보 요청자가 전송하는 화상 대화 데이터는 선생님 또는 정보 제공자가 명확히 확인할 수 있도록 실제 데이터가 그대로 출력될 수 있다.
이하, 도 3을 참조하여 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 서비스 방법에 대해서 상세히 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 얼굴 변환 정보 제공자측의 화상 대화 서비스 제공 방법을 설명하기 위한 순서도이다.
먼저, 깊이 카메라를 통해 촬영한 사용자의 얼굴 영상으로부터, 사용자의 기설정된 기본 표정에 따른 깊이 정보를 추출하여 기준 데이터를 생성한다(S310).
이때, 깊이 카메라를 통해 동일 시점에서의 사용자의 2차원 얼굴 영상 및 3차원 얼굴 영상을 촬영하고, 2차원 얼굴 영상과 3차원 얼굴 영상의 각 위치를 정합시키고, 2차원 얼굴 영상으로부터 기설정된 표정 부위 요소들을 추출하고, 3차원 얼굴 영상에서 해당 표정 부위 요소들에 대응되는 위치를 위치 요소로서 결정할 수 있다.
그런 다음, 화상 대화에 참여한 사용자의 얼굴 영상을 깊이 카메라를 통해 촬영하고(S320), 촬영된 얼굴 영상에 대해 깊이 정보를 추출하여 페이셜 모션 캡쳐를 처리한다(S330).
이때, 사용자의 얼굴 표정 변화에 따른 깊이 정보 값과 기준 데이터를 비교하여 사용자 얼굴 상에 기설정된 위치 요소 별 이동량을 계산하고, 이동량을 실시간으로 추적하여 위치 요소 별 변화량을 포함하는 페이셜 모션 데이터를 생성한다.
다음으로, 페이셜 모션 캡쳐의 결과에 따른 페이셜 모션 데이터를 화상 대화에 참여한 대화 상대의 화상 대화 장치로 전송한다(S340).
이러한 페이셜 모션 데이터는 대화 상대의 화상 대화 장치로 스트리밍 전송된다.
이때, 페이셜 모션 데이터는 대화 상대의 화상 대화 장치에서 기설정된 컴퓨터 그래픽 캐릭터에 맵핑되며, 맵핑된 페이셜 모션 데이터가 적용된 컴퓨터 그래픽 캐릭터가 상기 사용자의 얼굴 영상으로서 출력된다.
즉, 대화 상대의 화상 대화 장치는 3차원 랜더링 처리된 적어도 하나의 컴퓨터 그래픽 캐릭터가 저장되어 있으며, 적어도 하나의 컴퓨터 그래픽 캐릭터는 각각 상기 위치 요소들과 대응하는 위치 요소가 포함된 것이다. 따라서, 페이셜 모션 데이터에 기초하여 대화 상대의 화상 대화 장치 상에서 컴퓨터 그래픽 캐릭터의 위치 요소 별 이동량이 변화되며, 사용자의 표정에 대응하는 컴퓨터 그래픽 캐릭터를 통한 얼굴 영상이 출력된다.
한편, 상기 단계 S320과 병렬적으로 오디오 모듈을 통해 사용자의 음성 데이터를 녹음하는 단계가 더 수행될 수 있으며, 이를 통해 상기 단계 S340에서는 음성 데이터와 음성 데이터의 녹음 시점에 대응되는 페이셜 모션 데이터를 동기화하여 대화 상대의 화상 대화 장치로 전송할 수 있다.
또한, 상기 단계 S310 내지 S340과 병렬적으로, 대화 상대의 화상 대화 장치로부터 화상 대화 데이터(즉, 상대의 얼굴 영상 및 음성 데이터)를 수신하는 단계를 수행할 수 있다. 이러한 경우, 얼굴 변환 처리없이 대화 상대의 얼굴 영상 및 오디오 데이터를 출력하는 사용자 인터페이스를 제공할 수 있다.
다시 도 1로 돌아가서, 제 2 화상 대화 장치(200)에 대해서 상세히 설명하도록 한다.
카메라 모듈(210)은 사용자의 얼굴 영상을 촬영하고, 촬영된 얼굴 영상 데이터를 프로세서(250)로 제공한다.
오디오 모듈(220)은 사용자의 음성 데이터를 녹음하며, 또한 제 1 화상 대화 장치(100)로부터 수신된 음성 데이터를 사용자가 청취할 수 있도록 출력한다.
통신모듈(230)은 프로세서(250)의 제어에 따라 화상 대화에 참여한 대화 상대의 화상 대화 장치(즉, 제 1 화상 대화 장치(100))와 데이터 송수신을 처리한다.
메모리(240)에는, 대화 상대에게 사용자의 얼굴 영상을 포함하는 화상 대화 데이터를 제공하며, 대화 상대의 실제 얼굴 영상이 아닌 CG 캐릭터로 대체된 얼굴 영상을 출력하는 얼굴 변환 화상 대화 프로그램이 저장되어 있다.
이때, 메모리(240)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. 또한, 메모리(240)에는 얼굴 변환 화상 대화 프로그램 외에도 다양한 프로그램 및 데이터들이 저장되며, 이는 프로세서(250)에 의하여 처리될 수 있다.
프로세서(250)는 메모리(240)에 저장된 얼굴 변환 화상 대화 프로그램을 실행한다.
구체적으로, 프로세서(250)는 얼굴 변환 화상 대화 프로그램의 실행에 따라 다음과 같은 동작을 처리한다.
프로세서(250)는 사전에 저장되어 있는 3차원 랜더링 처리된 적어도 하나의 CG 캐릭터 중 사용자가 선택하거나 또는 자동으로 선택된 CG 캐릭터를 대화 상대의 얼굴 영상용으로서 출력한다. 이를 위해, 프로세서(250)는 적어도 하나의 CG 캐릭터 중 사용자가 원하는 캐릭터를 선택할 수 있도록 하는 사용자 인터페이스를 제공할 수 있다. 또한, 제 2 화상 대화 장치(200)가 스마트폰 또는 데스크탑 등 개별 단말인 경우, 프로세서(250)가 제공하는 사용자 인터페이스는 사전에 단말에 설치된 애플리케이션(예: 모바일 앱)의 형태로 제공될 수 있다.
이때, 프로세서(250)는 CG 캐릭터로서 애니메이션 캐릭터, 연예인 캐릭터 등 사용자에게 친숙하거나 선호하는 캐릭터를 생성하여 제공할 수 있다. 예를 들어, 어학 교육 서비스에서는 화상 대화 시 유소년층, 학생층 및 성인층 별로 선호하는 CG 캐릭터로 대체된 선생님의 얼굴 영상을 출력함으로써, 사용자 맞춤형으로 편안함, 재미, 흥미도를 높여주고 선생님의 실제 얼굴을 보며 대화하는 부담감을 줄여주고 집중력을 높일 수 있다.
이러한 CG 캐릭터는 3차원 얼굴 영상으로서, 앞서 설명한 제 1 화상 대화 장치(100)에서 설정된 표정 부위 요소 별로 결정된 위치 요소들과 대응하는 위치 요소를 포함한다. 이때, 각 CG 캐릭터는 제 1 화상 대화 장치(100)에서 설정된 기준 데이터와 대응하는 위치 요소 값들이 기본 표정으로 설정된 상태일 수 있다.
이에 따라, 프로세서(250)는 제 1 화상 대화 장치(100)로부터 수신된 페이셜 모션 데이터에 기초하여 CG 캐릭터의 위치 요소 별 이동량을 변화시킴으로써 대화 상대의 표정에 대응하는 CG 캐릭터를 스트리밍 출력한다.
이하, 도 4를 참조하여 본 발명의 일 실시예에 따른 얼굴 변환 화상 대화 서비스 방법에 대해서 상세히 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 얼굴 변환 정보 수신자측의 화상 대화 서비스 제공 방법을 설명하기 위한 순서도이다.
먼저, 대화 상대의 화상 대화 장치(즉, 제 1 화상 대화 장치(100))로부터, 대화 상대의 얼굴 영상을 페이셜 모션 캡쳐한 결과인 페이셜 모션 데이터를 실시간으로 연속 수신한다(S410).
그리고 사전에 선택된 CG 캐릭터에 페이셜 모션 데이터를 맵핑하여, CG 캐릭터에 대해 설정되어 있던 위치 요소 별로 이동량을 변화시킴으로써 대화 상대의 표정에 대응하는 CG 캐릭터를 생성한다(S420).
이때, 화상 대화 장치 상에는 각각 3D 랜더링된 복수의 CG 캐릭터가 저장되어 있으며, 각 CG 캐릭터는 대화 상대의 화상 대화 장치로부터 획득된 기준 데이터가 적용된 상태일 수 있다. 예를 들어, 임의의 대화 상대와 화상 대화를 시작하는 시점에 대화 상대의 화상 대화 장치로부터 기본 표정에 따른 기준 데이터를 수신하고, 각 CG 캐릭터에 기준 데이터를 적용하여 위치 요소들 및 위치 요소 값들에 대응하도록 기본 표정을 설정할 수 있다.
다음으로, 맵핑된 페이셜 모션 데이터가 적용된 CG 캐릭터를 대화 상대의 얼굴 영상으로서 디스플레이한다(S430).
한편, 상기 단계 S410은 페이셜 모션 데이터와 더불어 대화 상대의 음성 데이터가 함께 수신될 수 있다. 이에 따라, 상기 단계 S430에서는 대화 상대의 표정 변화에 따른 페이셜 모션 데이터가 적용된 CG 캐릭터가 출력됨과 동시에, 대화 상대의 음성 데이터가 함께 출력된다. 이때, 대화 상대의 음성 데이터와 페이셜 모션 데이터는 각각 발생된 시점에 기초하여 동기화 처리된 것일 수 있다. 또한, 대화 상대의 음성 데이터 및 페이셜 모션 데이터를 별도로 수신할 경우, 페이셜 모션 데이터의 처리 시간에 대한 정보 및 음성 데이터 발생 시점 정보를 함께 수신하여 음성 데이터를 두 시간 정보에 기초하여 지연시킴으로써 얼굴 영상과 음성 데이터를 동기화 시켜 출력하는 것도 가능한다.
또한, 상기 단계 S410 내지 S430과 병렬적으로, 카메라를 통해 사용자의 얼굴 영상을 촬영하고 오디오 모듈을 통해 사용자의 음성을 녹음하는 단계, 및 화상 대화 데이터(즉, 촬영된 얼굴 영상 및 녹음된 음성 데이터)를 대화 상대의 화상 대화 장치로 전송하는 단계를 더 수행할 수 있다.
이상에서 설명한 본 발명의 실시예에 따른 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 그 제공 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
또한, 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수도 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
10: 얼굴 변환 화상 대화 시스템
100: 제 1 화상 대화 장치
200: 제 2 화상 대화 장치

Claims (13)

  1. 페이셜 모션 캡쳐 정보를 이용하여 대화 상대의 얼굴 변환을 처리하는 화상 대화 장치에 있어서,
    화상 대화에 참여한 대화 상대의 화상 대화 장치와 데이터 송수신을 처리하는 통신모듈;
    얼굴 변환 화상 대화 프로그램이 저장된 메모리; 및
    상기 메모리에 저장된 얼굴 변환 화상 대화 프로그램을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 얼굴 변환 화상 대화 프로그램의 실행에 따라, 상기 통신모듈을 통해 상기 대화 상대의 화상 대화 장치로부터 상기 대화 상대의 얼굴 영상에 대한 페이셜 모션 데이터가 수신되면, 기설정된 컴퓨터 그래픽 캐릭터에 상기 페이셜 모션 데이터를 맵핑하고, 상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터를 상기 대화 상대의 얼굴 영상으로서 출력하며,
    상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 깊이 카메라를 통해 촬영된 얼굴 영상의 깊이 정보에 따른 페이셜 모션 캡쳐의 결과인 것인, 얼굴 변환 화상 대화 장치.
  2. 제 1 항에 있어서,
    3차원 랜더링 처리된 컴퓨터 그래픽 캐릭터가 저장되어 있으며,
    상기 컴퓨터 그래픽 캐릭터는 상기 대화 상대의 기본 표정에 따라 설정된 위치 요소들과 대응하는 위치 요소가 포함된 것이고,
    상기 프로세서는,
    상기 페이셜 모션 데이터에 기초하여 상기 컴퓨터 그래픽 캐릭터의 위치 요소 별 이동량을 변화시키는, 얼굴 변환 화상 대화 장치.
  3. 제 2 항에 있어서,
    복수의 컴퓨터 그래픽 캐릭터가 저장되어 있으며,
    상기 프로세서는,
    상기 복수의 컴퓨터 그래픽 캐릭터 중 사용자가 어느 하나를 선택할 수 있도록 하는 사용자 인터페이스를 제공하는, 얼굴 변환 화상 대화 장치.
  4. 제 1 항에 있어서,
    사용자의 얼굴 영상을 촬영하는 카메라 모듈; 및
    상기 사용자의 음성 데이터를 녹음하는 오디오 모듈을 더 포함하며,
    상기 프로세서는,
    상기 카메라 모듈을 통해 촬영된 얼굴 영상 데이터 및 상기 오디오 모듈을 통해 녹음된 음성 데이터를 포함하는 화상 대화 데이터를 상기 대화 상대의 화상 대화 장치로 전송하며,
    상기 대화 상대의 화상 대화 장치에서는 상기 사용자의 얼굴 영상 데이터가 얼굴 변환 처리없이 출력되는 것인, 얼굴 변환 화상 대화 장치.
  5. 페이셜 모션 캡쳐 정보를 이용하여 대화 상대의 얼굴 변환을 처리하는 화상 대화 장치를 통해 얼굴 변환 화상 대화 서비스를 제공하는 방법에 있어서,
    화상 대화에 참여한 대화 상대의 화상 대화 장치로부터 상기 대화 상대의 얼굴 영상에 대한 페이셜 모션 데이터를 수신하는 단계;
    기설정된 컴퓨터 그래픽 캐릭터에 상기 페이셜 모션 데이터를 맵핑하는 단계; 및
    상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터를 상기 대화 상대의 얼굴 영상으로서 출력하는 단계를 포함하며,
    상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 깊이 카메라를 통해 촬영된 얼굴 영상의 깊이 정보에 따른 페이셜 모션 캡쳐의 결과인 것인, 얼굴 변환 화상 대화 서비스 제공 방법.
  6. 제 5 항에 있어서,
    상기 컴퓨터 그래픽 캐릭터는,
    3차원 랜더링 처리되어, 상기 대화 상대의 기본 표정에 따라 설정된 위치 요소들과 대응하는 위치 요소가 포함된 것이며,
    상기 페이셜 모션 데이터를 맵핑하는 단계는,
    상기 상기 페이셜 모션 데이터에 기초하여 상기 컴퓨터 그래픽 캐릭터의 위치 요소 별 이동량을 변화시키는, 얼굴 변환 화상 대화 서비스 제공 방법.
  7. 제 6 항에 있어서,
    상기 페이셜 모션 데이터를 맵핑하는 단계 이전에,
    기저장된 복수의 컴퓨터 그래픽 캐릭터 중 사용자가 어느 하나를 선택할 수 있도록 하는 사용자 인터페이스를 제공하는 단계를 더 포함하는, 얼굴 변환 화상 대화 서비스 제공 방법.
  8. 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치에 있어서,
    화상 대화에 참여한 대화 상대의 화상 대화 장치와 데이터 송수신을 처리하는 통신모듈;
    사용자의 얼굴 영상을 촬영하되, 촬영된 얼굴 영상으로부터 깊이 정보를 추출하는 깊이 카메라 모듈;
    얼굴 변환 화상 대화 프로그램이 저장된 메모리; 및
    상기 메모리에 저장된 얼굴 변환 화상 대화 프로그램을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 얼굴 변환 화상 대화 프로그램의 실행에 따라, 상기 촬영된 얼굴 영상에 대해 깊이 정보를 추출하여 페이셜 모션 캡쳐를 처리하고, 페이셜 모션 캡쳐의 결과에 따른 페이셜 모션 데이터를 상기 대화 상대의 화상 대화 장치로 전송하며,
    상기 페이셜 모션 데이터는 상기 대화 상대의 화상 대화 장치에서 기설정된 컴퓨터 그래픽 캐릭터에 맵핑되며, 상기 맵핑된 페이셜 모션 데이터가 적용된 상기 컴퓨터 그래픽 캐릭터가 상기 사용자의 얼굴 영상으로서 출력되는 것인, 얼굴 변환 화상 대화 장치.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 깊이 카메라 모듈을 통해 상기 사용자의 기설정된 기본 표정에 따른 깊이 정보를 추출하여 기준 데이터를 생성하고,
    상기 사용자의 얼굴 표정 변화에 따른 깊이 정보 값과 상기 기준 데이터를 비교하여 상기 사용자 얼굴 상에 기설정된 위치 요소 별 이동량을 계산하고,
    상기 이동량을 실시간으로 추적하여 상기 위치 요소 별 변화량을 포함하는 페이셜 모션 데이터를 상기 대화 상대의 화상 대화 장치로 스트리밍 전송하는, 얼굴 변환 화상 대화 장치.
  10. 제 9 항에 있어서,
    상기 프로세서는,
    상기 깊이 카메라 모듈을 통해 동일 시점에서의 상기 사용자의 2차원 얼굴 영상 및 3차원 얼굴 영상을 촬영하고,
    상기 2차원 얼굴 영상과 상기 3차원 얼굴 영상의 각 위치를 정합시키고,
    상기 2차원 얼굴 영상으로부터 기설정된 표정 부위 요소들을 추출하고,
    상기 3차원 얼굴 영상에서 상기 추출된 표정 부위 요소들에 대응되는 위치를 상기 위치 요소로서 결정하는, 얼굴 변환 화상 대화 장치.

  11. 제 9 항에 있어서,
    상기 대화 상대의 화상 대화 장치는 3차원 랜더링 처리된 적어도 하나의 컴퓨터 그래픽 캐릭터가 저장되어 있으며,
    상기 적어도 하나의 컴퓨터 그래픽 캐릭터는 각각 상기 위치 요소들과 대응하는 위치 요소가 포함된 것이고,
    상기 페이셜 모션 데이터에 기초하여 상기 컴퓨터 그래픽 캐릭터의 위치 요소 별 이동량이 변화되는 것인, 얼굴 변환 화상 대화 장치.
  12. 제 8 항에 있어서,
    상기 사용자의 음성 데이터를 녹음하는 오디오 모듈을 더 포함하며,
    상기 프로세서는,
    상기 음성 데이터와 상기 음성 데이터의 녹음 시점에 대응되는 상기 페이셜 모션 데이터를 동기화하여 상기 대화 상대의 화상 대화 장치로 전송하는, 얼굴 변환 화상 대화 장치.
  13. 제 8 항에 있어서,
    상기 프로세서는,
    상기 통신모듈을 통해 상기 대화 상대의 화상 대화 장치로부터 상기 대화 상대의 얼굴 영상 및 오디오 데이터를 수신하면, 얼굴 변환 처리없이 상기 수신된 대화 상대의 얼굴 영상 및 오디오 데이터를 출력하는 사용자 인터페이스를 제공하는, 얼굴 변환 화상 대화 장치.
KR1020170031295A 2016-05-11 2017-03-13 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법 KR20170127354A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160057412 2016-05-11
KR20160057412 2016-05-11

Publications (1)

Publication Number Publication Date
KR20170127354A true KR20170127354A (ko) 2017-11-21

Family

ID=60808933

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170031295A KR20170127354A (ko) 2016-05-11 2017-03-13 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20170127354A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021053181A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
WO2023128305A1 (ko) * 2021-12-28 2023-07-06 주식회사 직방 메타버스 기반의 오피스 환경에서 유저영상데이터 매칭 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 매칭 시스템
WO2024117616A1 (ko) * 2022-11-30 2024-06-06 메타빌드주식회사 카메라와 모션캡쳐 인식을 활용한 실시간 동기화 및 인터랙션이 가능한 디지털 휴먼을 활용한 메타버스 서비스를 제공하는 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
KR20090007909A (ko) * 2007-07-16 2009-01-21 연세대학교 산학협력단 캐리커처 비디오 생성 방법 및 장치
KR20120048293A (ko) * 2010-11-05 2012-05-15 삼성전자주식회사 3차원 영상통신장치 및 3차원 영상통신장치의 영상처리방법
KR20140137564A (ko) * 2013-05-23 2014-12-03 경북대학교 산학협력단 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016475A (ja) * 2001-07-04 2003-01-17 Oki Electric Ind Co Ltd 画像コミュニケーション機能付き情報端末装置および画像配信システム
KR20090007909A (ko) * 2007-07-16 2009-01-21 연세대학교 산학협력단 캐리커처 비디오 생성 방법 및 장치
KR20120048293A (ko) * 2010-11-05 2012-05-15 삼성전자주식회사 3차원 영상통신장치 및 3차원 영상통신장치의 영상처리방법
KR20140137564A (ko) * 2013-05-23 2014-12-03 경북대학교 산학협력단 인물 추적용 3차원 이미지 센싱 시스템 및 그 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021053181A (ja) * 2019-09-30 2021-04-08 株式会社コロプラ プログラム、方法、および視聴端末
WO2023128305A1 (ko) * 2021-12-28 2023-07-06 주식회사 직방 메타버스 기반의 오피스 환경에서 유저영상데이터 매칭 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 매칭 시스템
WO2024117616A1 (ko) * 2022-11-30 2024-06-06 메타빌드주식회사 카메라와 모션캡쳐 인식을 활용한 실시간 동기화 및 인터랙션이 가능한 디지털 휴먼을 활용한 메타버스 서비스를 제공하는 시스템 및 방법

Similar Documents

Publication Publication Date Title
CN107911644B (zh) 基于虚拟人脸表情进行视频通话的方法及装置
US11670015B2 (en) Method and apparatus for generating video
US10796685B2 (en) Method and device for image recognition
US9253440B2 (en) Augmenting a video conference
CN110349081B (zh) 图像的生成方法、装置、存储介质和电子设备
US10938725B2 (en) Load balancing multimedia conferencing system, device, and methods
CN113168231A (zh) 用于跟踪真实世界对象的移动以改进虚拟对象定位的增强技术
CN112243583B (zh) 多端点混合现实会议
US11527242B2 (en) Lip-language identification method and apparatus, and augmented reality (AR) device and storage medium which identifies an object based on an azimuth angle associated with the AR field of view
CN111080759B (zh) 一种分镜效果的实现方法、装置及相关产品
CN110730952A (zh) 处理网络上的音频通信的方法和***
CN107798932A (zh) 一种基于ar技术的早教训练***
US20110157299A1 (en) Apparatus and method of video conference to distinguish speaker from participants
CN110401810B (zh) 虚拟画面的处理方法、装置、***、电子设备及存储介质
KR20210060196A (ko) 아바타 메시지 서비스를 제공하는 서버, 방법 및 사용자 단말
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
CN112286610A (zh) 一种互动处理方法、装置、电子设备和存储介质
CN108629241B (zh) 一种数据处理方法和数据处理设备
KR20170127354A (ko) 페이셜 모션 캡쳐를 이용한 얼굴 변환 화상 대화 장치 및 방법
CN111629222B (zh) 一种视频处理方法、设备及存储介质
KR20160116677A (ko) 피트니스 컨설턴트 방법 및 컴퓨터 프로그램, 그리고 컨설턴트 단말
CN114463470A (zh) 虚拟空间浏览方法、装置、电子设备和可读存储介质
CN108320331B (zh) 一种生成用户场景的增强现实视频信息的方法与设备
CN117519825A (zh) 一种数字人分身交互方法、装置、电子设备和存储介质
KR20160136833A (ko) 영상콘텐츠를 활용한 의료교육 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application