KR20100129122A - 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템 - Google Patents

텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템 Download PDF

Info

Publication number
KR20100129122A
KR20100129122A KR1020090102590A KR20090102590A KR20100129122A KR 20100129122 A KR20100129122 A KR 20100129122A KR 1020090102590 A KR1020090102590 A KR 1020090102590A KR 20090102590 A KR20090102590 A KR 20090102590A KR 20100129122 A KR20100129122 A KR 20100129122A
Authority
KR
South Korea
Prior art keywords
information
text
emotion
animation
based data
Prior art date
Application number
KR1020090102590A
Other languages
English (en)
Other versions
KR101628050B1 (ko
Inventor
민욱희
강보경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/762,258 priority Critical patent/US9665563B2/en
Priority to EP10162474A priority patent/EP2256642A3/en
Priority to JP2010119251A priority patent/JP5815214B2/ja
Publication of KR20100129122A publication Critical patent/KR20100129122A/ko
Application granted granted Critical
Publication of KR101628050B1 publication Critical patent/KR101628050B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템을 제안한다. 제안되는 실시예에 따른 애니메이션 스크립트 생성장치는 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스에서 추출하는 감정 분석부와 상기 감정에 대응하는 동작을 상기 레퍼런스 데이터베이스에서 선택하는 동작 선택부 및 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함할 수 있다.
또한 제안되는 실시예에 따른 애니메이션 재생장치는 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보 및 텍스트 기반 데이터를 선택하는 애니메이션 스크립트 분석부와, 상기 캐릭터를 상기 동작정보에 따라 동작하는 그래픽을 생성하는 그래픽 생성부 및 상기 생성한 그래픽을 애니메이션으로 출력하는 애니메이션 재생부를 포함할 수 있다.
Figure P1020090102590
감정, 동작, 애니메이션 메시지, 애니메이션

Description

텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템{ANIMATION SYSTEM FOR REPRODUCING TEXT BASE DATA BY ANIMATION}
하기에서 설명하는 것은, 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템에 관한 것으로, 특히 텍스트 기반 데이터에서 감정을 추출하고 감정에 따른 동작을 선택해서 애니메이션 스크립트를 생성하고, 생성된 애니메이션 스크립트를 재생하는 애니메이션 시스템에 관련된 것이다.
통신 기술의 발달과 휴대용 단말기의 기능향상에 힘입어, 사용자 간의 짧은 메시지를 주고 받을 수 있는 단문 메시지 서비스(SMS: Short Message Service)가 널리 사용되고 있다.
근래에 들어서는 음성 통화에 비하여 비교적 저렴하다는 장점 때문에 통화기능보다도 상기 "단문 메시지 서비스"를 더 선호하는 경향이 있고, 단순한 텍스트 기반 데이터에서 벗어나 동영상, 사진, 음악파일 등이 부가된 메시지 서비스인 멀티미디어 메시지 서비스(MMS: Multimedia Message System)는 단문 메시지 서비스의 장점과 이 메일서비스의 장점을 결합한 대표적인 유무선통합 서비스로 국내뿐만 아니라 해외에서도 휴대용 단말기 사용자의 사용 빈도가 높다.
기존의 메시지 발신자의 감정, 기분의 상태를 표현하기 위한 방법은 멀티미디어 메시지를 이용하여 동적인 메시지를 보내는 경우와 휴대용 단말기에서 제공되는 특수 문자를 조합하여 작성한 이모티콘(예를들어, ^^ (웃는 얼굴) 등)을 이용한 방법이었다. 이러한 이모티콘은 누구나 보면 이해할 수 있고 사용자의 미묘한 감정을 표현하기에 용이하다는 점에서 사이버 공간에서 널리 이용되고 있고, 채팅 사용자를 중심으로 다양한 표정이 개발되어, 발전된 이동통신 단말기에는 사용자의 다양한 이모티콘(Emoticon)이 저장되어 있지만 감정을 표현하기에는 한계가 있다.
이러한 방법은 텍스트 기반 데이터를 송신하는 사람의 희, 노, 애, 락과 같은 감정을 제대로 표현하지 못하고, 발신자의 감정, 심리상태, 및 기분의 표현이 가능한 멀티미디어 메시지는 단문 메시지보다 용량이 크다.
한편, 세컨드 라이프(Second Life)는 '자기 표현'과 '컨텐츠 생성을 통한 수익 발생'이 가능하다는 점에서 많은 사용자들을 확보하였고, 획기적인 컨텐츠 서비스 모델로 정착했다. 사용자들은 가상 현실 속의 2차원 또는 3차원 캐릭터를 통해 자신의 정체성(identity)을 재창조함으로써 자기 표현욕구를 만족시키고, 각종 오브젝트들을 창작하고 거래하고 소유함으로써 가상현실을 하나의 시장으로 만들었다.
개시되는 실시예에 따른 애니메이션 스크립트 생성장치는, 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스에서 추출하는 감정 분석부와, 상기 감정에 대응하는 동작을 상기 레퍼런스 데이터베이스에서 선택하는 동작 선택부 및 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함한다.
개시되는 실시예에 따른 애니메이션 재생장치는, 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보 및 텍스트 기반 데이터를 선택하는 애니메이션 스크립트 분석부와, 상기 캐릭터를 상기 동작정보에 따라 동작하는 그래픽을 생성하는 그래픽 생성부 및 상기 생성한 그래픽을 애니메이션으로 출력하는 애니메이션 재생부를 포함한다.
개시되는 실시예에 따른 수신 단말 장치는, 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스 및 수신한 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치를 포함한다.
개시되는 실시예에 따른 송신 단말 장치는, 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스 및 송신할 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고, 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성해서 수신 단말 장치로 송신하는 애니메이션 스크립트 생성장치를 포함한다.
개시되는 실시예에 따르면, 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템은 텍스트 기반 데이터에서 감정을 추출하고 감정에 따른 동작을 선택해서 애니메이션 스크립트를 생성하고, 생성된 애니메이션 스크립트를 재생하는 애니메이션 시스템에 관련된 것으로, 텍스트 기반 데이터를 감정과 동작으로 표현되는 애니메이션으로 출력하는 서비스를 제공한다.
이하, 제안되는 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
제안되는 실시예는 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템에 관한 것으로, 애니메이션 시스템은 애니메이션 스크립트 생성장치와 애니메이션 재생장치를 포함한다.
설명에 앞서 제안되는 실시예에서 텍스트 기반 데이터는 텍스트를 포함하는 데이터를 의미한다. 텍스트 기반 데이터는 문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메신저(instant messenger)를 통해 송수신되는 인스턴트 메시 지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)를 통해 서비스 되는 텍스트 메모, 이메일(E-mail) 서비스를 통해 송수신되는 텍스트 기반의 메일 등이 가능하다.
도 1은 제안되는 실시예에 따른 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치의 구성을 도시한 도면이다.
도 1을 참조하면 레퍼런스 데이터베이스(110)를 이용하여 애니메이션 스크립트를 생성하는 애니메이션 스크립트 생성장치(120)는 자연어 처리부(121), 감정 분석부(122), 동작 선택부(123), 외부데이터 처리부(124), 연출부(125) 및 스크립트 생성부(126)를 포함한다.
먼저 레퍼런스 데이터베이스(110)를 살펴보면 감정 어휘사전 데이터베이스(111), 감정추론 룰 데이터베이스(112), 사용자 프로파일 데이터베이스(113), 동작 룰 데이터베이스(114), 외부 데이터베이스(115) 및 연출 데이터베이스(116)를 포함한다.
사용자 프로파일 데이터베이스(113)는 단말장치의 사용자가 관리하는 사람들과의 사용자 관계정보와 관리하는 사람들의 캐릭터 정보를 구조화한 데이터베이스 이다. 여기서 사용자 관계정보란 사용자와 관리하는 사람과의 관계(예를 들어 애인, 친구, 가족 등)에 관한 정보와 그 친밀도에 관한 정보이다.
감정 어휘사전 데이터베이스(111)는 어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 구조화한 데이터베이스이다.
감정추론 룰 데이터베이스(112)는 어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 구조화한 데이터베이스이다.
동작 룰 데이터베이스(114)는 감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 구조화한 데이터베이스이다.
외부 데이터베이스(115)는 텍스트 기반 데이터의 송수신 시간, 날씨 정보 등을 저장하는 데이터베이스이다.
연출 데이터베이스(116)는 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크와 배경음향에 대한의 매핑 정보를 구조화한 데이터 베이스 이다.
다음으로 애니메이션 스크립트 생성장치(120)의 세부 구성을 설명한다.
자연어 처리부(121)는 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하고, 또한 주어, 서술어 및 목적어와 같은 문장성분을 확인한다.
감정 분석부(122)는 사용자 프로파일 데이터베이스(113)에서 텍스트 기반 데이터의 생성자에 대응하는 캐릭터와 사용자 관계정보를 확인한다. 그리고, 감정 분석부(122)는 감정 어휘사전 데이터베이스(111)에서 어휘와 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 감정 추론 룰 데이터베이스(112)에서 어휘들의 조합과 사용자 관계정보에 대응하는 추론 감정을 확인한다. 이후, 감정 분석부(122)는 어휘 감정과 추론 감정을 합성해서 하나 이상의 감정을 추출한다.
예를 들어 수신하는 텍스트 기반 데이터가 “오늘 숙제 할게 열라 많아서 짜 증나 발표 준비 귀찮다”라는 문자 메시지인 경우 자연어 처리부(121) 및 감정 분석부(122)를 통해 감정을 확인하는 것을 아래 <표 1>을 통해 설명한다.
Figure 112009065976444-PAT00001
즉, 자연어 처리부(121)에서 “오늘 숙제 할게 열라 많아서 짜증나 발표 준비 귀찮다”를 문장성분을 가지는 어휘들로 구분한다. 그리고, 감정 분석부(122)는 친밀도가 5인 친구로 표현되는 사용자 관계정보를 확인한다. 그리고, 감정 분석부(122)는 `짜증난다`와 `귀찮다`의 어휘 감정을 확인하고, `숙제`, `열라`, `많다`와 사용자 관계 정보를 이용해서 추론 감정을 확인한다. 그리고 감정 분석부(122)는 어휘 감정과 추론 감정을 합성해서 `contempt`의 감정를 추출한다.
한편, 감정 분석부(122)는 텍스트 기반 데이터에서 감정을 추출할 수 없거나, 텍스트 기반 데이터의 감정추출과 더불어, 사용자의 맥박 혹은 뇌파 등의 측정을 통해 감정 추출할 수도 있다.
동작 선택부(123)는 동작 룰 데이터베이스(114)에서 감정과 사용자 관계정보에 대응하는 동작을 선택한다.
외부데이터 처리부(124)는 외부 데이터베이스(115)에 포함된 텍스트 기반 데이터의 송수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 날씨 또는 시간이 고려된 배경영상을 생성한다. 예를 들어 외부데이터 처리부(124)는 날씨가 비가오는 중이고, 시간이 밤시간이면, 배경을 비오는 밤으로 생성한다.
연출부(125)는 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보를 이용해서 연출 데이터베이스(116)에서 대응하는 카메라 워크와 배경음향을 선택한다.
스크립트 생성부(126)는 텍스트 기반 데이터, 감정, 동작, 배경, 배경음향 및, 카메라 워크을 결합해서 애니메이션 스크립트로 생성한다.
도 2는 제안되는 실시예에 따른 애니메이션 시스템에서 애니메이션 스크립트를 재생하는 애니메이션 재생장치의 구성을 도시한 도면이다.
도 2를 참조하면 애니메이션 재생장치(230)는 애니메이션 스크립트 분석부(232), 그래픽 생성부(234), 오디오 처리부(236) 및 애니메이션 재생부(238)를 포함한다.
애니메이션 스크립트 분석부(232)는 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보, 배경, 카메라 워크, 배경음향 및 텍스트 기반 데이터를 선택한다.
그래픽 생성부(234)는 선택된 배경에서 캐릭터의 동작을 카메라 워크에 따라 그래픽으로 생성한다. 또한 그래픽 생성부(234)는 그래픽을 생성할 때 텍스트 기반 데이터의 텍스트를 포함하여 생성할 수 있다.
오디오 처리부(236)는 텍스트 기반 데이터를 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력한다. 또한 오디오 처리부(236)는 배경음향을 출력할 수 있다. 여기서, 텍스트 기반 데이터의 텍스트를 음성으로 출력하는 기술을 문자 음성 변환(TTS: Text To Speech)이라하며, 제안하는 실시예는 감정정보에 따라 억양이나 음조를 다르게 할 수 있다.
애니메이션 재생부(238)는 그래픽 생성부(234)에서 생성한 그래픽과 오디오 처리부(236)에서 출력하는 음성 또는 배경음향을 통합해서 애니메이션으로 출력한다.
이하, 상기와 같이 구성된 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션으로 재생하는 방법을 아래에서 도면을 참조하여 설명한다.
도 3은 제안되는 실시예에 따른 애니메이션 스크립트 생성장치에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 과정을 도시한 흐름도이다.
도 3을 참조하면 제안되는 실시예에 따른 애니메이션 스크립트 생성장치(120)는 310단계에서 텍스트 기반 데이터를 수신하면, 312단계로 진행해서 텍스트 기반 데이터를 구문 분석해서 포함된 어휘와 문장성분을 확인한다.
그리고, 애니메이션 스크립트 생성장치(120)는 314단계로 진행하여 텍스트 기반 데이터의 생성자에 대응하는 캐릭터를 확인하고 어휘와 문장성분과 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스(110)에서 추출한다.
그리고, 애니메이션 스크립트 생성장치(120)는 316단계로 진행하여 감정과 사용자 관계정보에 대응하는 동작을 레퍼런스 데이터베이스(110)에서 선택한다.
그리고, 애니메이션 스크립트 생성장치(120)는 318단계로 진행하여 텍스트 기반 데이터의 송신 시간정보, 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성한다.
그리고, 애니메이션 스크립트 생성장치(120)는 320단계로 진행하여 사용자 관계정보, 감정, 캐릭터 또는 동작 중에서 적어도 하나 이상의 정보를 이용해서 레퍼런스 데이터베이스(110)에서 대응하는 상기 카메라 워크와 상기 배경음향을 선택한다.
그리고, 애니메이션 스크립트 생성장치(120)는 322단계로 진행하여 텍스트 기반 데이터, 감정, 동작, 배경, 배경음향 및, 카메라 워크을 결합해서 애니메이션 스크립트를 생성한다.
도 4는 제안되는 실시예에 따른 애니메이션 재생장치에서 애니메이션 스크립트를 재생하는 과정을 도시한 흐름도이다.
도 4를 참조하면 제안되는 애니메이션 재생장치(230)는 410단계에서 애니메이션 스크립트를 수신하면, 412단계로 진행해서 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보, 배경, 카메라 워크, 배경음향 및 텍스트 기반 데이터를 선택한다.
그리고 애니메이션 재생장치(230)는 414단계로 진행하여 선택된 배경에서 캐릭터의 동작을 카메라 워크에 따라 그래픽으로 생성하고, 동시에 416단계에서 텍스트 기반 데이터의 텍스트를 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력하고, 418단계에서 배경음향을 출력한다.
이후, 그리고 애니메이션 재생장치(230)는 420단계로 진행하여 생성한 그래픽, 음성 또는 배경음향을 통합해서 애니메이션으로 출력한다.
도 1과 도 2를 통해 설명한 제안되는 실시예인 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)는 송신 단말 장치에 포함시킬 수도 있고, 수신 단말 장치에 포함시킬 수도 있으며, 송/수신 단말 장치가 아닌 별도의 외부 장치로 구성할 수도 있다.
그러면, 상기와 같이 구성된 애니메이션 시스템을 휴대용 단말 장치에 적용한 실시예들을 아래에서 도 5에서 도 7을 참조하여 설명한다.
도 5는 제안되는 실시예에 따른 애니메이션 시스템을 수신 단말 장치에 적용한 예를 도시한 도면이다.
도 5를 참조하면 송신 단말 장치(510)가 서비스 서버(520)를 통해 텍스트 기반 데이터를 수신 단말 장치(530)로 송신하면, 수신 단말 장치(530)는 애니메이션 스크립트 생성장치(120)를 통해 텍스트 기반 데이터를 애니메이션 스크립트로 생성한다. 그리고, 생성된 애니메이션 스크립트는 애니메이션 재생장치(230)를 통해 재생된다.
이때, 애니메이션 스크립트 생성장치(120)는 레퍼런스 데이터베이스(110)에 저장된 관계정보를 이용하여 텍스트 기반 데이터의 감정을 추출하고 동작을 선택한다.
따라서, 애니메이션 스크립트는 수신 단말 장치(530) 관점에서 분류된 사용자 관계정보를 바탕으로 생성되기 때문에 송신 단말 장치(510)가 송신하고자 하는 의도와는 다른 애니메이션 스크립트가 생성될 수도 있다.
하지만 수신 단말 장치(530)는 일반적인 문자 데이터를 애니메이션으로 재생할 수 있다.
도 6은 제안되는 실시예에 따른 애니메이션 시스템을 송신 단말 장치와 수신 단말 장치에 적용한 예를 도시한 도면이다.
도 6을 참조하면 송신 단말 장치(610)는 애니메이션 스크립트 생성장치(120)를 통해 텍스트 기반 데이터를 애니메이션 스크립트로 생성하고, 생성한 애니메이션 스크립트를 서비스 서버(620)를 통해 수신 단말 장치(630)로 송신한다. 또한, 송신 단말 장치(610)는 포함된 애니메이션 재생장치(230)를 통해 생성한 애니메이션 스크립트를 재생할 수도 있다.
그러면, 수신 단말 장치(630)는 수신한 생성한 애니메이션 스크립트를 애니메이션 재생장치(230)를 통해 재생한다.
이때, 애니메이션 스크립트 생성장치(120)는 레퍼런스 데이터베이스(110)에 저장된 관계정보를 이용하여 텍스트 기반 데이터의 감정을 추출하고 동작을 선택한다. 그리고, 애니메이션 스크립트 생성장치(120)는 감정 추출할 때 텍스트 기반 데이터에서 감정을 추출할 수 없거나, 텍스트 기반 데이터의 감정추출과 더불어, 사용자의 맥박 혹은 뇌파 등의 측정을 통해 감정 추출할 수도 있다.
따라서, 애니메이션 스크립트는 송신 단말 장치(610) 관점에서 분류된 사용자 관계정보를 바탕으로 생성되기 때문에 수신 단말 장치(630)에서 재생되는 애니메이션은 송신 단말 장치(610)가 의도한 애니메이션이다.
하지만 송신 단말 장치(610)는 일반적인 문자 데이터 보다 큰 데이터인 애니메이션 스크립트를 수신 단말 장치(630)로 송신해야 한다.
도 7은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면이다.
도 7은 도 6과 같이 수신 단말 장치(720)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.
도 7을 참조하면 송신 단말 장치(710)는 텍스트 기반 데이터인 "자기야 뭐해?"라는 문자 메시지를 수신 단말 장치(720)로 송신한다. 그러면, 수신 단말 장치(720)는 애니메이션 스크립트 생성장치(120)를 통해 사용자 프로파일 데이터베이스(113)에서 사용자 관계정보인 `애인`을 확인하고, 감정추론 룰 데이터베이스(112)를 통해 `사랑`이라는 감정을 추출하고, 동작 룰 데이터베이스(114)에서 `턱 괴기`의 동작을 선택한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션으로 출력한다.
도 8은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 다른 예를 도시한 도면이다. 도 8은 도 6과 같이 수신 단말 장치(820)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.
도 8을 참조하면 송신 단말 장치(810)는 텍스트 기반 데이터인 텍스트 시나리오(830)를 수신 단말 장치(820)로 송신한다. 이때, 텍스트 시나리오(830)는 이메일(E-mail)을 통해 송신될 수 있다.
텍스트 시나리오(830)를 수신한 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 텍스트 시나리오(830)의 내용을 토대로 대사와 소지문에서 감정을 감정추론 룰 데이터베이스(112)를 통해서 추출한다. 예를 들어 텍스트 시나리오(830)의“카메오의 세계에 오신걸 환영합니다”라는 대사에서 `엑스터시` 라는 감정을 추출한다.
그리고, 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 동작 룰 데이터베이스(114)에서 텍스트 시나리오(830)의 대사와 소지문에서 동작을 추출한다. 예를들어 텍스트 시나리오(830)의 소지문 `(신나하며)`에서 펄쩍펄뻑 뛰기 라는 동작을 추출할 수 있다.
그리고, 수신 단말 장치(820)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(840)를 생성한다. 그리고, 수신 단말 장치(820)의 애니메이션 재생장치(230)는 애니메이션 스크립트(840)를 애니메이션으로 출력한다.
도 9는 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면이다. 도 9는 도 6과 같이 수신 단말 장치(920)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.
도 9를 참조하면 송신 단말 장치(910)는 인스턴트 메신저(instant messenger)(930)를 통해 인스턴트 메시지(instant message)(932)를 수신 단말 장치(920)로 송신한다.
인스턴트 메시지(932)를 수신한 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 인스턴트 메시지(932)의 송신자를 사용자 프로파일 데이터베이스(113)에서 검색해서 사용자 관계정보를 선택한다.
그리고, 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 감정추론 룰 데이터베이스(112)를 통해 `사랑`이라는 감정을 추출하고, 동작 룰 데이터베이스(114)를 통해 `어깨에 기대기`의 동작을 선택한다.
그리고, 수신 단말 장치(920)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(940)를 생성한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션 스크립트(940)를 애니메이션(950)으로 출력한다.
도 10은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 또 다른 예를 도시한 도면이다. 도 10은 도 6과 같이 수신 단말 장치(1020)에 애니메이션 스크립트 생성장치(120)와 애니메이션 재생장치(230)가 포함된 경우이다.
도 10을 참조하면 송신 단말 장치(1010)는 사용자의 메모를 소셜 네트워크 서비스(SNS: Social Network Service)(1030)에 텍스트 메모(1032)로 입력한다. 수신 단말 장치(1020)의 사용자가 텍스트 메모(1032)를 애니메이션 보기로 선택하면 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 텍스트 메모(1032)의 입력자를 사용자 프로파일 데이터베이스(113)에서 검색해서 사용자 관계정보를 선택한다.
그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 감정추론 룰 데이터베이스(112)를 통해 텍스트 메모(1032)에 포함된 `^^`에서 `joy`이라는 감정을 추출한다. 그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 동작 룰 데이터베이스(114)을 통해 `살짝 웃기`의 동작을 추출한다.
그리고, 수신 단말 장치(1020)의 애니메이션 스크립트 생성장치(120)는 추출한 감정과 동작을 포함하는 애니메이션 스크립트(1040)를 생성한다. 그리고, 애니메이션 재생장치(230)를 통해 도면과 같이 애니메이션 스크립트(940)를 애니메이션으로 출력한다.
상기한 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 제안되는 실시예에 따른 애니메이션 시스템에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 애니메이션 스크립트 생성장치의 구성을 도시한 도면,
도 2는 제안되는 실시예에 따른 애니메이션 시스템에서 애니메이션 스크립트를 재생하는 애니메이션 재생장치의 구성을 도시한 도면,
도 3은 제안되는 실시예에 따른 애니메이션 스크립트 생성장치에서 텍스트 기반 데이터를 애니메이션 스크립트로 생성하는 과정을 도시한 흐름도,
도 4는 제안되는 실시예에 따른 애니메이션 재생장치에서 애니메이션 스크립트를 재생하는 과정을 도시한 흐름도,
도 5는 제안되는 실시예에 따른 애니메이션 시스템을 수신 단말 장치에 적용한 예를 도시한 도면,
도 6은 제안되는 실시예에 따른 애니메이션 시스템을 송신 단말 장치와 수신 단말 장치에 적용한 예를 도시한 도면,
도 7은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면,
도 8은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 다른 예를 도시한 도면,
도 9는 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 일 예를 도시한 도면 및,
도 10은 제안되는 실시예에 따라 텍스트 기반 데이터를 애니메이션으로 재생하는 또 다른 예를 도시한 도면이다.

Claims (32)

  1. 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 레퍼런스 데이터베이스에서 추출하는 감정 분석부;
    상기 감정에 대응하는 동작을 상기 레퍼런스 데이터베이스에서 선택하는 동작 선택부; 및
    상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는
    애니메이션 스크립트 생성장치.
  2. 제1항에 있어서,
    상기 텍스트 기반 데이터는,
    문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는
    애니메이션 스크립트 생성장치.
  3. 제1항에 있어서,
    상기 사용자 관계정보는,
    상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인
    애니메이션 스크립트 생성장치.
  4. 제1항에 있어서,
    상기 텍스트 기반 데이터를 구문 분석한 결과 상기 텍스트 기반 데이터에 포함된 어휘를 확인하는 자연어 처리부를 더 포함하고,
    상기 감정 분석부는,
    상기 텍스트 기반 데이터의 생성자에 대응하는 캐릭터를 선택하고 상기 어휘와 상기 사용자 관계정보에 대응하는 상기 감정을 상기 레퍼런스 데이터베이스에서 추출하는
    애니메이션 스크립트 생성장치.
  5. 제1항에 있어서,
    상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는
    애니메이션 스크립트 생성장치.
  6. 제1항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;
    어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;
    어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및
    감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는
    애니메이션 스크립트 생성장치.
  7. 제6항에 있어서,
    상기 감정 분석부는,
    상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 캐릭터와 상기 사용자 관계정보를 확인하고,
    상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고,
    상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고
    상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는
    애니메이션 스크립트 생성장치.
  8. 제6항에 있어서,
    상기 동작 선택부는
    상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는
    애니메이션 스크립트 생성장치.
  9. 제6항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적 어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는
    애니메이션 스크립트 생성장치.
  10. 제9항에 있어서,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 상기 카메라 워크와 상기 배경음향을 선택하는 연출부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는
    애니메이션 스크립트 생성장치.
  11. 애니메이션 스크립트에 포함된 정보를 분석해서 감정정보, 캐릭터, 동작정보 및 텍스트 기반 데이터를 선택하는 애니메이션 스크립트 분석부;
    상기 캐릭터를 상기 동작정보에 따라 동작하는 그래픽을 생성하는 그래픽 생성부; 및
    상기 생성한 그래픽을 애니메이션으로 출력하는 애니메이션 재생부를 포함 하는
    애니메이션 재생장치.
  12. 제10항에 있어서,
    상기 텍스트 기반 데이터는,
    문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는
    애니메이션 재생장치.
  13. 제11항에 있어서,
    상기 그래픽 생성부는,
    상기 그래픽을 생성할 때 상기 텍스트 기반 데이터의 텍스트를 포함하여 생성하는
    애니메이션 재생장치.
  14. 제11항에 있어서,
    상기 텍스트 기반 데이터를 상기 감정정보에 따라 억양이나 음조가 반영된 음성으로 출력하는 오디오 처리부를 더 포함하고,
    상기 애니메이션 재생부는 상기 생성한 그래픽과 상기 음성을 통합하여 애니메이션으로 출력하는
    애니메이션 재생장치.
  15. 제11항에 있어서,
    상기 스크립트 분석부에서 상기 애니메이션 스크립트에서 배경음향을 선택하면, 상기 배경음향을 출력하는 오디오 처리부를 더 포함하고,
    상기 애니메이션 재생부는 상기 생성한 그래픽과 상기 배경음향을 통합하여 애니메이션으로 출력하는
    애니메이션 재생장치.
  16. 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스; 및
    수신한 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 애니 메이션 스크립트 생성장치를 포함하는
    수신 단말 장치.
  17. 제16항에 있어서,
    상기 텍스트 기반 데이터는,
    문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는
    수신 단말 장치.
  18. 제16항에 있어서,
    상기 사용자 관계정보는,
    상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인
    수신 단말 장치.
  19. 제16항에 있어서,
    상기 애니메이션 스크립트를 분석해서 애니메이션을 재생하는 애니메이션 재생장치를 더 포함하는
    수신 단말 장치.
  20. 제16항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;
    어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;
    어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및
    감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는
    수신 단말 장치.
  21. 제20항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하는 자연어 처리부;
    상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 상기 캐릭터와 상기 사용자 관계정보를 확인하고, 상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고 상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는 감정 분석부;
    상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는 동작 선택부; 및
    상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는
    수신 단말 장치.
  22. 제20항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는
    수신 단말 장치.
  23. 제20항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는
    수신 단말 장치.
  24. 제23항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 카메라 워크와 배경음향을 선택하는 연출부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는
    수신 단말 장치.
  25. 사용자 관계정보, 캐릭터 정보 및 감정 정보를 포함하는 레퍼런스 데이터베이스; 및
    송신할 텍스트 기반 데이터를 구문 분석한 결과와 사용자 관계정보에 대응하는 감정을 추출하고, 상기 감정에 대응하는 동작을 선택하고, 상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성해서 수신 단말 장치로 송신하는 애니메이션 스크립트 생성장치를 포함하는
    송신 단말 장치.
  26. 제25항에 있어서,
    상기 텍스트 기반 데이터는,
    문자 메시지(SMS message), 텍스트 시나리오, 인스턴트 메시지(instant message), 소셜 네트워크 서비스(SNS: Social Network Service)의 텍스트 메모 또는 텍스트 기반의 이메일(E-mail)을 포함하는
    송신 단말 장치.
  27. 제25항에 있어서,
    상기 사용자 관계정보는,
    상기 텍스트 기반 데이터의 생성자와 수신자 간의 관계 또는 친밀도 정도를 나타내는 정보인
    송신 단말 장치.
  28. 제25항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 텍스트 기반 데이터의 생성자에 대응하는 사용자 관계정보의 매핑 정보와 캐릭터의 매핑 정보를 저장하는 사용자 프로파일 데이터베이스;
    어휘와 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정어휘 사전 데이터베이스;
    어휘의 조합과 사용자 관계정보에 대응하는 감정의 매핑 정보를 저장하는 감정추론 룰 데이터베이스; 및
    감정과 사용자 관계정보에 대응하는 동작의 매핑 정보를 저장하는 동작 룰 데이터베이스를 포함하는
    송신 단말 장치.
  29. 제28항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 텍스트 기반 데이터를 구문 분석해서 포함된 어휘를 확인하는 자연어 처리부;
    상기 사용자 프로파일 데이터베이스에서 상기 텍스트 기반 데이터의 생성자에 대응하는 상기 캐릭터와 상기 사용자 관계정보를 확인하고, 상기 감정 어휘사전 데이터베이스에서 상기 어휘와 상기 사용자 관계정보에 대응하는 어휘 감정을 확인하고, 상기 감정 추론 룰 데이터베이스에서 상기 어휘들의 조합과 상기 사용자 관계정보에 대응하는 추론 감정을 확인하고 상기 어휘 감정과 상기 추론 감정을 합성해서 하나 이상의 감정을 추출하는 감정 분석부;
    상기 동작 룰 데이터베이스에서 상기 감정과 상기 사용자 관계정보에 대응하는 상기 동작을 선택하는 동작 선택부; 및
    상기 텍스트 기반 데이터에 상기 감정과 상기 동작을 결합해서 애니메이션 스크립트로 생성하는 스크립트 생성부를 포함하는
    송신 단말 장치.
  30. 제28항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 텍스트 기반 데이터의 송신 시간정보, 상기 텍스트 기반 데이터의 수신 시간정보, 현재시간정보 또는 날씨정보 중에서 적어도 하나 이상의 정보를 이용해서 배경영상을 생성하는 외부데이터 처리부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경영상을 포함해서 상기 애니메이션 스크립트를 생성하는
    송신 단말 장치.
  31. 제28항에 있어서,
    상기 레퍼런스 데이터베이스는,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보에 대응하는 카메라 워크의 매핑 정보와 배경음향의 매핑 정보를 저장하는 연출 데이터베이스를 더 포함하는
    송신 단말 장치.
  32. 제31항에 있어서,
    상기 애니메이션 스크립트 생성장치는,
    상기 사용자 관계정보, 상기 감정, 상기 캐릭터 또는 상기 동작 중에서 적어도 하나 이상의 정보를 이용해서 상기 연출 데이터베이스에서 대응하는 카메라 워크와 배경음향을 선택하는 연출부를 더 포함하고,
    상기 스크립트 생성부는,
    상기 배경음향을 포함해서 상기 카메라 워크로 상기 애니메이션 스크립트를 생성하는
    송신 단말 장치.
KR1020090102590A 2009-05-28 2009-10-28 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템 KR101628050B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/762,258 US9665563B2 (en) 2009-05-28 2010-04-16 Animation system and methods for generating animation based on text-based data and user information
EP10162474A EP2256642A3 (en) 2009-05-28 2010-05-11 Animation system for generating animation based on text-based data and user information
JP2010119251A JP5815214B2 (ja) 2009-05-28 2010-05-25 アニメーションスクリプト生成装置、アニメーション出力装置、受信端末装置、送信端末装置、携帯用端末装置及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090047161 2009-05-28
KR20090047161 2009-05-28

Publications (2)

Publication Number Publication Date
KR20100129122A true KR20100129122A (ko) 2010-12-08
KR101628050B1 KR101628050B1 (ko) 2016-06-22

Family

ID=43505893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090102590A KR101628050B1 (ko) 2009-05-28 2009-10-28 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템

Country Status (1)

Country Link
KR (1) KR101628050B1 (ko)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101308601B1 (ko) * 2013-03-26 2013-09-17 성완 애니메이션 메신저 서비스 제공 방법
WO2014028409A1 (en) * 2012-08-15 2014-02-20 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US8781991B2 (en) 2011-07-14 2014-07-15 Samsung Electronics Co., Ltd. Emotion recognition apparatus and method
US9425974B2 (en) 2012-08-15 2016-08-23 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR20160118316A (ko) * 2014-02-05 2016-10-11 페이스북, 인크. 감정 분석에 기반한 이디어그램
WO2018038586A1 (ko) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 텍스트 애니메이션 생성 방법 및 그 장치
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
WO2020045712A1 (ko) * 2018-08-27 2020-03-05 주식회사 닫닫닫 비동기적 인스턴트 메시지 서비스를 제공하기 위한 장치, 방법 및 컴퓨터 판독가능 저장 매체
KR20210138924A (ko) * 2020-05-13 2021-11-22 류경희 치매 환자 케어 및 기록 지원 시스템
KR102368300B1 (ko) * 2020-09-08 2022-03-02 박일호 음성 및 표정에 기반한 캐릭터의 동작 및 감정 표현 시스템
WO2023003183A1 (ko) * 2021-07-20 2023-01-26 삼성전자 주식회사 전자 장치 및 실시간 메시지 생성 방법
KR102619428B1 (ko) * 2023-10-13 2023-12-29 주식회사 디오랩스 인공지능 기반 스마트폰 모니터링 및 감성 분석을 통한 학교 폭력, 청소년 마약 및 자살 방지 시스템
US12002487B2 (en) 2019-02-22 2024-06-04 Sony Group Corporation Information processing apparatus and information processing method for selecting a character response to a user based on emotion and intimacy

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155494A (ja) * 2004-12-01 2006-06-15 Matsushita Electric Ind Co Ltd アニメーション作成装置およびアニメーション作成方法
KR20060121679A (ko) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
KR20070018843A (ko) * 2004-01-30 2007-02-14 콤보츠 프로덕트 게엠바하 엔 코 카게 가상 상징물들을 이용한 전기통신 방법 및 시스템
KR20070114082A (ko) * 2007-10-02 2007-11-29 삼성전자주식회사 화면을 구성하기 위한 계층 구조 제공 방법 및 그에 따른화면 제공 방법 및 이를 위한 이동 통신 단말기

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070018843A (ko) * 2004-01-30 2007-02-14 콤보츠 프로덕트 게엠바하 엔 코 카게 가상 상징물들을 이용한 전기통신 방법 및 시스템
JP2006155494A (ja) * 2004-12-01 2006-06-15 Matsushita Electric Ind Co Ltd アニメーション作成装置およびアニメーション作成方法
KR20060121679A (ko) * 2005-05-25 2006-11-29 오끼 덴끼 고오교 가부시끼가이샤 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
KR20070114082A (ko) * 2007-10-02 2007-11-29 삼성전자주식회사 화면을 구성하기 위한 계층 구조 제공 방법 및 그에 따른화면 제공 방법 및 이를 위한 이동 통신 단말기

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8781991B2 (en) 2011-07-14 2014-07-15 Samsung Electronics Co., Ltd. Emotion recognition apparatus and method
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR20150087179A (ko) * 2012-08-15 2015-07-29 아이엠브이유 인코포레이티드 네트워크 통신들에서 명확성 및 표현성을 증가시키기 위한 시스템 및 방법
US9425974B2 (en) 2012-08-15 2016-08-23 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US9443271B2 (en) 2012-08-15 2016-09-13 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
WO2014028409A1 (en) * 2012-08-15 2014-02-20 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
KR101308601B1 (ko) * 2013-03-26 2013-09-17 성완 애니메이션 메신저 서비스 제공 방법
KR20160118316A (ko) * 2014-02-05 2016-10-11 페이스북, 인크. 감정 분석에 기반한 이디어그램
WO2018038586A1 (ko) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 텍스트 애니메이션 생성 방법 및 그 장치
WO2020045712A1 (ko) * 2018-08-27 2020-03-05 주식회사 닫닫닫 비동기적 인스턴트 메시지 서비스를 제공하기 위한 장치, 방법 및 컴퓨터 판독가능 저장 매체
US12002487B2 (en) 2019-02-22 2024-06-04 Sony Group Corporation Information processing apparatus and information processing method for selecting a character response to a user based on emotion and intimacy
KR20210138924A (ko) * 2020-05-13 2021-11-22 류경희 치매 환자 케어 및 기록 지원 시스템
KR20220065746A (ko) * 2020-05-13 2022-05-20 류경희 치매 환자의 기록 데이터 가공 서비스를 지원하는 시스템
KR102368300B1 (ko) * 2020-09-08 2022-03-02 박일호 음성 및 표정에 기반한 캐릭터의 동작 및 감정 표현 시스템
WO2023003183A1 (ko) * 2021-07-20 2023-01-26 삼성전자 주식회사 전자 장치 및 실시간 메시지 생성 방법
KR102619428B1 (ko) * 2023-10-13 2023-12-29 주식회사 디오랩스 인공지능 기반 스마트폰 모니터링 및 감성 분석을 통한 학교 폭력, 청소년 마약 및 자살 방지 시스템

Also Published As

Publication number Publication date
KR101628050B1 (ko) 2016-06-22

Similar Documents

Publication Publication Date Title
KR101628050B1 (ko) 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
US10360716B1 (en) Enhanced avatar animation
JP5815214B2 (ja) アニメーションスクリプト生成装置、アニメーション出力装置、受信端末装置、送信端末装置、携帯用端末装置及び方法
US20220230374A1 (en) User interface for generating expressive content
Schröder The SEMAINE API: Towards a Standards‐Based Framework for Building Emotion‐Oriented Systems
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
US9368102B2 (en) Method and system for text-to-speech synthesis with personalized voice
CN107657471B (zh) 一种虚拟资源的展示方法、客户端及插件
US10991380B2 (en) Generating visual closed caption for sign language
US20150287403A1 (en) Device, system, and method of automatically generating an animated content-item
CN107040452B (zh) 一种信息处理方法、装置和计算机可读存储介质
JP2003521750A (ja) スピーチシステム
JP2019061662A (ja) 情報を抽出する方法及び装置
WO2022170848A1 (zh) 人机交互方法、装置、***、电子设备以及计算机介质
CN111145777A (zh) 一种虚拟形象展示方法、装置、电子设备及存储介质
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
WO2022242706A1 (zh) 基于多模态的反应式响应生成
KR20140123715A (ko) 감정 전달이 가능한 라이브 텍스트 및 라이브 텍스트를 이용한 라이브 보이스를 제공하기 위한 텍스트 편집 및 보이스 변환 시스템 및 방법
KR102312993B1 (ko) 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치
CN112235183B (zh) 通信消息处理方法、设备及即时通信客户端
KR102281298B1 (ko) 인공지능 기반 동영상 합성을 위한 시스템 및 방법
CN109241331B (zh) 一种面向智能机器人的故事数据处理方法
US20220319516A1 (en) Conversation method, conversation system, conversation apparatus, and program
An et al. EmoWear: Exploring Emotional Teasers for Voice Message Interaction on Smartwatches
KR101595856B1 (ko) 3d 캐릭터 기반 음성 sns 시스템 및 방법

Legal Events

Date Code Title Description
AMND Amendment
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190520

Year of fee payment: 4