KR102479705B1 - 사용자 인터랙션 방법 및 장치 - Google Patents

사용자 인터랙션 방법 및 장치 Download PDF

Info

Publication number
KR102479705B1
KR102479705B1 KR1020170117593A KR20170117593A KR102479705B1 KR 102479705 B1 KR102479705 B1 KR 102479705B1 KR 1020170117593 A KR1020170117593 A KR 1020170117593A KR 20170117593 A KR20170117593 A KR 20170117593A KR 102479705 B1 KR102479705 B1 KR 102479705B1
Authority
KR
South Korea
Prior art keywords
user
target object
voice
user terminal
screen
Prior art date
Application number
KR1020170117593A
Other languages
English (en)
Other versions
KR20190030314A (ko
Inventor
이대성
Original Assignee
주식회사 넥슨코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥슨코리아 filed Critical 주식회사 넥슨코리아
Priority to KR1020170117593A priority Critical patent/KR102479705B1/ko
Publication of KR20190030314A publication Critical patent/KR20190030314A/ko
Application granted granted Critical
Publication of KR102479705B1 publication Critical patent/KR102479705B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 및 사용자 단말 간에 인터랙션하는 방법 및 장치가 제공된다. 사용자 인터랙션을 위해, 컨텐츠의 화면을 출력하고, 컨텐츠에 대한 사용자의 음성을 수신하며, 사용자의 음성에 기초하여 컨텐츠의 타겟 오브젝트를 검출하고, 사용자의 음성 및 검출된 타겟 오브젝트에 기초하여 타겟 오브젝트에 대한 효과(effect)를 결정하고, 효과를 타겟 오브젝트와 연관하여 화면에 출력한다.

Description

사용자 인터랙션 방법 및 장치{METHOD AND APPARATUS FOR USER INTERACTION}
기술 분야는 사용자 단말이 사용자와 인터랙션하는 방법 및 장치에 관한 것으로, 특히, 사용자 음성을 통해 사용자와 인터랙션하는 방법 및 장치에 관한 것이다.
통신망을 통해 복수의 사용자들이 동시에 참여하는 온라인 게임 서비스가 제공된다. 특히 복수의 사용자들이 가상공간에 구현된 게임 맵 또는 공간에서 여러 가지 임무를 수행하는 게임이 제공될 수 있다. 사용자가 다른 사용자와 커뮤니케이션 하는 방법으로 키보드를 통한 채팅 방법 및 스피커 및 마이크를 이용한 대화 방법이 이용될 수 있다.
게임 진행에 있어서 사용자가 게임 화면에 나타나는 여러 오브젝트들 중 특정한 오브젝트를 다른 사용자들에게 지칭할 수 있다. 동일한 오브젝트를 지칭하는 명칭이 사용자들 간에 상이한 경우, 제1 사용자가 지칭하는 오브젝트가 어떠한 오브젝트인지 제2 사용자가 정확히 이해하지 못할 수 있다. 또한, 제2 사용자가 스피커가 없는 경우, 제2 사용자는 제1 사용자의 대화를 듣지 못할 수 있다.
한국특허공개번호 제2015-0025242호(공개일 2015년 04월 30일)에는 사용자 인터랙션 장치 및 그 방법이 개시되어 있다. 공개 발명의 사용자 인터랙션 장치는, 외부로부터 상대방측 감지신호를 수신하는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 무선통신모듈로부터 상대방측 감지신호를 수신하고 센서부로부터 사용자측 감지신호를 수신하며, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 장치 제어부로부터 상기 인터랙션 제어신호를 수신하고, 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함한다.
일 실시예는 사용자와 인터랙션하는 방법 및 장치를 제공할 수 있다.
일 실시예는 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 사용자 인터랙션 방법 및 장치를 제공할 수 있다.
일 측면에 따른, 컨텐츠에 대한 사용자 인터랙션(user interaction) 방법은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 포함한다.
상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.
상기 사용자 인터랙션 방법은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 포함하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.
상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.
상기 사용자 인터랙션 방법은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 포함하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.
상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.
상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.
상기 사용자 인터랙션 방법은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 포함하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.
상기 사용자 인터랙션 방법은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 포함할 수 있다.
다른 일 측면에 따른, 사용자 인터랙션 어플리케이션은, 사용자 단말에 저장되고, 상기 사용자 단말이, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 실행하도록 상기 사용자 단말을 제어한다.
또 다른 일 측면에 따른, 사용자 인터랙션 방법을 수행하는, 사용자 단말은, 사용자 인터랙션을 제공하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 수행한다.
상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 수행하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.
상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.
상기 프로그램은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 수행하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.
상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.
상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 수행하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.
상기 프로그램은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 수행할 수 있다.
사용자 음성에 기초하여 사용자와 사용자 단말 간에 인터랙션하는 방법 및 장치가 제공될 수 있다.
사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법 및 장치가 제공될 수 있다.
도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.
도 2는 일 실시예에 따른 사용자 단말 구성도이다.
도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.
도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.
도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.
도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.
도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.
도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.
도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.
도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.
컨텐츠 제공 시스템(100)은 서버(110) 및 복수의 사용자 단말들(120 및 130)을 포함한다. 서버(110)는 복수의 사용자 단말(120 및 130) 각각으로 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 온라인을 통해 제공되는 게임일 수 있다.
일 측면에 따르면, 사용자 단말(120)은 서버(110)로부터 컨텐츠를 실행하기 위한 리소스 데이터를 수신하고, 사용자 단말(120)은 리소스 데이터를 통해 컨텐츠를 서버(110)로부터 제공받을 수 있다. 리소스 데이터는 소프트웨어의 형태로 제공될 수 있다. 예를 들어, 소프트웨어는 어플리케이션일 수 있다. 사용자 단말(120)은 리소스 데이터를 이용하여 컨텐츠를 실행하고, 컨텐츠의 진행을 위한 추가의 데이터를 서버(110)로부터 수신할 수 있다. 서버(110)는 사용자 단말(120)과 데이터를 교환하면서 컨텐츠를 제공할 수 있다.
복수의 사용자 단말들(120 및 130)은 동시에 컨텐츠를 이용할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 동일한 팀에 포함되거나, 서로 다른 팀에 포함되어 컨텐츠를 이용할 수 있다.
복수의 사용자 단말들(120 및 130)이 동시에 컨텐츠를 이용하는 경우, 복수의 사용자 단말들(120 및 130)은 동일한 화면이 출력될 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 복수의 사용자 단말들(120 및 130)에게 동일한 화면이 출력될 수 있다.
복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 다른 팀과의 경기에서 승리하기 위해 복수의 사용자 단말들(120 및 130)의 사용자들은 커뮤니케이션(communication)할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 작전을 위해 커뮤니케이션 할 수 있다. 사용자들은 메시지를 교환하거나 음성을 통해 커뮤니케이션할 수 있다. 메시지를 교환하는 방식은 빠르게 발생하는 사건에 대해 신속하게 대응할 수 없다. 음성을 이용하는 방식은 사건에 대해 신속하게 대응할 수 있으나, 음성을 수신하고 출력하는 장치가 추가로 요구된다.
음성을 이용하는 방식은 복수의 사용자 단말들(120 및 130)이 각각 마이크 및 스피커를 포함할 것이 요구된다. 예를 들어, 복수의 사용자 단말들(120 및 130) 중 사용자 단말(130)에 스피커가 없는 경우 음성을 이용하는 방식이 이용될 수 없다. 다른 예로, 사용자 단말(130)에 스피커가 있더라도 공공 장소와 같이 사용자 단말(130)의 스피커를 켤 수 없는 경우에는 음성을 이용하는 방식이 이용될 수 없다.
일 측면에 따르면, 사용자 단말(120) 및 사용자 단말(130)에는 동일한 컨텐츠의 화면이 출력될 수 있으므로, 사용자 단말(120)의 사용자는 사용자 단말(120)에 출력되는 화면을 변경함으로써 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 예를 들어, 사용자 단말(130)의 스피커가 활성화되지 않더라도, 사용자 단말(120)의 사용자가 입력한 사용자 음성에 기초하여 텍스트 또는 그래픽 효과가 사용자 단말(130)의 화면에 출력되는 경우 사용자 단말(120)의 사용자는 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 사용자 단말(120)의 사용자가 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 것은 사용자 및 사용자 단말(120) 간의 사용자 인터랙션일 수 있다.
아래에서 도 2 내지 도 12를 참조하여 사용자 인터랙션 방법에 대해 상세히 설명된다.
도 2는 일 실시예에 따른 사용자 단말 구성도이다.
사용자 단말(200)은 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 사용자 단말(200)은 도 1을 참조하여 전술된 사용자 단말(120) 또는 사용자 단말(130)에 대응할 수 있다.
통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.
통신부(210)는 사용자 단말(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 서버(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.
프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.
메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 사용자 인터랙션할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.
메모리(230)는 사용자 단말(200)을 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 사용자 단말(200)을 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.
통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 11을 참조하여 상세히 설명된다.
도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.
아래의 단계들(310 내지 350)은 도 2를 참조하여 전술된 사용자 단말(200)에 의해 수행된다.
단계(310)에서, 프로세서(220)는 디스플레이(미도시)를 이용하여 컨텐츠의 화면을 출력한다. 예를 들어, 컨텐츠가 게임인 경우, 출력되는 화면은 게임의 진행 상황일 수 있다. 화면은 이미지(image)일 수 있다. 출력되는 화면에 대한 실시예들이 도 6 및 7을 참조하여 상세히 설명된다.
단계(320)에서, 통신부(210)는 사용자 인터페이스(미도시)를 통해 사용자의 음성을 수신한다. 예를 들어, 사용자 인터페이스는 마이크일 수 있다. 일 측면에 따르면, 사용자의 음성은 타겟 오브젝트를 지칭하는 부분 및 효과를 지칭하는 부분을 모두 포함할 수 있다. 예를 들어, 사용자 음성이 '타워 공격'인 경우, '타워'는 타겟 오브젝트를 지칭하는 부분이고, '공격'은 효과를 지칭하는 부분일 수 있다.
단계(330)에서, 프로세서(220)는 사용자의 음성에 기초하여 컨텐츠의 타겟 오브젝트를 검출한다. 타겟 오브젝트는 컨텐츠의 복수의 오브젝트들 중 사용자가 지정하고자 하는 오브젝트일 수 있다. 예를 들어, 컨텐츠의 복수의 오브젝트들은 컨텐츠가 제공하는 아이템 및 그래픽 오브젝트를 포함할 수 있다. 타겟 오브젝트를 검출하는 방법에 대해, 아래에서 도 4 내지 7을 참조하여 상세히 설명된다.
단계(340)에서, 프로세서(220)는 사용자의 음성 및 타겟 오브젝트에 기초하여 타겟 오브젝트에 대한 효과(effect) 오브젝트를 결정한다. 예를 들어, 효과 오브젝트는 그래픽 이미지일 수 있다. 이하에서 효과 오브젝트는 약술된다.
타겟 오브젝트에 대한 행동은 사용자 단말(200)의 사용자와 함께 컨텐츠를 이용하는 다른 사용자에게 사용자 단말(200)의 사용자가 전달하고자 하는 메시지일 수 있다. 예를 들어, 타겟 오브젝트에 대한 '공격'은 타겟 오브젝트에 대한 행동일 수 있다. 다른 예로, 타겟 오브젝트에서의 '유닛 생산'은 타겟 오브젝트에 대한 행동일 수 있다.
효과는 타겟 오브젝트에 대한 행동을 나타낼 수 있다. 출력된 효과를 본 다른 사용자들은 효과에 해당하는 행동을 수행할 수 있다. 효과는 상기의 행동을 소리가 아닌 다른 방식으로 다른 사용자에게 알려주는 것일 수 있다. 예를 들어, 다른 사용자에게 '공격'이라는 행동을 지시하기 위해, 텍스트 또는 그래픽 효과로 '공격'이 화면에 출력될 수 있다.
타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법에 대해, 아래에서 도 9 및 10을 참조하여 상세히 설명된다.
단계(350)에서, 프로세서(220)는 디스플레이를 통해 효과를 타겟 오브젝트와 연관하여 화면에 출력한다. 프로세서(220)는 현재의 게임 상황을 출력하는 화면에 효과를 부가하여 출력할 수 있다. 예를 들어, 출력된 효과는 미리 설정된 시간 동안 유지될 수 있다. 다른 예로, 출력된 효과는 다른 효과가 출력될 때까지 유지될 수 있다.
도시되지는 않았으나, 프로세서(220)는 타겟 ID 및 행동 ID를 추가적으로 텍스트로 출력할 수 있다. 예를 들어, 사용자 음성의 내용이 타워를 공격하라는 내용인 경우, '타워 공격'의 텍스트가 출력될 수 있다. 다른 예로, 개인화되지 않은 타겟 오브젝트의 명칭 및 행동 ID가 텍스트로 출력될 수 있다.
단계들(310 내지 350)을 통해 사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 복수의 사용자들의 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법이 제공될 수 있다.
효과를 화면에 출력하는 방법에 대해, 아래에서 도 11 및 도 12를 참조하여 상세히 설명된다.
도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(410)가 수행될 수 있다. 단계(410)는 타겟 오브젝트에 대응하는 음성 식별자(Identifier: ID)를 미리 설정하는 단계이다. 단계(410)는 아래의 단계들(412, 414 및 416)을 포함한다.
사용자 단말(200)의 사용자는 컨텐츠의 오브젝트를 지칭하는 명칭을 개인화할 수 있다. 예를 들어, 사용자는 사석포(bombard)에 대응하는 오브젝트를 대포(cannon)로 지칭할 수 있다. 사용자가 자신이 사용하고자 하는 명칭으로 오브젝트를 지칭할 수 있다. 일 측면에 따르면, 사용자는 자신의 음성으로 오브젝트의 명칭을 설정할 수 있다.
단계(412)에서, 통신부(210)는 사용자 인터페이스를 통해 사용자의 음성을 수신한다. 사용자는 오브젝트의 명칭을 개인화하기 위해 사용자 단말(200)에서 복수의 오브젝트들 중 타겟 오브젝트를 선택하고, 선택된 타겟 오브젝트를 지칭하는 사용자 음성을 사용자 단말(200)로 전송한다. 예를 들어, 사용자는 사용자 단말(200)에서 복수의 오브젝트들 중 사석포를 선택하고, 사석포를 지칭하는 대포의 사용자 음성을 사용자 단말(200)의 마이크로 전송한다.
단계(414)에서, 프로세서(220)는 사용자 음성에 기초하여 타겟 오브젝트에 대한 음성 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 생성할 수 있다. 프로세서(220)는 DFT(Digitized Fourier Transform) 및 FFT(Fast Fourier Transform)를 이용하여 사용자 음성의 특징점을 생성할 수 있다.
단계(416)에서, 프로세서(220)는 음성 ID를 타겟 오브젝트에 연관할 수 있다. 예를 들어, 대포의 음성 ID를 사석포에 연관시킬 수 있다.
도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(330)는 아래의 단계들(510, 520 및 530)을 포함할 수 있다.
단계(510)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 음성 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 결정할 수 있다.
단계(520)에서, 프로세서(220)는 음성 ID에 대응하는 타겟 오브젝트를 결정한다. 예를 들어, 프로세서(220)는 복수의 오브젝트들에 연관된 각각의 음성 ID들 중 생성된 음성 ID와 유사도가 가장 높은 오브젝트를 타겟 오브젝트로 결정할 수 있다.
단계(530)에서, 프로세서(220)는 타겟 오브젝트가 화면에 출력되지 않은 경우 타겟 오브젝트를 화면에 출력한다. 예를 들어, 타겟 오브젝트가 전광판이고, 전광판이 화면에 출력되지 않은 경우, 전광판을 추가적으로 화면에 출력될 수 있다. 전광판은 효과로서 텍스트 또는 그래픽 이미지를 출력할 수 있다.
도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.
도시된 화면(600)의 컨텐츠는 게임이고, 게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 제1 팀은 복수의 오브젝트들(610, 620 및 630)을 이용하여 게임을 진행하고, 제2 팀은 복수의 오브젝트들(640, 650 및 660)을 이용하여 게임을 진행한다.
복수의 사용자들로 제2 팀이 구성되는 경우, 제2 팀의 사용자는 같은 팀의 다른 사용자에게 사용자 음성으로 자신의 의견을 전송할 수 있다. 예를 들어, 사용자는 적 팀의 특정 오브젝트를 공격하자는 의견을 전송할 수 있다. 스피커가 없는 사용자는 사용자 음성을 수신할 수 없으므로, 다른 사용자들과 커뮤니케이션할 수 없다.
도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.
도시된 화면(700)의 컨텐츠는 슈팅 게임이고, 슈팅게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 사용자는 전광판(710)을 통해 다른 사용자들에게 의견을 전송할 수 있다. 실시예에 따라 전광판(710)은 동일 팀에게만 출력되거나, 모든 사용자들에게 출력될 수 있다. 일 측면에 따르면, 전광판(710)은 컨텐츠 내에서 아이템으로 구현될 수 있다. 예를 들어, 아이템은 구매한 사용자에게만 제공될 수 있다.
사용자가 전광판(710)을 지칭하는 사용자 음성을 사용자 단말(200)로 전달한 경우, 사용자 단말(200)은 타겟 오브젝트로서 전광판(710)을 결정하고, 전광판(710)이 화면(700)에 출력되지 않은 경우, 전광판(710)을 화면(700)에 출력한다.
도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.
일 실시예에 따르면, 도 3을 참조하여 전술된 단계(330)는 아래의 단계(810)의 판단 결과에 기초하여 수행될 수 있다. 단계(810)는 도 3을 참조하여 전술된 단계(310)가 수행된 후 수행될 수 있다.
단계(810)에서, 프로세서(220)는 추가 사용자 입력이 수신되었는지 여부를 판단한다. 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다. 사용자 단말(200)의 사용자 인터페이스가 터치 패널을 포함하는 경우, 사용자 단말(200)은 터치 패널을 통해 터치 입력을 수신할 수 있다. 커서 입력이 마우스 등을 통해 수신될 수 있다. 미리 설정된 키 입력은 키보드를 통해 수신될 수 있다. 미리 설정된 키는 게임의 진행을 위해 사용되지 않는 키일 수 있다.
일 측면에 따르면, 도 3을 참조하여 전술된 단계(320)가 추가 사용자 입력이 진행되는 기간에 수행될 수 있다. 예를 들어, 터치 입력이 진행되는 기간에만 타겟 오브젝트의 결정을 위한 사용자 음성이 수신될 수 있다. 다른 예로, 수신된 사용자 음성 중 터치 입력이 진행되는 기간에 수신된 사용자 음성의 일부분이 타겟 오브젝트의 결정을 위해 사용될 수 있다.
도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(910)가 수행될 수 있다. 단계(910)는 효과에 대응하는 행동 ID를 미리 설정하는 단계이다. 단계(910)는 아래의 단계들(912, 914 및 916)을 포함한다.
사용자 단말(200)의 사용자는 타겟 오브젝트에 대한 행동을 나타내는 효과의 명칭을 개인화할 수 있다. 예를 들어, 사용자는 타겟 오브젝트를 공격하는 행동을 나타내는 효과를 자신의 음성으로 설정할 수 있다.
단계(912)에서, 통신부(210)는 효과에 대한 사용자 음성을 수신한다. 예를 들어, 그래픽 효과인 '공격'에 대해 공격이라고 발음함으로써 사용자 음성을 사용자 단말(200)로 전송한다.
단계(914)에서, 프로세서(220)는 사용자 음성에 기초하여 효과에 대한 행동 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 생성할 수 있다. 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성할 수 있다.
단계(916)에서, 프로세서(220)는 행동 ID를 효과에 연관할 수 있다.
도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.
도 3을 참조하여 전술된 단계(340)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.
단계(1010)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 행동 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 결정할 수 있다.
단계(520)에서, 프로세서(220)는 행동 ID에 대응하는 효과를 결정한다. 예를 들어, 프로세서(220)는 복수의 효과들에 연관된 각각의 행동 ID들 중 생성된 행동 ID와 유사도가 가장 높은 효과를 타겟 효과로 결정할 수 있다.
도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
예를 들어, 컨텐츠의 오브젝트들(610 내지 660) 중 오브젝트(610)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '공격'의 이미지(1110)가 결정된다.
프로세서(220)는 오브젝트(610)와 이미지(1110)를 연관하여 화면(1100)에 출력한다. 예를 들어, 프로세서(220)는 오브젝트(610)와 이미지(1110)의 출력 위치에 기초하여 화살표의 방향을 조정할 수 있다.
화면(1100)은 사용자 단말(200)의 사용자 이외의 다른 사용자들의 단말들에도 출력될 수 있다. 예를 들어, 사용자 단말(200)의 사용자와 동일한 팀에 속한 사용자들의 단말들에 의해 화면(1100)이 출력될 수 있다. 다른 사용자들은 오브젝트(610)에 대해 출력된 이미지(1110)를 보고, 오브젝트(610)를 공격할 수 있다.
도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
예를 들어, 컨텐츠의 오브젝트(710)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '안녕'의 텍스트(1210)가 결정된다. 텍스트(1210)가 전광판(710) 내에 출력되도록 연관될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
200: 사용자 단말
210: 통신부
220: 프로세서
230: 메모리

Claims (22)

  1. 온라인을 통해 복수의 사용자 단말들에 제공되는 컨텐츠에 대한 사용자 인터랙션(user interaction) 방법에 있어서,
    상기 컨텐츠의 화면을 제1 사용자 단말 및 제2 사용자 단말에 각각 출력하는 단계;
    상기 컨텐츠에 대한 제1 사용자 단말의 제1 사용자의 음성을 수신하는 단계;
    상기 제1 사용자의 음성에 기초하여 상기 출력된 화면의 복수의 오브젝트들 중 상기 제1 사용자에 대해 개인화된 타겟 오브젝트를 검출하는 단계;
    상기 제1 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 그래픽 효과(effect)를 결정하는 단계; 및
    상기 그래픽 효과를 상기 타겟 오브젝트와 연관하여 미리 설정된 시간 동안 상기 제1 사용자 단말 및 상기 제2 사용자 단말의 상기 화면에 출력하는 단계
    를 포함하는,
    사용자 인터랙션 방법.
  2. 제1항에 있어서,
    상기 타겟 오브젝트를 검출하는 단계는,
    상기 제1 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
    상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
    를 포함하는,
    사용자 인터랙션 방법.
  3. 제2항에 있어서,
    상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
    를 더 포함하고,
    상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
    상기 타겟 오브젝트에 대한 상기 제1 사용자 단말의 상기 제1 사용자의 사용자 음성을 수신하는 단계;
    상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
    상기 음성 ID를 상기 타겟 오브젝트에 연관함으로써 상기 타겟 오브젝트를 상기 제1 사용자에 대해 개인화하는 단계
    를 포함하는,
    사용자 인터랙션 방법.
  4. 제2항에 있어서,
    상기 타겟 오브젝트를 검출하는 단계는,
    상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
    를 더 포함하는,
    사용자 인터랙션 방법.
  5. 제4항에 있어서,
    상기 타겟 오브젝트는 상기 그래픽 효과를 텍스트로 출력하는 전광판인,
    사용자 인터랙션 방법.
  6. 제1항에 있어서,
    상기 사용자의 추가 사용자 입력을 수신하는 단계
    를 더 포함하고,
    상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
    사용자 인터랙션 방법.
  7. 제6항에 있어서,
    상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나인,
    사용자 인터랙션 방법.
  8. 제1항에 있어서,
    상기 타겟 오브젝트에 대한 그래픽 효과를 결정하는 단계는,
    상기 제1 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
    상기 행동 ID에 대응하는 상기 그래픽 효과를 결정하는 단계
    를 포함하는,
    사용자 인터랙션 방법.
  9. 제8항에 있어서,
    상기 그래픽 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
    를 더 포함하고,
    상기 그래픽 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
    상기 그래픽 효과에 대한 상기 제1 사용자 단말의 상기 제1 사용자의 사용자 음성을 수신하는 단계;
    상기 사용자 음성에 기초하여 상기 그래픽 효과에 대한 상기 행동 ID를 생성하는 단계; 및
    상기 행동 ID를 상기 그래픽 효과에 연관함으로써 상기 그래픽 효과를 상기 제1 사용자에 대해 개인화하는 단계
    를 포함하는,
    사용자 인터랙션 방법.
  10. 제8항에 있어서,
    상기 행동 ID를 텍스트로 출력하는 단계
    를 더 포함하는,
    사용자 인터랙션 방법.
  11. 컴퓨터에 의해 제1항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
  12. 컴퓨터 판독 가능 기록매체에 저장되고, 상기 사용자 단말이,
    온라인을 통해 복수의 사용자 단말들에 제공되는 컨텐츠의 화면을 출력하는 단계;
    상기 컨텐츠에 대한 상기 사용자 단말의 사용자의 음성을 수신하는 단계;
    상기 사용자의 음성에 기초하여 상기 출력된 화면의 복수의 오브젝트들 중 상기 사용자에 대해 개인화된 타겟 오브젝트를 검출하는 단계;
    상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 그래픽 효과(effect)를 결정하는 단계; 및
    상기 그래픽 효과를 상기 타겟 오브젝트와 연관하여 미리 설정된 시간 동안 상기 화면에 출력하는 단계
    를 실행하도록 상기 사용자 단말을 제어하고,
    상기 그래픽 효과가 상기 타겟 오브젝트와 연관하여 미리 설정된 시간 동안 상기 복수의 사용자 단말들의 타겟 사용자 단말의 화면에 출력되는,
    컴퓨터 판독 가능 기록매체에 저장되는 사용자 인터랙션 어플리케이션.
  13. 사용자 인터랙션 방법을 수행하는, 사용자 단말에 있어서,
    사용자 인터랙션을 제공하는 프로그램이 기록된 메모리; 및
    상기 프로그램을 수행하는 프로세서
    를 포함하고,
    상기 프로세서는,
    온라인을 통해 복수의 사용자 단말들에 제공되는 컨텐츠의 화면을 출력하는 단계;
    상기 컨텐츠에 대한 상기 사용자 단말의 사용자의 음성을 수신하는 단계;
    상기 사용자의 음성에 기초하여 상기 출력된 화면의 복수의 오브젝트들 중 상기 사용자에 대해 개인화된 타겟 오브젝트를 검출하는 단계;
    상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 그래픽 효과(effect)를 결정하는 단계; 및
    상기 그래픽 효과를 상기 타겟 오브젝트와 연관하여 미리 설정된 시간 동안 상기 화면에 출력하는 단계
    를 수행하고,
    상기 그래픽 효과가 상기 타겟 오브젝트와 연관하여 미리 설정된 시간 동안 상기 복수의 사용자 단말들의 타겟 사용자 단말의 화면에 출력되는,
    사용자 단말.
  14. 제13항에 있어서,
    상기 타겟 오브젝트를 검출하는 단계는,
    상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
    상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
    를 포함하는,
    사용자 단말.
  15. 제14항에 있어서,
    상기 프로그램은,
    상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
    를 더 수행하고,
    상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
    상기 타겟 오브젝트에 대한 상기 사용자의 사용자 음성을 수신하는 단계;
    상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
    상기 음성 ID를 상기 타겟 오브젝트에 연관함으로써 상기 타겟 오브젝트를 상기 사용자에 대해 개인화하는 단계
    를 포함하는,
    사용자 단말.
  16. 제14항에 있어서,
    상기 타겟 오브젝트를 검출하는 단계는,
    상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
    를 더 포함하는,
    사용자 단말.
  17. 제16항에 있어서,
    상기 타겟 오브젝트는 상기 그래픽 효과를 텍스트로 출력하는 전광판인,
    사용자 단말.
  18. 제13항에 있어서,
    상기 프로그램은,
    상기 사용자의 추가 사용자 입력을 수신하는 단계
    를 더 수행하고,
    상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
    사용자 단말.
  19. 제18항에 있어서,
    상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나인,
    사용자 단말.
  20. 제13항에 있어서,
    상기 타겟 오브젝트에 대한 그래픽 효과를 결정하는 단계는,
    상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
    상기 행동 ID에 대응하는 상기 그래픽 효과를 결정하는 단계
    를 포함하는,
    사용자 단말.
  21. 제20항에 있어서,
    상기 프로그램은,
    상기 그래픽 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
    를 더 수행하고,
    상기 그래픽 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
    상기 그래픽 효과에 대한 상기 사용자 단말의 사용자 음성을 수신하는 단계;
    상기 사용자 음성에 기초하여 상기 그래픽 효과에 대한 상기 행동 ID를 생성하는 단계; 및
    상기 행동 ID를 상기 그래픽 효과에 연관함으로써 상기 그래픽 효과를 상기 사용자에 대해 개인화하는 단계
    를 포함하는,
    사용자 단말.
  22. 제20항에 있어서,
    상기 프로그램은,
    상기 행동 ID를 텍스트로 출력하는 단계
    를 더 수행하는,
    사용자 단말.
KR1020170117593A 2017-09-14 2017-09-14 사용자 인터랙션 방법 및 장치 KR102479705B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170117593A KR102479705B1 (ko) 2017-09-14 2017-09-14 사용자 인터랙션 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170117593A KR102479705B1 (ko) 2017-09-14 2017-09-14 사용자 인터랙션 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190030314A KR20190030314A (ko) 2019-03-22
KR102479705B1 true KR102479705B1 (ko) 2022-12-21

Family

ID=65949462

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170117593A KR102479705B1 (ko) 2017-09-14 2017-09-14 사용자 인터랙션 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102479705B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102641088B1 (ko) * 2022-01-17 2024-02-28 (주)스마일게이트엔터테인먼트 사용자와의 인터랙션이 가능한 실시간 온라인 콘텐츠 제공 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337432A (ja) 2005-05-31 2006-12-14 Kenwood Corp 複数のキャラクタによる音声案内を行う音声合成装置、そのプログラム及びこのプログラムが記録された情報記録媒体
JP2008122982A (ja) 2007-12-13 2008-05-29 Namco Bandai Games Inc 音声認識遊技装置及び記録媒体
JP2010035908A (ja) 2008-08-07 2010-02-18 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145431A1 (ja) * 2010-05-19 2011-11-24 株式会社バンダイ ゲーム装置及びコンピュータプログラム
KR101574740B1 (ko) 2013-08-28 2015-12-04 (주)젠 기상식각 및 세정을 위한 플라즈마 장치
KR20150125464A (ko) * 2014-04-30 2015-11-09 삼성전자주식회사 메시지 표시 방법 및 전자 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337432A (ja) 2005-05-31 2006-12-14 Kenwood Corp 複数のキャラクタによる音声案内を行う音声合成装置、そのプログラム及びこのプログラムが記録された情報記録媒体
JP2008122982A (ja) 2007-12-13 2008-05-29 Namco Bandai Games Inc 音声認識遊技装置及び記録媒体
JP2010035908A (ja) 2008-08-07 2010-02-18 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Also Published As

Publication number Publication date
KR20190030314A (ko) 2019-03-22

Similar Documents

Publication Publication Date Title
US20210121778A1 (en) Information processing device control method, information processing device, and program
US11064048B2 (en) Method, device and system for information interaction in application service
US9372531B2 (en) Detecting an event within interactive media including spatialized multi-channel audio content
US20210191690A1 (en) Virtual Reality Device Control Method And Apparatus, And Virtual Reality Device And System
JP6961334B2 (ja) サーバ、情報処理方法およびプログラム
WO2023071917A1 (zh) 虚拟对象互动方法、装置、存储介质及计算机程序产品
US10241753B2 (en) Apparatus and method for controlling the apparatus by a user
JP7048784B2 (ja) 表示制御システム、表示制御方法及びプログラム
US20170180807A1 (en) Method and electronic device for amplifying video image
CN110941336B (zh) 互动道具及其控制方法、装置以及可读存储介质
KR102479705B1 (ko) 사용자 인터랙션 방법 및 장치
KR102268750B1 (ko) 사용자 단말들 간을 그룹으로서 연결하고, 그룹과 연관된 콘텐츠를 포함하는 서비스를 제공하는 방법 및 장치
US10904018B2 (en) Information-processing system, information-processing apparatus, information-processing method, and program
CN110152292A (zh) 游戏中跳字的显示控制方法及装置、存储介质及电子设备
CN115382210A (zh) 游戏技能释放方法、装置、电子设备及存储介质
CN110764670B (zh) 虚拟对象的名称信息处理方法及装置、介质、电子设备
US20180124002A1 (en) Enhanced is-typing indicator
KR20220065531A (ko) 라이브 채팅 중 금칙어 사용을 금지하는 시스템
KR101861128B1 (ko) 터치 입력에 기초한 텍스트 메시지 제공 장치 및 방법
KR20210093004A (ko) 사용자 인터페이스를 통한 인공지능 캐릭터와의 대화 서비스 제공 방법 및 시스템
WO2018000627A1 (zh) 内容处理方法及装置
KR102674326B1 (ko) 언어 타입에 따른 닉네임을 표시하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체
JP2011200742A5 (ja) 遊技機
CN111790153A (zh) 对象的展示方法、装置、电子设备及计算机可读存储介质
US9692803B2 (en) Computer device, system and methods for controlling an exchange of objects between devices

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application