KR102129536B1 - 모바일 단말기 및 그의 제어 방법 - Google Patents

모바일 단말기 및 그의 제어 방법 Download PDF

Info

Publication number
KR102129536B1
KR102129536B1 KR1020130093019A KR20130093019A KR102129536B1 KR 102129536 B1 KR102129536 B1 KR 102129536B1 KR 1020130093019 A KR1020130093019 A KR 1020130093019A KR 20130093019 A KR20130093019 A KR 20130093019A KR 102129536 B1 KR102129536 B1 KR 102129536B1
Authority
KR
South Korea
Prior art keywords
data
subtitle
language
subtitle data
sign language
Prior art date
Application number
KR1020130093019A
Other languages
English (en)
Other versions
KR20150017131A (ko
Inventor
오영준
박정훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130093019A priority Critical patent/KR102129536B1/ko
Priority to US14/453,171 priority patent/US9852130B2/en
Publication of KR20150017131A publication Critical patent/KR20150017131A/ko
Application granted granted Critical
Publication of KR102129536B1 publication Critical patent/KR102129536B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Telephone Function (AREA)

Abstract

청각 장애인들로 하여금 자막에 포함된 전문 용어 또는 자막과 연관된 감정을 용이하게 인지할 수 있도록 하는 모바일 단말기 및 그의 제어 방법을 제공한다. 본 발명에 따른 모바일 단말기의 제어 방법은, 영상 데이터를 포함하는 컨텐츠 데이터를 수신하는 과정과, 상기 컨텐츠 데이터에 자국어 자막을 포함하는 제1자막 데이터가 포함되어 있는지 여부를 판단하는 과정과, 상기 제1자막 데이터가 포함되어 있는 경우, 상기 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단하는 과정과, 상기 자국어 자막에 상기 고난도 단어가 포함되어 있는 경우, 상기 고난도 단어에 대응하는 설명 데이터를 생성하는 과정과, 상기 제1자막 데이터에 상기 설명 데이터를 더 포함시킴으로써 상기 제1자막 데이터를 제2자막 데이터로 변환하는 과정을 포함한다.

Description

모바일 단말기 및 그의 제어 방법{MOBILE TERMINAL AND METHOD FOR CONTROLLING THE MOBILE TERMINAL}
본 발명은 모바일 단말기 및 그의 제어 방법에 관한 것으로, 더욱 자세히는 청각 장애인들로 하여금 자막에 포함된 전문 용어 또는 자막과 연관된 감정을 용이하게 인지할 수 있도록 하는 모바일 단말기 및 그의 제어 방법에 관한 것이다.
근래의 이동통신 기술의 발전으로 스마트폰 사용자의 인구가 증가함에 따라 이동통신 기반의 컨텐츠 데이터(예를 들어, DMB-TV)의 양은 더욱 방대하게 증가하였다. 상기 스마트폰 등의 이동통신을 이용하여 방송 프로그램을 시청하는 사용자들 중에서도 청각 장애를 가진 시청자들은, 일반인에 비하여 상대적으로 이 스마트 폰을 사용하는데 많은 어려움을 겪는다.
이러한 청각 장애인들의 이해를 돕기 위하여 방송 프로그램을 송출하는 방송국이나 서비스 업체 등에서는 TV 영상 데이터에 자막 방송을 붙이는 등의 여러가지 시도를 하고 있다. 국내출원 10-0762616호는 그 시도 중 하나라고 할 수 있다. 국내출원 10-0762616호는 사용자가 이동하는 동안에 방송 동영상 데이터 정보로부터 자막 데이터를 추출하고, 추출된 자막 데이터를 영상 화면에 첨부하여 출력하는 디지털 멀티미디어 방송(DMB) 수신기를 제시하고 있다.
그러나 일반적인 청각 장애인들은 문자보다는 수화를 더 친숙하게 느끼는 경향이 있어 자막, 그 중에서도 전문 용어를 이용하는데 다소 시간이 소요되는 편이다. 뿐만 아니라 청각 장애인들은 자막만으로는 방송되고 있는 방송 프로그램과 연관된 감정을 인지하기가 힘든 경향이 있다. 따라서 청각 장애인들이 전문 용어를 용이하게 인식하고, 자막이 나타내고자 하는 특정 감정을 용이하게 인지할 수 있는 방법이 요구된다.
본 발명의 목적은 청각 장애인들로 하여금 자막에 포함된 전문 용어 또는 자막과 연관된 감정을 용이하게 인지할 수 있도록 하는 모바일 단말기 및 그의 제어 방법을 제공함에 있다.
본 발명의 일 실시예에 따른 모바일 단말기의 제어 방법은, 영상 데이터를 포함하는 컨텐츠 데이터를 수신하는 과정과, 상기 컨텐츠 데이터에 자국어 자막을 포함하는 제1자막 데이터가 포함되어 있는지 여부를 판단하는 과정과, 상기 제1자막 데이터가 포함되어 있는 경우, 상기 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단하는 과정과, 상기 자국어 자막에 상기 고난도 단어가 포함되어 있는 경우, 상기 고난도 단어에 대응하는 설명 데이터를 생성하는 과정과, 상기 제1자막 데이터에 상기 설명 데이터를 더 포함시킴으로써 상기 제1자막 데이터를 제2자막 데이터로 변환하는 과정을 포함한다.
본 발명의 다른 실시예에 따른 모바일 단말기의 제어 방법은, 영상 데이터를 포함하는 컨텐츠 데이터를 수신하는 과정과, 상기 컨텐츠 데이터에 자국어 자막을 포함하는 제1자막 데이터가 포함되어 있는지 여부를 판단하는 과정과, 상기 제1자막 데이터가 포함되어 있는 경우, 상기 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단하는 과정과, 상기 자국어 자막에 상기 고난도 단어가 포함되어 있는 경우, 상기 고난도 단어에 대응하는 자국어 수화 애니메이션을 생성하는 과정과, 상기 제1자막 데이터에 상기 자국어 수화 애니메이션을 더 포함시킴으로써 상기 제1자막 데이터를 제2자막 데이터로 변환하는 과정을 포함한다.
본 발명의 일 실시예에 따른 모바일 단말기는, 영상 데이터를 포함하는 컨텐츠 데이터를 수신하는 영상 수신부와, 상기 컨텐츠 데이터에 자국어 자막을 포함하는 제1자막 데이터가 포함되어 있는지 여부를 판단하고, 상기 제1자막 데이터가 포함되어 있는 경우, 상기 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단하고, 상기 자국어 자막에 상기 고난도 단어가 포함되어 있는 경우, 상기 고난도 단어에 대응하는 설명 데이터를 생성하고, 상기 제1자막 데이터에 상기 설명 데이터를 더 포함시킴으로써 상기 제1자막 데이터를 제2자막 데이터로 변환하는 제어부를 포함한다.
본 발명의 다른 실시예에 따른 모바일 단말기는, 영상 데이터를 포함하는 컨텐츠 데이터를 수신하는 영상 수신부와, 상기 컨텐츠 데이터에 자국어 자막을 포함하는 제1자막 데이터가 포함되어 있는지 여부를 판단하고, 상기 제1자막 데이터가 포함되어 있는 경우, 상기 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단하고, 상기 자국어 자막에 상기 고난도 단어가 포함되어 있는 경우, 상기 고난도 단어에 대응하는 자국어 수화 애니메이션을 생성하고, 상기 제1자막 데이터에 상기 자국어 수화 애니메이션을 더 포함시킴으로써 상기 제1자막 데이터를 제2자막 데이터로 변환하는 제어부를 포함한다.
본 발명에 따르면, 청각 장애인들로 하여금 자막에 포함된 전문 용어 또는 자막과 연관된 감정을 용이하게 인지할 수 있도록 하는 모바일 단말기 및 그의 제어 방법을 제공한다.
도 1은 본 발명의 일 실시예에 따른 모바일 단말기의 구성을 도시한 블록도,
도 2는 본 발명의 일 실시예에 따른 모바일 단말기의 전면 사시도,
도 3은 본 발명의 일 실시예에 따른 모바일 단말기의 후면 사시도
도 4는 도 1에 도시된 제어부의 구성을 도시한 블록도,
도 5는 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 일 예를 나타낸 순서도,
도 6은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 다른 예를 나타낸 순서도,
도 7은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 또 다른 예를 나타낸 순서도,
도 8은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 또 다른 예를 나타낸 순서도,
도 9a 및 도 9b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 일 예를 나타낸 도면,
도 10은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 다른 예를 나타낸 도면,
도 11a 및 도 11 b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면,
도 12a 내지 도 12b는 사용자에게 특수 효과를 제공하기 위한 모바일 단말기의 일 예를 나타낸 도면,
도 13a 내지 도 13e는 도 1에 도시된 모바일 단말기가 사용자에게 특수 효과를 제공하는 일 예를 나타낸 도면,
도 14a 및 도 14b는 도 1에 도시된 모바일 단말기가 사용자에게 특수 효과를 제공하는 다른 예를 나타낸 도면,
도 15a 및 도 15b는 도 1에 도시된 모바일 단말기에서 제2자막 데이터를 표시하는 일 예를 나타낸 도면,
도 16a 내지 도 16c는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 일 예를 나타낸 도면,
도 17a 및 도 17b는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 다른 예를 나타낸 도면,
도 18a 내지 도 18d는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 또 다른 예를 나타낸 도면,
도 19a 및 도 19b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면,
도 20은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면,
도 21은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면,
도 22는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면,
도 23은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면, 그리고
도 24은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 1은 본 발명의 일 실시예에 따른 모바일 단말기의 구성을 도시한 블록도이다.
도 1을 참조하면, 장치(100)는 제어부(110), 이동통신 모듈(120), 저장부(175) 및 스크린(190)을 포함할 수 있으며, 서브 통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), 입출력 모듈(160), 센서 모듈(170), 전원 공급부(180) 및 스크린 컨트롤러(195) 중 적어도 하나를 더 포함할 수 있다.
제어부(110)는 CPU(111), 모바일 단말기(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 모바일 단말기(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 모바일 단말기(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입출력 모듈(160), 센서 모듈(170), 저장부(175), 전원 공급부(180), 스크린(190) 및 스크린 컨트롤러(195)를 제어할 수 있다.
제어부(110)는 스크린(190)을 제어함으로써 상기 스크린(190)을 통해 표시되고 있는 각종 컨텐츠 데이터 또는 상기 컨텐츠 데이터의 표시를 제어할 수 있다. 제어부(110)는 스크린(190)을 통해 감지된 터치 입력, 즉 사용자 입력에 따른 동작을 수행하도록 모바일 단말기(100)를 제어할 수 있다. 스크린(190)을 통해 상기 스크린(190)의 적어도 한 점을 터치하는 터치 입력이 입력되면, 제어부(110)는 상기 터치 입력에 대응하는 동작을 수행하도록 모바일 단말기(100)를 제어한다.
본 실시예에 따른 제어부(110)는 컨텐츠 데이터를 수신하도록 이동통신 모듈(120)를 제어한다. 모바일 단말기(100)가 타 기기(예를 들어, 방송국 등)로부터 컨텐츠 데이터를 수신하면, 제어부(110)는 상기 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는지 여부를 판단한다. 본 실시예에서 제1자막 데이터는 컨텐츠 데이터에 미리 포함되어 있던 자막으로서, 컨텐츠 데이터를 전송 또는 방송하는 방송국 또는 서비스 업체에 의하여 제작된 것일 수 있다. 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는 경우, 제어부(110)는 컨텐츠 데이터로부터 상기 제1자막 데이터를 추출할 수 있으며, 추출된 제1자막 데이터를 분석할 수 있다.
제어부(110)는 제1자막 데이터에 포함된 텍스트들, 즉 자막을 분석하고, 상기 제1자막 데이터를 제2자막 데이터로 변환한다. 제어부(110)는 제1자막 데이터에 포함된 텍스트들 중 고난도 단어가 포함되어 있는지 여부를 판단한다. 고난도 단어가 포함된 경우, 제어부(110)는 상기 고난도 단어들 각각에 대한 설명(explanation)을 포함하는 설명 데이터를 생성할 수 있다. 제어부(110)는 상기 설명 데이터를 제1자막 데이터에 추가함으로써 제1자막 데이터를 제2자막 데이터로 변환할 수 있다. 스크린(190)을 통해 영상 데이터가 표시될 때, 제어부(110)는 설명 데이터를 포함하는 제2자막 데이터를 함께 표시하도록 스크린(190)을 제어할 수 있다. 즉 제어부(110)는 제1자막 데이터와 설명 데이터를 동시에 표시하도록 스크린(190)을 제어한다.
실시예에 따라 제어부(110)는 고난도 단어 또는 고난도 단어가 포함된 문장을 수화로 번역할 수 있다. 제어부(110)는 번역된 수화를 기초로 수화 애니메이션을 생성한다. 수화 애니메이션은 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 포함한다. 실시예에 따라 제어부(110)는 저장부(175)에 미리 저장되어 있던 아바타로 하여금 상기 수화 동작을 수행하는 애니메이션을, 자국어 수화 애니메이션 또는 외국어 수화 애니메이션으로서 생성할 수 있다. 이때 제어부(110)는 고난도 단어에 대응하여 생성된 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 저장부(175)의 수화 DB(176) 또는 외국어 수화 DB(178)에 각각 저장할 수 있다.
실시예에 따라 제어부(110)는 고난도 단어에 대응하는 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 저장부(175)로부터 검색할 수 있다. 즉 저장부(175)에는 고난도 단어들 각각에 대응하는 자국어 수화 애니메이션 또는 외국어 수화 애니메이션이 저장된 상태일 수 있다. 제어부(110)는 제1자막 데이터에 포함된 고난도 단어에 대응하는 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 검색하여 저장부(175)로부터 추출할 수 있다. 또한 검색된 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 제1자막 데이터에 추가시킬 수 있다.
실시예에 따라 수화 DB(176) 또는 외국어 수화 DB(178)에는 고난도 단어들 각각에 대응하는 수화 데이터가 저장될 수도 있다. 수화 데이터는, 예를 들어 특정 단어에 대응하는 수화 동작의 모양, 동작 순서 등을 포함한 것으로, 수화 동작을 설명하기 위한 데이터일 수 있다.
제어부(110)는 수화 애니메이션을 제1자막 데이터에 추가함으로써 제1자막 데이터를 제2자막 데이터로 변환할 수 있다. 스크린(190)을 통해 영상 데이터가 표시될 때, 제어부(110)는 수화 애니메이션을 포함하는 제2자막 데이터를 함께 표시하도록 스크린(190)을 제어할 수 있다. 즉 제어부(110)는 제1자막 데이터와 자막 데이터를 동시에 표시하도록 스크린(190)을 제어한다.
이동통신 모듈(120)은 제어부(110)의 제어 하에 적어도 하나의 안테나(미도시)를 이용하여 모바일 단말기(100)가 외부 장치와 연결되도록 한다. 이때 모바일 단말기(100)와 외부 장치는 이동 통신을 통해 연결될 수 있다. 이동통신 모듈(120)은 모바일 단말기(100)에 입력되는 전화번호를 가지는 휴대폰(미도시), 스마트폰(미도시), 태블릿 PC 또는 다른 장치(미도시)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
본 실시예에 따른 이동통신 모듈(120)은 방송국 또는 방송 서비스 제공 업체 등으로부터 방송되는 컨텐츠 데이터를 수신한다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입출력 모듈(160), 센서 모듈(170), 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 모바일 단말기(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
”저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 모바일 단말기(100)에 장착되는 메모리 카드(미도시)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
본 실시예에 따른 저장부(175)는 단어 DB(176), 수화 DB(177) 및 외국어 수화 DB(178) 중 적어도 하나를 포함할 수 있다.
단어 DB(176)에는 각 단어 또는 문장이 난이도별로 분류되어 저장될 수 있다. 예를 들어, 단어 DB(176)에 저장된 단어들은 높은 난이도를 가지는 합성어(compound) 또는 파생어(derivative)와, 낮은 난이도를 가지는 단일어(simplex)로 분류될 수 있다.
수화 DB(177)에는 각 단어 또는 문장을 나타내는 수화가 저장될 수 있다. 예를 들어, 수화 DB(177)에는 인플레이션이라는 단어를 나타내는 수화가 저장되어 있을 수 있다. 실시예에 따라 수화 DB(177)에는 자국어 수화를 애니메이션 형태로 구현한 자국어 수화 애니메이션이 해당 단어 또는 문장에 대응되어 저장되어 있을 수 있다. 또한 실시예에 따라 수화 DB(176)에는 단어들 또는 문장에 대응하는 수화 데이터가 저장될 수도 있다.
외국어 수화 DB(178)에는 자국어 외의 언어(외국어)로 된 각 단어 또는 문장을 나타내는 외국어 수화 애니메이션이 저장된다. 예를 들어, 자국어가 한국어라고 가정하면 외국어 DB(178)에는 영어 단어 또는 영어 문장을 나타내는 외국어 수화 애니메이션이 저장될 수 있다. 실시예에 따라 외국어 수화 DB(178)에는 자국어의 단어 또는 문장에 대응하는 외국어의 단어 또는 문장의 수화 애니메이션이 저장될 수 있다. 예를 들어, 외국어 DB(178)에는 ‘우유’라는 자국어에 대응하는 외국어 ‘milk’를 나타내는 외국어 수화 애니메이션이 저장될 수 있다. 실시예에 따라 외국어 수화 DB(178)에는 외국어 단어들 또는 문장에 대응하는 수화 데이터가 저장될 수도 있다.
스크린(190)은 모바일 단말기(100)에 저장된 데이터(예를 들어, 컨텐츠 데이터)를 표시한다. 실시예에 따라 스크린(190)은 터치스크린(touch screen)의 형태로 구현되어 사용자가 신체의 일부(예를 들어, 손가락)를 스크린(190)과 접촉시킴으로써 발생하는 사용자 입력(터치 입력)을 상기 사용자로부터 수신할 수 있다. 또한 스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 인터페이스를 제공할 수 있다. 스크린(190)은 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호(터치 입력)를 스크린 컨트롤러(195)로 전송할 수 있다. 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한 스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치는 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 한정되지 않고, 비접촉(예, 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과 검출 가능한 간격이 1mm 이하)을 포함할 수 있다. 스크린(190)에서 검출 가능한 간격은 모바일 단말기(100)의 성능 또는 구조에 따라 변경될 수 있다.
스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
본 실시예에서 스크린(190)은 자국어 자막을 표시하기 위한 사용자 입력 또는 자국어 수화를 표시하기 위한 사용자 입력을 수신할 수 있다. 실시예에 따라 스크린(190)은 외국어 자막 또는 외국어 수화를 표시하기 위한 사용자 입력을 수신할 수 있다.서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함한다. 이하에서는 상기 스크린(190) 및 스크린 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함할 수 있으며, 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수도 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(미도시)가 설치된 장소에서 인터넷에 연결될 수 있다. 즉 무선랜 모듈(131)은 모바일 단말기(100)의 무선 인터넷 연결을 지원한다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다.
근거리통신 모듈(132)은 제어부(110)의 제어에 따라 모바일 단말기(100)와 화상형성장치(미도시) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다.
모바일 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 모바일 단말기(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(미도시)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터 방송 신호) 및 방송부가 정보(예를 들어 EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 실시예에 따라 방송통신 모듈(141)은 이동통신 모듈(120)을 통해 수신한 컨텐츠 데이터를 스크린(190)으로 출력할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
실시예에 따라 멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오 재생 모듈(142)과 동영상 재생 모듈(143)만을 포함할 수도 있다. 또한 멀티미디어 모듈(140)의 오디오 재생 모듈(142) 또는 동영상 재생 모듈(143)은 제어부(110)에 포함될 수도 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1카메라(151) 및 제2카메라(152) 중 적어도 하나를 포함할 수 있다. 제1카메라(151) 또는 제2카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(미도시))을 포함할 수 있다. 제1카메라(151)는 모바일 단말기(100) 전면에 배치되고, 제2카메라(152)는 모바일 단말기(100)의 후면에 배치될 수 있다. 다른 실시예에 따라 제1카메라(151)와 제2카메라(152)는 인접(예를 들어, 제1카메라(151)와 제2카메라(152)의 간격이 1cm보다 크고, 8cm보다는 작은)하게 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS 위성(미도시)에서부터 전파를 수신하고, GPS 위성(미도시)에서부터 모바일 단말기(100)까지 전파도달시간(Time of Arrival)을 이용하여 모바일 단말기(100)의 위치를 산출할 수 있다.
입출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 모바일 단말기(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(미도), 볼륨 버튼(미도시), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
본 실시예에 따른 입출력 모듈(160)은 자국어 자막을 표시하기 위한 사용자 입력 또는 자국어 수화를 표시하기 위한 사용자 입력을 수신할 수 있다. 실시예에 따라 입출력 모듈(160)은 외국어 자막 또는 외국어 수화를 표시하기 위한 사용자 입력을 수신할 수 있다. 또한 실시예에 따라 입출력 모듈(160)은 자막에 포함된 전문 용어, 합성어, 파생어 등을 설명하기 위한 설명 데이터를 스크린(190)으로 출력하기 위한 사용자 입력을 수신할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력받아 전기적인 신호를 생성한다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 모바일 단말기(100) 외부로 출력할 수 있다. 스피커(163)는 모바일 단말기(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다. 스피커(163)는 모바일 단말기(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동 모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 모바일 단말기(100)가 다른 장치(미도시)로부터 음성통화를 수신하는 경우, 진동 모터(164)가 동작된다. 이러한 진동 모터(164)는 모바일 단말기(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동 모터(164)는 터치스크린으로 구현된 스크린(190) 상을 터치하는 사용자의 터치 동작 및 스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 모바일 단말기(100)와 외부 장치(미도시) 또는 전원 소스(미도시)를 연결하기 위한 인터페이스로 이용될 수 있다. 모바일 단말기(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 모바일 단말기(100)의 저장부(175)에 저장된 데이터를 외부 장치(미도시)로 전송하거나 또는 외부 장치(미도시)로부터 데이터를 수신할 수 있다. 또한 모바일 단말기(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원 소스(미도시)로부터 전원을 입력받거나, 상기 전원 소스를 이용하여 배터리(미도시)를 충전할 수 있다.
키패드(166)는 모바일 단말기(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 모바일 단말기(100)에 형성되는 물리적인 키패드(미도시) 또는 스크린(190)에 표시되는 가상의 키패드(미도시)를 포함한다. 모바일 단말기(100)에 형성되는 물리적인 키패드(미도시)는 모바일 단말기(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(미도시)이 삽입되어 모바일 단말기(100)에 연결될 수 있다.
센서 모듈(170)은 모바일 단말기(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서 모듈(170)은 사용자의 모바일 단말기(100)에 대한 접근 여부를 검출하는 근접 센서, 모바일 단말기(100) 주변의 빛의 양을 검출하는 조도 센서(미도시), 또는 모바일 단말기(100)의 동작(예, 모바일 단말기(100)의 회전, 모바일 단말기(100)에 가해지는 가속도 또는 진동)을 검출하는 모션 센서(미도시), 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 미도시), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter) 등을 포함할 수 있다. 적어도 하나의 센서는 모바일 단말기(100)는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다. 센서 모듈(170)의 센서는 모바일 단말기(100)의 성능에 따라 추가되거나 삭제될 수 있다.
본 실시예에 따른 센서 모듈(170)은 근접 센서를 포함할 수 있다. 근접 센서는 스크린(190)과 근접한 일정 범위를 통해 감지되는 사용자의 움직임(예를 들어, 사용자 손가락의 움직임)을 감지하는 센서이다. 예를 들어, 스크린(190)이 정전 용량 방식으로 구현되었다면 근접 센서로 구현된 센서 모듈(170)은 상기 스크린(190)의 일정 범위(예를 들어, 스크린(190)으로부터 10cm 높이)에서 발생하는 정전용량의 변화를 감지함으로써 사용자의 움직임을 검출할 수 있다. 상기와 같이 감지되는 사용자의 움직임 또한 사용자 입력에 포함될 수 있다.
전원 공급부(180)는 제어부(110)의 제어에 따라 모바일 단말기(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 모바일 단말기(100)에 전원을 공급한다. 또한 전원 공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원 소스(미도시)에서부터 입력되는 전원을 모바일 단말기(100)로 공급할 수 있다. 또한 전원 공급부(180)는 무선 충전 기술을 통해 외부의 전원 소스로부터 무선으로 입력되는 전원을 모바일 단말기(100)로 공급할 수도 있다.
스크린 컨트롤러(195)는 스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예를 들어, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치에 응답하여 스크린(190)에 표시된 단축 아이콘(미도시)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한 스크린 컨트롤러(195)는 제어부(110)에 포함되는 형태로 구현될 수 있다.
실시예에 따라 스크린 컨트롤러(195)는 센서 모듈(170)에 의해 감지된 근접 센싱 입력에 대응하는 스크린(190) 상에서의 좌표를 추출할 수도 있다. 예를 들어, 센서 모듈(170)을 통하여 스크린(190)과 근접한 일정 범위 내의 한 지점(제1지점)을 선택하기 위한 근접 센싱 입력이 감지되었다고 가정한다. 또한 근접 센싱이 정전 용량 방식으로 구현되었다고 가정한다. 센싱 모듈(170)은 스크린(190)의 일정 범위 내에서 발생하는 정전용량의 변화를 감지하고, 제어부(110)는 정전용량이 변화한 지점(제1지점)에 대응하는 스크린(190) 상의 지점(제2지점)의 좌표를 추출하도록 스크린 컨트롤러(195)를 제어할 수 있다. 예를 들어, 제2지점은, 상기 제1지점으로부터 가장 가까운 거리에 위치한 스크린(190) 상의 한 점일 수 있다.
실시예에 따라 모바일 단말기(100)는 서브통신 모듈(130), 커넥터(165) 및 이어폰 연결잭(167)과 같은 외부 장치 연결부를 이용하여 외부 장치(미도시)와 연결될 수 있다.
”외부 장치”는 모바일 단말기(100)에 탈착되어 유선으로 연결 가능한 이어폰(Earphone), 외부 스피커(External speaker), USB(Universal Serial Bus) 메모리, 충전기, 크래들/도크(Cradle/Dock), DMB 안테나, 모바일 결제 관련 장치, 건강 관리 장치(혈당계 등), 게임기, 자동차 내비게이션 장치 등 다양한 장치들을 포함할 수 있다. 또한 ”외부 장치”는 근거리 통신에 의하여 무선으로 모바일 단말기(100)에 연결될 수 있는 블루투스 통신 장치, NFC(Near Field Communication) 장치와 같은 근거리 통신 장치 및 WiFi Direct 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 또한 외부 장치는 다른 장치, 휴대폰, 스마트폰, 태블릿PC, 데스크탑 PC 및 서버를 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 모바일 단말기의 전면 사시도이고, 도 3은 본 발명의 일 실시예에 따른 모바일 단말기의 후면 사시도이다.
도 2를 참조하면, 모바일 단말기(100)의 전면(100a) 중앙에는 스크린(190)이 배치된다. 스크린(190)은 모바일 단말기(100)의 전면(100a)의 대부분을 차지하도록 크게 형성된다.
도 2는 스크린(190)에 메인 홈 화면이 표시된 예를 나타낸다. 메인 홈 화면은 모바일 단말기(100)의 전원을 켰을 때 스크린(190) 상에 표시되는 첫 화면이다. 또한 모바일 단말기(100)가 여러 페이지의 서로 다른 홈 화면들을 갖고 있을 경우, 메인 홈 화면은 상기 여러 페이지의 홈 화면들 중 첫 번째 홈 화면일 수 있다. 홈 화면에는 자주 사용되는 어플리케이션들을 실행하기 위한 단축 아이콘들(191-1, 191-2, 191-3), 메인메뉴 전환키(191-4), 시간, 날씨 등이 표시될 수 있다. 메인메뉴 전환키(191-4)는 스크린(190) 상에 메뉴 화면을 표시한다. 또한 스크린(190)의 상단에는 배터리 충전상태, 수신신호의 세기, 현재 시각과 같은 모바일 단말기(100)의 상태를 표시하는 상태바(Status Bar, 192)가 형성될 수 있다.
스크린(190)의 하부에는 홈 버튼(161a), 메뉴 버튼(161b) 및 뒤로 가기 버튼(161c)이 형성될 수 있다. 홈 버튼(161a)은 스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. 예를 들어, 스크린(190)에 메인 홈 화면과 다른 홈 화면(any Home screen) 또는 메뉴화면이 표시된 상태에서, 홈 키(161a)가 터치되면, 스크린(190)에 메인 홈 화면이 표시될 수 있다. 또한 스크린(190) 상에서 어플리케이션들이 실행되는 도중 홈 버튼(191a)이 터치되면, 스크린(190) 상에는 도 2에 도시된 메인 홈 화면이 표시될 수 있다. 또한 홈 버튼(161a)은 스크린(190) 상에 최근에(recently) 사용된 어플리케이션들을 표시하도록 하거나, 태스크 매니저(Task Manager)를 표시하기 위하여 사용될 수도 있다.
메뉴 버튼(161b)은 스크린(190) 상에서 사용될 수 있는 연결 메뉴를 제공한다. 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다.
뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나 또는 가장 최근에 사용된 어플리케이션을 종료시킬 수 있다.
모바일 단말기(100)의 전면(100a) 가장자리에는 제1카메라(151)와 조도 센서(170a) 및 근접 센서(170b)가 배치될 수 있다. 모바일 단말기(100)의 후면(100c)에는 제2카메라(152), 플래시(flash, 153), 스피커(163)가 배치될 수 있다.
모바일 단말기(100)의 측면(100b)에는 예를 들어 전원/리셋 버튼(160a), 음량 버튼(161b), 방송 수신을 위한 지상파 DMB 안테나(141a), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. DMB 안테나(141a)는 모바일 단말기(100)에 고정되거나 또는 착탈 가능하게 형성될 수도 있다.
모바일 단말기(100)의 하단 측면에는 커넥터(165)가 형성된다. 커넥터(165)에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. 모바일 단말기(100)의 상단 측면에는 이어폰 연결잭(167)이 형성될 수 있다. 이어폰 연결잭(167)에는 이어폰이 삽입될 수 있다.
도 4는 도 1에 도시된 제어부의 구성을 도시한 블록도이다.
본 실시예에 따른 모바일 단말기(100)의 제어부(110)는 이동통신 모듈(120)에 포함된 영상 수신부(122)를 통해 컨텐츠 데이터를 수신할 수 있다. 본 실시예에서 컨텐츠 데이터는 영상 데이터만을 포함하거나 또는 영상 데이터와 제1자막 데이터를 모두 포함하는 것으로 가정한다. 제어부(110)는 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는지 여부를 판단한다. 컨텐츠 데이터에 제1자막 데이터가 포함되어 있지 않은 경우, 즉 컨텐츠 데이터가 영상 데이터만을 포함하고 있는 경우 제어부(110)는 스크린(190)이 영상 데이터를 표시하도록 제어한다. 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는 경우, 즉 컨텐츠 데이터가 영상 데이터와 제1자막 데이터를 모두 포함하고 있는 경우 제어부(110)는 영상 데이터 및 제1자막 데이터를 동시에 표시하도록 스크린(190)을 제어할 수 있다.
도 4를 참조하면 제어부(110)는 자막 디코딩부(402), 오류 보정부(404), 단어 사전부(406), 자막 변환부(408), 수화 번역부(410), 수화 생성부(412), 외국어 수화 번역부(414), 외국어 수화 생성부(416), 효과 발생부(418) 중 적어도 하나를 포함할 수 있다. 또한 도 4에는 설명의 편이를 위하여 이동통신 모듈(120)에 포함된 영상 수신부(122), 저장부(175)에 포함된 단어 DB(177), 수화 DB(176) 및 외국어 수화 DB(178), 스크린(190)을 함께 도시하고 있다.
영상 수신부(122)는 방송 통신 안테나를 통해 컨텐츠 데이터, 예를 들어 방송국으로부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 데이터 방송 신호 등)를 수신할 수 있다. 컨텐츠 데이터를 수신하면 영상 수신부(122)는 상기 컨텐츠 데이터를 제어부(110)의 자막 디코딩부(402)로 전달한다. 컨텐츠 데이터가 자막 디코딩부(402)로 전달되기 전에 제어부(110)는 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는지 여부를 판단할 수 있다. 본 실시예에서 제어부(110)는 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는 경우에만 컨텐츠 데이터를 자막 디코딩부(402)로 전달할 수도 있다. 컨텐츠 데이터에 상기 제1자막 데이터가 포함되어 있지 않은 경우, 제어부(110)는 상기 컨텐츠 데이터를 스크린(190)으로 바로 전달할 수도 있다.
자막 디코딩부(402)는 컨텐츠 데이터로부터 제1자막 데이터를 추출한다. 본 실시예에서 제1자막 데이터는 자국어 자막을 포함한다. 자국어 자막은, 예를 들어 방송 신호가 송출되는 지역이 포함된 국가의 언어로 된 자막이다.
오류 보정부(404)는 자막 디코딩부(402)를 통해 추출된 제1자막 데이터에 대한 오류 검사를 수행한다. 오류 보정부(404)는 오류 검사를 통하여 제1자막 데이터에 포함된 자국어 자막의 오류, 예를 들어 오타(typographical error), 비문(非文) 등을 보정할 수 있다. 실시예에 따라 오류 보정부(404)는 단어 DB(177)를 참조하여 제1자막 데이터의 오류를 보정할 수도 있다.
상기와 같이 본 실시예에서는, 컨텐츠 데이터에 포함된 제1자막 데이터를 보정함으로써, 사용자에게 보다 정확한 자막을 제공할 수 있다. 또한 상기와 같이 제1자막 데이터를 보정하면, 이후 수화 번역부(410)가 제1자막 데이터에 포함된 자국어 자막을 보다 정확한 수화로 번역할 수 있게 된다. 또한 외국어 수화 번역부(414)가 제1자막 데이터에 포함된 자국어 자막을 외국어로 번역하는 경우에도 외국어로의 번역 정확도를 높일 수 있게 된다.
오류 보정부(404)에 의하여 오류가 보정되면, 단어 사전부(406)는 제1자막 데이터(자국어 자막)에 포함된 단어들 또는 문장들의 난이도를 결정한다. 단어 사전부(406)는 단어 DB(177)를 참조하여 단어들의 난이도를 결정한다.
실시예에 따라 단어 사전부(406)는 제1자막 데이터 중 난이도가 저장부(175)에 미리 저장된 기준 난이도 이상인 단어를 추출할 수 있다. 이하에서는, 설명의 편이을 위하여 기준 난이도 이상인 단어를 ‘고난도 단어’라 하기로 한다. 기준 난이도는 저장부(175)에 미리 저장되어 있을 수 있고, 입출력 모듈(160) 또는 스크린(190)을 통해 입력된 사용자 입력에 의해 지정된 것일 수 있다. 단어 사전부(406)는 단어 DB(177)를 참조하여 고난도 단어들 각각에 대응하는 설명 데이터를 생성할 수 있다.
자막 변환부(408)는 단어 사전부(406)에 의하여 생성된 설명 데이터를 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환한다. 실시예에 따라 자막 변환부(408)가 단어 DB(177)를 참조하여 고난도 단어들 각각에 대응하는 설명 데이터를 생성할 수도 있다. 설명 데이터는, 고난도 단어를 설명하기 위한 텍스트, 이미지 등을 포함할 수 있으며, 실시예에 따라 팝업 창 등의 형태로 스크린(190)에 표시될 수 있다.
실시예에 따라 자막 변환부(408)는 수화 생성부(412)에 의하여 생성된 자국어 수화 애니메이션을 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환할 수 있다. 또한 실시예에 따라 자막 변환부(408)는 외국어 수화 생성부(416)에 의하여 생성된 외국어 수화 애니메이션을 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환할 수도 있다.
실시예에 따라 자막 변환부(408)는 자국어 자막 또는 외국어 자막의 글자체 모양(서체), 글자체 사이즈, 글자체 색 등을 결정할 수 있으며, 스크린(190) 상에서 자국어 자막 또는 외국어 자막이 표시되는 위치 및 사이즈를 결정할 수 있다. 실시예에 따라 자막 변환부(408)는 설명 데이터의 글자체 모양(서체), 글자체 사이즈, 글자체 색 등을 결정할 수 있으며, 스크린(190) 상에서 상기 설명 데이터가 표시되는 위치 및 사이즈를 결정할 수 있다. 또한 자막 변환부(408)는 자국어 수화 애니메이션 또는 외국어 수화 애니메이션이 표시되는 사이즈, 스크린(190) 상에서의 위치 등을 결정할 수 있다.
수화 번역부(410)는 수화 DB(176)를 참조하여 제1자막 데이터, 즉 자국어 자막의 적어도 일부를 수화로 번역한다. 실시예에 따라 수화 번역부(410)는 고난도 단어 또는 고난도 단어가 포함된 문장을 수화로 번역할 수 있다. 예를 들어, 수화 번역부(410)는 ‘인플레이션’이라는 고난도 단어를 수화로 번역할 수 있다. 또한 수화 번역부(410)는 ‘인플레이션이 발생하였습니다’라는 고난도 문장을 수화로 번역할 수도 있다.
수화 번역부(410)에 의하여 자국어 자막의 적어도 일부가 수화로 번역되면, 그 번역 결과를 기초로 수화 생성부(412)는 자국어 수화 애니메이션을 생성한다. 실시예에 따라 수화 생성부(412)는 단어 또는 문장을 나타내는 수화를, 애니메이션 형태로 구현한 자국어 수화 애니메이션을 생성할 수 있다. 이때 수화 생성부(412)는 해당 단어 또는 문장에 대응하는 수화 데이터를 기초로 자국어 수화 애니메이션을 생성할 수 있다. 이후 수화 생성부(412)는 자국어 수화 애니메이션을 자막 변환부(408)에 전달한다.
외국어 수화 번역부(414)는 외국어 수화 DB(178)를 참조하여 제1자막 데이터, 즉 자국어 자막의 적어도 일부를 외국어 수화로 번역한다. 실시예에 따라 외국어 수화 번역부(414)는 자국어 자막을 외국어로 번역한 외국어 자막을 생성할 수 있다. 외국어 자막이 생성되면, 외국어 수화 번역부(414)는 상기 외국어 자막의 적어도 일부를 외국어 수화로 번역할 수 있다. 예를 들어, 외국어 수화 번역부(414)는 한국어 자막의 ‘달력’을 ‘calendar’에 대응하는 영어 수화로 번역할 수 있다.
외국어 수화 번역부(414)에 의하여 외국어 자막의 적어도 일부가 외국어 수화로 번역되면, 그 번역 결과를 기초로 수화 생성부(412)는 외국어 수화 애니메이션을 생성한다. 이때 외국어 수화 생성부(414)는 해당 단어 또는 문장에 대응하는 수화 데이터를 기초로 외국어 수화 애니메이션을 생성할 수 있다. 이후 외국어 수화 생성부(412)는 외국어 수화 애니메이션을 자막 변환부(408)에 전달한다.
자막 변환부(408)는 단어 사전부(406)에 의하여 생성된 해설 데이터, 수화 생성부(412)에 의하여 생성된 자국어 수화 애니메이션, 외국어 수화 생성부(416)에 의해 생성된 외국어 수화 애니메이션 중 적어도 하나를 제1자막 데이터에 포함시킴으로써 제2자막 데이터를 생성한다. 상기와 같이, 본 실시예에서 제2자막 데이터는, 설명 데이터, 자국어 수화 애니메이션, 외국어 수화 애니메이션 중 적어도 하나와, 제1자막 데이터(자국어 자막)를 포함한다. 실시예에 따라 제2자막 데이터는 효과 발생부(418)에 의하여 생성된 속성 데이터를 더 포함할 수도 있다.
효과 발생부(418)는 제1자막 데이터 또는 제2자막 데이터를 스크린(190)에 표시할 때 상기 제1자막 데이터 또는 제2자막 데이터의 적어도 일부에 대응하는 이벤트(예를 들어, 특수 효과)를 발생시키기 위한 속성 데이터를 생성한다. 효과 발생부(418)에 의해 생성되는 속성 데이터는 제1자막 데이터 또는 제2자막 데이터에 포함된 단어에 따라 모바일 단말기(100)가 열, 발광, 진동 등의 특수 효과를 발생시키도록 하는 제어 신호일 수 있다.
예를 들어, 제1자막 데이터에 ‘지진’이라는 단어가 포함되어 있다고 가정한다. 효과 발생부(418)는 ‘지진’이라는 단어에 대응하여 모바일 단말기(100)가 진동하도록 하는 제어 신호를, 속성 데이터로서 생성할 수 있다. 상기와 같이 속성 데이터가 생성된 이후, 사용자가 스크린(190)에 표시되는 자막 중 ‘지진’을 선택하면 모바일 단말기(100)의 진동 모터(164)는 진동을 발생시키게 된다.
도 5는 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 일 예를 나타낸 순서도이다.
도 5를 참조하면, 모바일 단말기(100)의 영상 수신부(122)는 컨텐츠 데이터를 수신한다(S502). 단계 S502에서 영상 수신부(122)가 수신한 컨텐츠 데이터는 방송국으로부터 방송된 방송 신호인 것으로 가정한다. 또한 컨텐츠 데이터는 영상 데이터를 포함하며, 제1자막 데이터를 더 포함할 수 있다.
제어부(110)는 단계 S502에서 수신한 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는지 여부를 판단한다(S504). 본 실시예에서 제1자막 데이터는 자국어 자막을 포함하는 것으로 가정한다.
단계 S504의 판단 결과 제1자막 데이터가 포함되어 있지 않은 경우(S504: 아니오), 제어부(110)는 스크린(190)에 영상 데이터만을 표시하도록 상기 스크린(190)을 제어한다(S512).
단계 S504의 판단 결과 컨텐츠 데이터에 제1자막 데이터가 포함되어 있는 경우(S504: 예), 제어부(110)는 제1자막 데이터를 분석한다(S506). 제어부(110)는 제1자막 데이터를 제2자막 데이터로 변환한다(S508).
제어부(110)는 자막 표시를 위한 사용자 입력을 수신하였는지 여부를 판단한다(S510). 본 실시예에서 제1자막 데이터 또는 제2자막 데이터는 사용자 입력을 수신하여야 스크린(190)에 표시되는 것으로 가정한다. 다른 실시예에 따라 제1자막 데이터 또는 제2자막 데이터는, 자막 표시를 위한 사용자 입력을 수신하지 않은 경우에도 스크린(190)에 표시될 수 있다.
단계 S510의 판단 결과 자막 표시를 위한 사용자 입력을 수신한 경우(S510: 예), 제어부(110)는 영상 데이터와 제2자막 데이터를 모두 표시하도록 상기 스크린(190)을 제어한다(S514).
단계 S510의 판단 결과 자막 표시를 위한 사용자 입력을 수신하지 않은 경우(S510: 아니오), 제어부(110)는 스크린(190)에 영상 데이터만을 표시하도록 상기 스크린(190)을 제어한다(S512).
도 6은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 다른 예를 나타낸 순서도이다.
도 6을 참조하면, 모바일 단말기(100)의 영상 수신부(122)는 컨텐츠 데이터를 수신한다(S602). 단계 S602에서 영상 수신부(122)가 수신한 컨텐츠 데이터는 방송국으로부터 방송된 방송 신호인 것으로 가정한다. 또한 컨텐츠 데이터는 영상 데이터 및 제1자막 데이터를 포함하는 것으로 가정한다.
제어부(110)의 자막 디코딩부(402)는 단계 S602에서 수신한 컨텐츠 데이터로부터 제1자막 데이터를 추출한다(S604). 본 실시예에서 제1자막 데이터는 자국어 자막을 포함하는 것으로 가정한다. 제1자막 데이터가 추출되면, 오류 보정부(404)는 제1자막 데이터에 포함된 자국어 자막의 오류를 보정한다.
제어부(110)의 단어 사전부(406)는 제1자막 데이터, 그 중에도 자국어 자막에 포함된 단어들 각각의 난이도를 결정한다(S606). 단어들 각각은 저장부(175), 특히 단어 DB(177)에 미리 저장된 난이도에 따라 나눠질 수 있다. 실시예에 따라 난이도는 사용자 입력에 의해 미리 정해질 수 있다. 바람직하게, 단어들 각각의 난이도는, 상기 단어가 합성어, 파생어 또는 전문용어(technical term)인 경우 높아질 수 있다.
상기와 같이 단어들 각각에 대한 난이도가 결정되면, 단어 사전부(406)는 제1자막 데이터, 즉 자국어 자막에 고난도 단어가 포함되어 있는지 여부를 판단한다(S610). 자국어 자막에 고난도 단어가 포함되어 있다면, 모바일 단말기(100)를 사용하는 사용자는 상기 자국어 자막의 내용을 이해하기 어렵게 된다. 따라서 본 실시예에서는 자국어 자막에 고난도 단어가 포함된 경우, 상기 고난도 단어에 대한 설명을 자국어 자막에 추가하여 줌으로써 사용자가 용이하게 자국어 자막을 이해할 수 있도록 한다.
단계 S610의 판단 결과 제1자막 데이터에 고난도 단어가 포함되어 있는 경우(S610: 예), 제어부(110)의 자막 변환부(408)는 고난도 단어에 대응하는 설명 데이터를 생성한다(S612). 자막 변환부(408)는 설명 데이터를 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환한다(S614). 제어부(110)는 영상 데이터와 제2자막 데이터가 모두 스크린(190)에 표시되도록 상기 스크린을 제어한다(S616).
단계 S610의 판단 결과 제1자막 데이터에 고난도 단어가 포함되어 있지 않은 경우(S610: 아니오), 제어부(110)는 영상 데이터와 제1자막 데이터가 모두 스크린(190)에 표시되도록 스크린을 제어한다(S618).
도 7은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 또 다른 예를 나타낸 순서도이다.
도 7을 참조하면, 모바일 단말기(100)의 영상 수신부(122)는 컨텐츠 데이터를 수신한다(S702). 단계 S702에서 영상 수신부(122)가 수신한 컨텐츠 데이터는 방송국으로부터 방송된 방송 신호인 것으로 가정한다. 또한 컨텐츠 데이터는 영상 데이터 및 제1자막 데이터를 포함하는 것으로 가정한다.
제어부(110)의 자막 디코딩부(402)는 단계 S702에서 수신한 컨텐츠 데이터로부터 제1자막 데이터를 추출한다(S704). 본 실시예에서 제1자막 데이터는 자국어 자막을 포함하는 것으로 가정한다. 제1자막 데이터가 추출되면, 오류 보정부(404)는 제1자막 데이터에 포함된 자국어 자막의 오류를 보정할 수 있다.
제어부(110)의 단어 사전부(406)는 제1자막 데이터, 그 중에도 자국어 자막에 포함된 단어들 각각의 난이도를 결정한다(S708). 단어들 각각은 저장부(175), 특히 단어 DB(176)에 미리 저장된 난이도에 따라 나눠질 수 있다. 실시예에 따라 난이도는 사용자 입력에 의해 미리 정해질 수 있다. 바람직하게, 단어들 각각의 난이도는, 상기 단어가 합성어, 파생어 또는 전문용어(technical term)인 경우 높아질 수 있다.
본 실시예에서는 제1자막 데이터에 고난도 단어가 포함되어 있는 것으로 가정한다. 제어부(110)의 수화 번역부(410)는 상기 고난도 단어를 수화로 번역할 수 있는지 여부를 판단한다(S708).
이미 언급한 바와 같이 자국어 자막에 고난도 단어가 포함되어 있다면, 모바일 단말기(100)를 사용하는 사용자는 상기 자국어 자막의 내용을 이해하기 어렵게 된다. 따라서 본 실시예에서는 자국어 자막에 포함된 고난도 단어에 대한 설명을, 설명 데이터로서 추가하거나 또는 상기 고난도 단어에 대응하는 수화를, 애니메이션의 형태로 구현하여 사용자에게 표시하여 줌으로써 사용자가 용이하게 자국어 자막을 이해할 수 있도록 한다.
단계 S708의 판단 결과 고난도 단어를 수화로 번역할 수 있는 경우(S708: 예), 제어부(110)의 자막 변환부(408)는 고난도 단어를 자국어 수화로 번역한다(S710). 자막 변환부(408)는 고난도 단어에 대응하는 자국어 수화를, 자국어 수화 애니메이션으로서 생성한다(S712). 자막 변환부(408)는 상기 자국어 수화 애니메이션을 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환한다(S716). 제어부(110)는 스크린(190)이 영상 데이터와 제2자막 데이터를 동시에 표시하도록 상기 스크린(190)을 제어한다(S718). 상기와 같이, 제2자막 데이터는 제1자막 데이터인 자국어 자막 및 자국어 수화 애니메이션을 포함할 수 있다.
단계 S708의 판단 결과 고난도 단어를 수화로 번역할 수 없는 경우(S708: 아니오), 제어부(110)의 자막 변환부(408)는 고난도 단어에 대응하는 설명 데이터를 생성한다(S714). 자막 변환부(408)는 설명 데이터를 제1자막 데이터에 포함시킴으로써, 제1자막 데이터를 제2자막 데이터로 변환한다(S716). 제어부(110)는 스크린(190)이 영상 데이터와 제2자막 데이터를 표시하도록 상기 스크린(190)을 제어한다(S718). 상기와 같이 제2자막 데이터는 제1자막 데이터인 자국어 자막 및 설명 데이터를 포함할 수 있다.
본 실시예의 단계 S718에서 스크린(190)은 영상 데이터와 제2자막 데이터를 동시에 표시한다고 설명하였으나, 다른 실시예에 따라 제어부(110)는 영상 데이터와 자막 데이터만을 표시할 수도 있다. 제1자막 데이터만을 표시하고 있던 중 설명 데이터 또는 자국어 수화 애니메이션을 표시하기 위한 사용자 입력을 수신하면, 제어부(110)는 상기 설명 데이터 또는 자국어 수화 애니메이션을 표시하도록 스크린(190)을 제어할 수 있다.
도 8은 도 1에 도시된 모바일 단말기에서의 자막 표시 방법의 또 다른 예를 나타낸 순서도이다.
도 8을 참조하면, 모바일 단말기(100)의 영상 수신부(122)는 컨텐츠 데이터를 수신한다(S802). 단계 S802에서 영상 수신부(122)가 수신한 컨텐츠 데이터는 방송국으로부터 방송된 방송 신호인 것으로 가정한다. 또한 컨텐츠 데이터는 영상 데이터 및 제1자막 데이터를 포함하는 것으로 가정한다.
제어부(110)의 자막 디코딩부(402)는 단계 S802에서 수신한 컨텐츠 데이터로부터 제1자막 데이터를 추출한다(S804). 본 실시예에서 제1자막 데이터는 자국어 자막을 포함하는 것으로 가정한다. 제1자막 데이터가 추출되면, 오류 보정부(404)는 제1자막 데이터에 포함된 자국어 자막의 오류를 보정한다.
제어부(110)는 스크린(190)을 제어하여 자국어 자막을 표시한다(S806). 실시예에 따라 단계 S806 이전에 제어부(110)의 단어 사전부(406)는 제1자막 데이터, 그 중에도 자국어 자막에 포함된 단어들 각각의 난이도를 결정할 수 있다. 또한 제어부(110)의 단어 사전부(406)는 고난도 단어들 각각에 대응하는 수화 애니메이션이 저장부(175), 특히 수화 DB(177)에 존재하는지 여부를 판단할 수 있다. 자국어 자막에 고난도 단어가 포함되어 있는 경우, 제어부(110)의 자막 변환부(408)는 자국어 자막을 자국어 수화 애니메이션으로 변환할 수 있다. 제어부(110)는 스크린(190)을 제어하여 자국어 자막 대신 자국어 수화 애니메이션을 표시할 수도 있다.
스크린(190)을 통해 자국어 자막이 표시되고 있는 상태에서, 제어부(110)는 외국어 자막 표시를 위한 사용자 입력을 수신하였는지 여부를 판단한다(S808). 본 실시예에서 입출력 모듈(160) 또는 스크린(190)은 외국어 자막의 표시를 위한 사용자 입력을 수신할 수 있다.
단계 S808의 판단 결과 외국어 자막 표시를 위한 사용자 입력을 수신하지 않은 경우(S808: 아니오), 제어부(110)는 자국어 자막을 표시하고 있는 현재 상태를 유지한다(S806).
다른 실시예에 따라 단계 S806 이후, 입출력 모듈(160) 또는 스크린(190)은 자국어 수화 애니메이션을 표시하기 위한 사용자 입력을 수신할 수도 있다. 상기와 같은 경우, 제어부(110)의 수화 번역부(410)는 자국어 자막을 기초로 자국어 수화 애니메이션을 생성한다. 수화 번역부(410)는 수화 DB(716)를 기초로 자국어 자막의 적어도 일부와 동일한 의미를 가지는 자국어 수화 애니메이션을 생성할 수 있다. 스크린(190)은 자국어 자막 대신 자국어 수화 애니메이션을 표시할 수 이다.
단계 S808의 판단 결과 외국어 자막 표시를 위한 사용자 입력을 수신한 경우(S808: 예), 제어부(110)의 단어 사전부(406)는 자국어 자막을 외국어 자막으로 변환한다(S810). 제어부(110)는 스크린(190)을 제어하여 외국어 자막을 표시한다(S812).
스크린(190)을 통해 외국어 자막이 표시되고 있는 상태에서, 제어부(110)는 외국어 수화 애니메이션의 표시를 위한 사용자 입력을 수신하였는지 여부를 판단한다(S814). 외국어 자막과 마찬가지로, 본 실시예에 따른 입출력 모듈(160) 또는 스크린(190)은 외국어 수화 애니메이션을 표시하기 위한 사용자 입력을 수신할 수 있다.
단계 S814의 판단 결과 외국어 수화 애니메이션 표시를 위한 사용자 입력을 수신하지 않은 경우(S814: 아니오), 제어부(110)는 외국어 자막을 표시하고 있는 현재 상태를 유지한다(S812).
단계 S814의 판단 결과 외국어 수화 애니메이션의 표시를 위한 사용자 입력을 수신한 경우(S814: 예), 제어부(110)의 외국어 수화 번역부(414)는 외국어 자막을 기초로 외국어 수화 애니메이션을 생성한다(S816). 단계 S816에서 외국어 수화 번역부(414)는 외국어 자막의 적어도 일부와 동일한 의미를 가지는 외국어 수화 애니메이션을 생성할 수 있다. 이후 제어부(110)는 스크린(190)을 제어하여 외국어 수화 애니메이션을 표시한다(S818).
도 9a 및 도 9b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 일 예를 나타낸 도면이다.
도 9a 및 도 9b를 참조하면, 모바일 단말기(100)의 스크린(190)은 컨텐츠 데이터로서 영상 데이터(910)와 제2자막 데이터(921, 922)를 표시하고 있다. 또한 도 9a 및 도 9b의 제2자막 데이터(921, 922)는 모두 자국어 자막을 포함하고 있으며, 그에 따라 도 9a 및 도 9b의 스크린(190)은 제2자막 데이터(921, 922)로서 자국어 자막을 표시하고 있다. 도 9a 및 도 9b의 컨텐츠 데이터는 영상 데이터(910)와 영상 데이터(910) 안의 인물들인 A(901), B(902), C(903), D(904), E(905) 및 F(906) 각각의 말이 서로 다른 형태로 표시되도록 하는 제1자막 데이터를 포함하고 있었던 것으로 가정한다.
도 9a 및 도 9b를 참조하면, 영상 데이터(910)는 사람 A(901), B(902), C(903), D(904), E(905) 및 F(906)가 대화를 나누는 동영상이고, 제2자막 데이터(921, 922)는 인물 A(901), B(902), C(903), D(904), E(905) 및 F(906)의 대화가 포함된 텍스트이다. 사람 A(901), B(902), C(903), D(904), E(905) 및 F(906)의 대화는, 영상 데이터(910)의 하단부에 제2자막 데이터(921, 922)로서 표시되고 있다.
도 9a 및 도 9b에 도시된 제2자막 데이터(921, 922)와 같이, 제어부(110)의 자막 변환부(408)는 사람 A(901), B(902), C(903), D(904), E(905) 및 F(906) 각각의 말을 구분하기 위하여 각기 다른 형태로 하는 제2자막 데이터를 생성할 수 있다. 그에 따라 도 9a 및 도 9b에서는 사람 A(901), B(902), C(903), D(904)의 말을, 화자에 따라 다르게 표시함으로써 각기 다른 형태로 나타내고 있다. 도 9a 및 도 9b에서는 A(901), B(902), C(903), D(904)의 말만이 제2자막 데이터(921, 922)로서 표시되고 있지만, E(905) 및 F(906) 각각의 말도 A(901), B(902), C(903), D(904)의 말과 다른 형태를 가지는 자막으로서 스크린(190)에 표시될 수 있다. 도 9a 및 도 9b에서는 말하는 사람(話者, speaker)를 나타나는 문자를 각기 다른 형태로 나타냈지만, 실시예에 따라 자막 변환부(408)는 화자들 각각의 말을 해당 화자의 말을 타 화자의 말과 다른 색으로 표시할 수 있다. 예를 들어, A(901)의 말은 파란색 자막으로 표시하고, B(902)의 말은 초록색 자막으로 표시하며, C(903)의 말은 까만색의 자막으로 표시할 수 있다.
상기의 도 9a 및 도 9b의 제2자막 데이터(921, 922)와 같이, 자막 변환부(408)는 동일한 자국어 자막 내에서도 말하는 대상자에 따라 각기 다른 형태의 자막을 표시되도록 하는 제2자막 데이터(921, 922)를 생성할 수 있다. 또한 도 9a의 제2자막 데이터(921)와 도 9b의 제2자막 데이터(922)의 자국어 자막은 각기 다른 글씨체를 가지고 있다. 상기와 같이 자막 변환부(408)는 제2자막 데이터(921, 922)에 포함되는 자국어 자막 또는 외국어 자막의 글자체를 임의로 또는 사용자 입력에 따라 변경시킬 수도 있다. 실시예에 따라 동일한 자국어 자막 내에서도 말하는 대상자에 따라 글자체 또는 글자 크기 등이 각기 달라질 수 있다.
실시예에 따라 자막 변환부(408)는 입출력 모듈(160) 또는 스크린(190)을 통한 사용자 입력에 따라 실시간으로 제2자막 데이터(921, 922)를 업데이트할 수도 있다. 예를 들어, 제2자막 데이터(921, 922)가 스크린(190)을 통해 표시되고 있는 동안에, 모바일 단말기(100)는 사용자로부터 자막의 글자체, 글자색, 글자 크기 중 적어도 하나를 변경하기 위한 사용자 입력을 수신할 수 있다. 상기와 같은 사용자 입력을 수신하면, 자막 변환부(408)는 제2자막 데이터(921, 922)를 사용자 입력에 따라 변경하고, 스크린(190)은 변경된 제2자막 데이터(921, 922)를 표시한다.
도 10은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 다른 예를 나타낸 도면이다. 도 10의 컨텐츠 데이터는 영상 데이터(1010) 및 제1자막 데이터가 변환된 제2자막 데이터(1020)를 포함하고 있는 것으로 가정한다.
본 실시예에서 모바일 단말기(100)는 사용자의 연령에 따라 컨텐츠 데이터의 시청을 제한하고 있다. 도 10에 도시된 컨텐츠 데이터 중 영상 데이터(1010)는 영화이다. 또한 제1자막 데이터의 일부에는 미성년자에게 부적합한 단어(예를 들어, 비속어, 은어 등)가 포함되어 있다. 제1자막 데이터를 제2자막 데이터로 변환하는 과정에서 상기 제2자막 데이터는, 제어부(110)의 자막 변환부(408)는 미성년자에게 부적합한 단어를 다른 단어로 대체하거나, 또는 특수 문자, 또는 이미지 등으로 대체할 수 있다. 그에 따라 제2자막 데이터는, 자막 변환부(408)에 의하여 미성년자에게 부적합한 단어가 다른 단어, 특수 문자 또는 이미지 등으로 대체된 형태로서 생성될 수 있다.
실시예에 따라 제1자막 데이터에 포함된 단어들 각각의 난이도를 결정하는 과정에서, 제어부(110)의 단어 사전부(406)는 제1자막 데이터에 포함된 단어들 중 미성년자에게 부적합한 단어를 별도로 추출할 수도 있다. 예를 들어, 단어 사전부(406)에 의하여 비속어가 추출되었다면, 자막 변환부(408)는 상기 비속어를 다른 단어, 특수 문자, 또는 이미지 등으로 대체함으로써 제2자막 데이터를 생성할 수 있다.
도 10의 제1자막 데이터의 일부는 미성년자에게 부적합한 단어를 포함하고 있었던 것으로 가정한다. 그에 따라 자막 변환부(408)는 미성년자에게 부적합한 단어가 포함된 문장을 특수 문자로 변환하였다. 도 10에서는 제1자막 데이터에 포함되어 있던 문장 대신 특수 문자인 “##########”가 제2자막 데이터(1020)로서 스크린(190)에 표시되고 있다.
도 11a 및 도 11 b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 11a 및 도 11b에 도시된 컨텐츠 데이터는 영상 데이터(1111, 1112) 및 제1자막 데이터를 포함하는 것으로 가정하며, 도 11a 및 도 11b의 스크린(190)에는 상기 제1자막 데이터가 변환된 제2자막 데이터(1121, 1122)가 표시되고 있다.
도 11a를 참조하면, 제2자막 데이터(1121)에 감정을 나타내는 단어가 포함되어 있다. 본 실시예에서 모바일 단말기(100)는 컨텐츠 데이터의 내용에 따라 사용자에게 특수 효과를 제공할 수 있다.
본 실시예에 따른 제어부(110)는 제1자막 데이터를 분석하여 특정 감정과 연관된 단어 또는 문장이 포함되어 있는 경우에 해당 감정을 표시할 수 있는 특수 효과를 사용자에게 제공할 수 있다. 도 11a의 제1자막 데이터에는 ‘훌쩍훌쩍’이 포함되어 있었다. 그에 따라 제어부(110)의 단어 사전부(406)는 특정 감정, 그 중에서도 슬픔을 나타내는 단어로서 상기 ‘훌쩍훌쩍’을 제1자막 데이터로부터 별도 추출할 수 있다. 효과 발생부(418)는 상기 ‘훌쩍훌쩍’에 대응하는 특정 명령어(command)를 생성할 수 있다. 이때 명령어는, 상기 ‘훌쩍훌쩍’이 표시되는 동안에 영상 데이터(1111)에 물방울들을 오버랩하여 표시하기 위한 명령어라고 가정한다. 자막 변환부(408)는 상기 명령어를 포함시킴으로써 제1자막 데이터를 제2자막 데이터(1121)로 변환한다. 그에 따라 도 11a에서 스크린(190)는 ‘훌쩍훌쩍’이 포함된 제2자막 데이터(1121)이 표시되고 있는 동안에 영상데이터(1111)에 물방울들을 오버랩하여 표시하고 있다.
도 11b의 제1자막 데이터에는 ‘헤헤헤’가 포함되어 있다. 제어부(110)의 단어 사전부(406)는 특정 감정, 그 중에서도 웃음을 나타내는 단어로서 상기 ‘헤헤헤’를 제1자막 데이터로부터 별도 추출할 수 있다. 효과 발생부(418)는 상기 ‘헤헤헤’에 대응하는 특정 명령어(command)를 생성할 수 있다. 이때 명령어는, 상기 ‘헤헤헤’가 표시되는 동안에 진동을 발생시키기 위한 명령어라고 가정한다. 자막 변환부(408)는 상기 명령어를 포함시킴으로써 제1자막 데이터를 제2자막 데이터(1122)로 변환한다. 그에 따라 도 11b에서의 모바일 단말기(100)는 ‘헤헤헤’가 포함된 제2자막 데이터(1122)이 표시되고 있는 동안에는, 진동을 발생시킨다.
도 12a 내지 도 12b는 사용자에게 특수 효과를 제공하기 위한 모바일 단말기의 일 예를 나타낸 도면이다.
도 12a는 모바일 단말기(100)의 전면을 나타낸 도면이고, 도 12b는 모바일 단말기(100)의 후면을 나타낸 도면이다. 도 12a에 도시된 바와 같이 모바일 단말기(100)에는 스크린(190)이 위치하며, 스크린(190)의 상단 또는 하단에는 LED 조명등(1201, 1202)이 위치할 수 있다. 또한 LED 조명등(1201)의 좌측에는 각종 향(예를 들어, 오렌지향, 쟈스민향, 레몬향 등)을 발생시키는 향기구(1210)가 위치할 수 있다. 향기구(1210)는 제어부(110)의 제어 하에 특수 효과로서 향기를 발생시킬 수 있다. 또한 도 12b에 도시된 바와 같이, 모바일 단말기(100)의 후면 상측 또는 하측에도 LED 조명등(1203, 1204)이 위치할 수 있다. 상기 LED 조명등들(1201, 1202, 1203, 1204)은 적색광, 녹색광, 청색광, 황색광, 백색광 중 적어도 하나의 광을 발광할 수 있다.
도 13a 내지 도 13e는 도 12a 및 도 12b에 도시된 모바일 단말기가 사용자에게 특수 효과를 제공하는 일 예를 나타낸 도면이다. 도 13a 내지 도 13e에서 모바일 단말기(100)는 영상 데이터 및 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(1311, 1312, 1313, 1314, 1315)에 표시되고, 제2자막 데이터는 자막 영역(1321, 1322, 1323, 1324, 1325)에 표시되는 것으로 가정한다.
도 13a를 참조하면, 모바일 단말기(100)는 적색 LED를 발광하여 적색광을 사용자에게 제공할 수 있다. 실시예에 따라 자막 영역(1321)에, 예를 들어 뜨거움, 열정, 더움 등과 관련된 단어가 포함되어 있거나 또는 상기와 같은 단어를 연상할 수 있는 이미지가 영상 영역(1311)에 표시되는 경우, 제어부(110)는 적색 LED를 발광시킬 수 있다. 도 13a에서 영상 영역(1311)에는 사막 이미지가 출력되고, 자막 영역(1321)에는 ‘더워서’라는 단어가 출력되고 있다. 상기의 영상 데이터 및 제2자막 데이터에 대응하여 모바일 단말기(100)는 특수 효과로서 적색 LED를 발광시킨다.
또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 적색 LED로부터의 적색광의 조도를 조절하기 위한 사용자 입력을 수신할 수도 있다. 다른 실시예에 따라 자막 영역(1321)에, 예를 들어 긴급, 위급, 응급, 비상, 위험 등과 같은 단어가 표시되는 경우, 제어부(110)는 적색 LED를 연달아 두 번 내지는 세 번 점멸함으로써 특수 효과를 발생시키도록 모바일 단말기(100)를 제어할 수 있다.
도 13b를 참조하면, 모바일 단말기(100)는 녹색 LED를 발광하여 녹색광을 사용자에게 제공할 수 있다. 실시예에 따라 자막 영역(1322)에, 예를 들어 따뜻함, 자연, 녹색, 나무, 산 등과 관련된 단어가 포함되어 있거나 또는 상기와 같은 단어를 연상할 수 있는 이미지가 영상 영역(1312)에 표시되는 경우, 제어부(110)는 녹색 LED를 발광시킬 수 있다. 도 13b에서 영상 영역(1312)에는 자연 이미지가 출력되고 있다. 상기의 영상 데이터에 대응하여 모바일 단말기(100)는 특수 효과로서 녹색 LED를 발광시킨다.
또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 녹색 LED로부터의 녹색광의 조도를 조절하기 위한 사용자 입력을 수신할 수도 있다. 다른 실시예에 따라 자막 영역(1322)에 예를 들어, 환경 오염, 자연 보호 등과 같은 단어가 표시되는 경우, 제어부(110)는 녹색 LED를 연달아 두 번 내지는 세 번 점멸함으로써 특수 효과를 발생시키도록 모바일 단말기(100)를 제어할 수 있다.
도 13c를 참조하면, 모바일 단말기(100)는 청색 LED를 발광하여 청색광을 사용자에게 제공할 수 있다. 실시예에 따라 자막 영역(1323)에, 예를 들어 시원함, 차가움, 얼음, 바다, 강, 바람 등과 관련된 단어가 포함되어 있거나 또는 상기와 같은 단어를 연상할 수 있는 이미지가 영상 영역(1313)에 표시되는 경우, 제어부(110)는 청색 LED를 발광시킬 수 있다. 도 13c에서 영상 영역(1313)에는 바다 이미지가 출력되고 있다. 상기 영상 데이터에 대응하여 모바일 단말기(100)는 청색 LED를 발광시킨다.
또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 청색 LED로부터의 청색광의 조도를 조절하기 위한 사용자 입력을 수신할 수도 있다. 다른 실시예에 따라 자막 영역(1322)에, 예를 들어 파도, 폭우, 홍수 등과 같은 단어가 표시되는 경우, 제어부(110)는 청색 LED를 연달아 두 번 내지는 세 번 점멸함으로써 특수 효과를 발생시키도록 모바일 단말기(100)를 제어할 수 있다.
도 13d를 참조하면, 모바일 단말기(100)는 황색 LED를 발광하여 황색광을 사용자에게 제공할 수 있다. 실시예에 따라 자막 영역(1324)에, 예를 들어 황홀함, 황색, 낙엽, 가로수, 가을 등과 관련된 단어가 포함되어 있거나 또는 상기와 같은 단어를 연상할 수 있는 이미지가 영상 영역(1314)에 표시되는 경우, 제어부(110)는 황색 LED를 발광시킬 수 있다. 도 13d에서 영상 영역(1314)에는 단풍 이미지가 출력되고 있다. 상기 영상 데이터에 대응하여 모바일 단말기(100)는 황색 LED를 발광시킨다.
또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 황색 LED로부터의 황색광의 조도를 조절하기 위한 사용자 입력을 수신할 수도 있다. 다른 실시예에 따라 자막 영역(1322)에, 예를 들어 위기, 경고 등과 같은 단어가 표시되는 경우, 제어부(110)는 황색 LED를 연달아 두 번 내지는 세 번 점멸함으로써 특수 효과를 발생시키도록 모바일 단말기(100)를 제어할 수 있다.
도 13e를 참조하면, 모바일 단말기(100)는 백색 LED를 발광하여 백색광을 사용자에게 제공할 수 있다. 실시예에 따라 자막 영역(1325)에, 예를 들어 백색, 냉정함, 순결함, 얼음, 눈 등과 관련된 단어가 포함되어 있거나 또는 상기와 같은 단어를 연상할 수 있는 이미지가 영상 영역(1315)에 표시되는 경우, 제어부(110)는 백색 LED를 발광시킬 수 있다. 도 13c에서 영상 영역(1315)에는 눈 이미지가 출력되고 있다. 상기 영상 데이터에 대응하여 모바일 단말기(100)는 백색 LED를 발광시킨다.
또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 백색 LED로부터의 백색광의 조도를 조절하기 위한 사용자 입력을 수신할 수도 있다. 다른 실시예에 따라 자막 영역(1325)에, 예를 들어 폭설, 눈사태, 등과 같은 단어가 표시되는 경우, 제어부(110)는 백색 LED를 연달아 두 번 내지는 세 번 점멸함으로써 특수 효과를 발생시키도록 모바일 단말기(100)를 제어할 수 있다.
도 14a 및 도 14b는 도 1에 도시된 모바일 단말기가 사용자에게 특수 효과를 제공하는 다른 예를 나타낸 도면이다.
도 14a를 참조하면, 모바일 단말기(100)는 특수 효과로서 열기를 발생시켜 사용자에게 제공할 수 있다. 실시예에 따라 제어부(110)는 제2자막 데이터에, 예를 들어 뜨거움, 열정, 더움 등과 관련된 단어가 포함되어 있는 경우 모바일 단말기(100)가 열기를 발생하여 사용자에게 제공할 수 있다. 또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 발생하는 열량을 조절하기 위한 사용자 입력을 수신할 수도 있다.
도 14b를 참조하면, 모바일 단말기(100)는 특수 효과로서 냉기를 발생시켜 사용자에게 제공할 수 있다. 실시예에 따라 제어부(110)는 제2자막 데이터에, 예를 들어 추움, 냉방 등과 관련된 단어가 포함되어 있는 경우 모바일 단말기(100)가 냉기를 발생하여 사용자에게 제공할 수 있다. 또한 실시예에 따라 모바일 단말기(100)의 입출력 모듈(160) 또는 스크린(190)은 발생하는 냉기의 양을 조절하기 위한 사용자 입력을 수신할 수도 있다.
도 15a 및 도 15b는 도 1에 도시된 모바일 단말기에서 제2자막 데이터를 표시하는 일 예를 나타낸 도면이다. 도 15a 및 도 15b에서 모바일 단말기(100)는 영상 데이터 및 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(1510)에, 제2자막 데이터는 자막 영역(1520)에 각각 표시되는 것으로 가정한다.
도 15a를 참조하면, 자막 영역(1520)은 영상 영역(1510)의 하단에 위치하며, 상기 자막 영역(1520)을 통하여 자막이 한 줄씩 출력된다. 사용자(1500)는 자막 영역(1520)을 통해 출력되는 자막 중에 이해하기 어려운 용어, 즉 고난도 단어가 포함되어 있는 경우 해당 용어를 터치함으로써 해당 용어에 대한 설명을 모바일 단말기(100)에 요청할 수 있다.
도 15a에서 사용자(1500)는 ‘플래시’라는 전문 용어를 설명하여 줄 것을 모바일 단말기(100)에 요청하고 있다. 그에 따라 사용자(1500)는 자막 영역(1520) 중에서도 ‘플래시’라는 단어가 표시되는 부분을, 터치한 상태로 우측으로 밀어내는 동작을 행함으로써, 상기 요청을 위한 사용자 입력을 입력한다. 상기와 같은 사용자 입력을 수신하면, 모바일 단말기(100)는 제2자막 데이터에 포함된 설명 데이터를 스크린(190) 상에 표시한다. 도 15a에서 모바일 단말기(100)는 설명 데이터를 영상 영역(1510)의 우측에 오버랩시켜 표시하고 있다. 설명 데이터가 표시되고 있는 영역을 설명 영역(1521)이라 하기로 한다. 설명 영역(1521)에는 설명 데이터뿐만 아니라 상기 설명 데이터가 나타내는 단어가 함께 표시될 수 있다. 그에 따라 도 15a의 설명 영역(1521)에는 ‘플래시 메모리’라는 단어가 상기 ‘플래시 데이터’에 대한 설명과 함께 표시되고 있다.
도 15b를 참조하면, 자막 영역(1520)은 영상 영역(1510)의 하단에 위치하며, 상기 자막 영역(1520)을 통하여 자막이 한 줄씩 출력되고 있다. 사용자(1500)는 자막 영역(1520)을 통해 출력되는 자막 중에 이해하기 어려운 용어, 즉 고난도 단어가 포함되어 있는 경우 해당 용어를 터치함으로써 해당 용어를 나타내는 자국어 수화를 스크린(190)에 표시하도록 모바일 단말기(100)에 요청할 수 있다. 도 15b에서 사용자(1500)는 ‘플래시’라는 전문 용어를 자국어 수화로 나타내 줄 것을 모바일 단말기(100)에 요청하고 있다. 그에 따라 사용자(1500)는 자막 영역(1520) 중에서도 ‘플래시’라는 단어가 표시되는 부분을, 터치한 상태로 우측으로 밀어낸 후 상측으로 다시 밀어내는 동작을 행함으로써, 상기 요청을 위한 사용자 입력을 입력하고 있다.
상기와 같은 사용자 입력을 수신하면, 모바일 단말기(100)는 상기 용어를 의미하는 자국어 수화가 포함된 자국어 수화 애니메이션을 스크린(190) 상에 표시한다. 도 15b에서 모바일 단말기(100)는 상기 자국어 수화 애니메이션을, 영상 영역(1510)의 우측에 오버랩되는 형태로 표시되고 있는 수화 영역(1530)에 표시하고 있다. 이때 수화 영역(1530)에는 자국어 수화 애니메이션이 재생될 뿐만 아니라 상기 자국어 수화 애니메이션이 나타내는 단어 또는 문장이 함께 표시될 수 있다. 그에 따라 도 15b의 수화 영역(1530)에는 ‘플래시 메모리’라는 단어가 자국어 수화 애니메이션과 함께 표시되고 있다.
도 16a 내지 도 16c는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 일 예를 나타낸 도면이다. 도16a 내지 도 16c에서 모바일 단말기(100)는 영상 데이터 및 자국어 수화 애니메이션을 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(1610)에, 자국어 수화 애니메이션은 수화 영역(1630)에 각각 표시되는 것으로 가정한다. 또한 수화 영역(1630)은 영상 영역(1610)에 오버랩되는 형태로 스크린(190)에 나타나는 것으로 가정한다.
도 16a를 참조하면, 자국어 수화 애니메이션이 표시되는 수화 영역(1630)이 영상 영역(1610)의 우측 하단에 위치하고 있다. 사용자(1600)는 수화 영역(1630)의 적어도 일부를 터치한 상태로 대각선 방향으로 움직임으로써 스크린(190) 상에서의 상기 수화 영역(1630)의 위치를 변경할 수 있다.
도 16b를 참조하면, 자국어 수화 애니메이션이 표시되는 수화 영역(1630)이 영상 영역(1610)의 중앙에 위치하고 있다. 사용자(1600)는 수화 영역(1630)의 적어도 일부를 터치한 상태로 상하 좌우로 움직임으로써 스크린(190) 상에서으 상기 수화 영역(1630)의 위치를 변경할 수 있다. 그에 따라 도 16b에서 사용자(1600)는 수화 영역(1630)을 영상 영역(1610) 중에서도 좌우측 중앙 또는 상하측 중앙으로 옮기고 있다.
도 16c를 참조하면, 자국어 수화 애니메이션이 표시되는 수화 영역(1630)이 영상 영역(1610)의 우측 하단에 위치하고 있다. 사용자(1600)는 수화 영역(1630)의 적어도 일부를 터치한 상태로 상하 좌우로 움직임으로써 상기 자국어 수화 영역(1630)의 위치를 변경할 수 있다. 그에 따라 도 16c에서 사용자(1600)는 수화 영역(1630)을 영상 영역(1610) 중에서도 좌우측 가장자리 또는 상하측 가장자리로 옮기고 있다.
도 17a 및 도 17b는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 다른 예를 나타낸 도면이다. 도 17a 및 도 17b에서 모바일 단말기(100)는 영상 데이터 및 자국어 수화 애니메이션을 표시하고 있는 것으로 가정한다. 그에 따라 스크린(190)에는 영상 데이터가 표시되는 영상 영역(1710)과 자국어 수화 애니메이션이 표시되는 수화 영역(1730)이 모두 나타나고 있다.
도 17a 및 도 17b와 같이 사용자(1700)는 스크린(190) 상에서 수화 영역(1730)의 사이즈를, 상하좌우로 늘이거나 또는 줄일 수 있다. 사용자(1700)는 스크린(190)에 표시된 수화 영역(1730)을 손가락으로 터치함으로써 상기 수화 영역(1730)의 면적을 늘리거나 줄일 수 있다. 도 17a에서 사용자(1700)는 스크린(190) 상에서 수화 영역(1730)의 왼쪽 상단 모서리를 터치한 상태로 좌측, 상측 또는 대각선 방향으로 밀어냄으로써, 수화 영역(1730)의 사이즈를 늘리기 위한 사용자 입력을 모바일 단말기(100)에 입력하고 있다. 상기의 사용자 입력을 수신하면, 도 17b와 같이 스크린(190) 상에서의 자국어 수화 영역(1730)의 사이즈가 증가한다.
도 17b를 참조하면, 사용자(1700)는 스크린(190)의 우측 하단에 위치한 수화 영역(1730)을 손가락으로 터치함으로써 줄이고 있다. 도 17a에서 사용자(1700)는 스크린(190) 상에서 수화 영역(1730)의 좌측 상단 모서리를 터치한 상태로 우측, 하측 또는 대각선 방향으로 끌어당김으로써, 수화 영역(1730)의 사이즈를 줄이기 위한 사용자 입력을 모바일 단말기(100)에 입력할 수 있다. 상기의 사용자 입력을 수신하면, 도 17a와 같이 스크린(190) 상에서의 수화 영역(1730)의 사이즈가 감소한다.
도 18a 내지 도 18d는 도 1에 도시된 모바일 단말기에서 자국어 수화 애니메이션을 표시하는 또 다른 예를 나타낸 도면이다.
도 18a를 참조하면, 스크린(190) 상에서 영상 데이터가 표시되는 영상 영역(1810)의 우측 하단에 자국어 수화 애니메이션이 표시되는 수화 영역(1830)이 위치하고 있다. 사용자(1800)는 자국어 수화 애니메이션이 출력되고 있는 수화 영역(1830)을, 예를 들어 짧게 두 번 터치함으로써 도 18b와 같은 형태로 영상 데이터 및 자국어 수화 애니메이션을 출력하여 줄 것을 요청할 수 있다.
또한 도 18b와 같이 자국어 수화 애니메이션이 출력되는 수화 영역(1830)의 우측 하단에 영상 데이터가 출력되는 영상 영역(1810)이 위치하고 있는 경우, 사용자(18)는 상기 영상 영역(1810) 의 적어도 일부를 짧게 두 번 연달아 터치함으로써 도 18a와 같은 형태로 영상 데이터 및 자국어 수화 애니메이션을 출력하여 줄 것을 모바일 단말기(100)에 요청할 수 있다.
도 18c는 영상 데이터 및 자국어 수화 애니메이션이 표시되고 있는 상태에서 사용자(1800)가 제2자막 데이터를 표시하도록 요청하는 것이다. 사용자(1800)는 스크린(190) 상에서 제2자막 데이터가 표시되기를 원하는 위치 즉 자막 영역(1820)을, 예를 들어 짧게 두 번 연달아 터치함으로써 선택할 수 있다. 그에 따라 모바일 단말기(100)는 도 18d와 같이 영상 영역(1810) 및 수화 영역(1830)의 하단부를 자막 영역(1820)으로 결정하고, 상기 자막 영역(1820)에 한 줄씩 제2자막 데이터를 출력할 수 있다.
또한 도 18d와 같이 영상 데이터 및 자국어 수화 애니메이션의 하단에 제2자막 데이터를 출력되고 있는 상태에서, 사용자(1800)는 제2자막 데이터가 표시되고 있는 자막 영역(1820) 이외의 영역을, 예를 들어 짧게 두 번 연달아 터치함으로써 상기 제2자막 데이터를 표시하지 않도록 하여 줄 것을 요청할 수 있다. 그에 따라 모바일 단말기(100)는 도 18c에 도시된 바와 같이, 스크린(190) 상에서 영상 영역(1810) 및 수화 영역(1830)을 통해 영상 데이터 및 자국어 수화 애니메이션 만을 표시한다.
도 19a 및 도 19b는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 19a 및 19b에서 모바일 단말기(100)는 영상 데이터와, 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(1910)에, 제2자막 데이터는 자막 영역(1921, 1922)에 표시되는 것으로 가정한다.
도 19a 및 도 19b에서 사용자(1900)는 스크린(190) 상에서의 자막 영역(1921, 1922)의 위치를 이동하기 위한 사용자 입력을 모바일 단말기(100)에 입력하고 있다.
도 19a를 참조하면, 제2자막 데이터는 영상 데이터의 하단에 한 줄씩 출력되고 있다. 즉 자막 영역(1921)은 영상 영역(1910)의 하단에 위치하고 있다. 사용자(1900)는 상기 제2자막 데이터가 출력되고 있는 자막 영역(1921)의 적어도 일부를 터치한 상태로 위로 끌어올리거나 또는 아래로 끌어내림으로써 스크린(190) 상에서의 자막 영역(1921) 의 위치를 상하로 이동시킬 수 있다.
도 19b를 참조하면, 제2자막 데이터는 영상 데이터가 출력되는 영상 영역(1910)의 우측에 두 줄씩, 상기 영상 데이터와 오버랩되는 형태로 출력되고 있다. 사용자(1900)는 상기 제2자막 데이터가 출력되고 있는 자막 영역(1920)의 적어도 일부를 터치한 상태로 좌측으로 이동시키거나 또는 우측으로 이동시킴으로써 영상 영역(1910) 상에서의 자막 영역(1920)의 위치를 좌우로 이동시킬 수 있다.
도 20은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 20에서 모바일 단말기(100)는 영상 데이터와, 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(2010)에, 제2자막 데이터는 자막 영역(2020)에 각각 출력되는 것으로 가정한다.
도 20와 같이 영상 데이터 및 제2자막 데이터가 스크린(190)에 표시되고 있을 때, 사용자(2000)는 자막 설정을 위한 옵션창(2030)을 표시하기 위한 사용자 입력을 모바일 단말기(100)에 입력할 수 있다. 도 20에서 사용자(2000)는 제2자막 데이터가 출력되고 있는 자막 영역(2020)의 적어도 일부를 터치함으로써, 옵션창(2030)을 표시하기 위한 사용자 입력을 입력하고 있다.
상기와 같은 사용자 입력을 수신하면, 모바일 단말기(100)는 제2자막 데이터에 대한 설정을 변경하기 위한 옵션창(2030)을 영상 영역(2010) 또는 자막 영역(2020)에 오버랩하여 표시할 수 있다.
도 20에 도시된 바와 같이, 옵션창(2030)을 통하여 사용자는 원하는 글자 색깔, 글씨체, 언어, 글자 크기 등을 입력할 수 있다. 제어부(110)는 옵션창(2030)을 통해 입력되는 글자 색깔, 글씨체, 언어, 글자 크기 등에 따라 제2자막 데이터를 변경하여 표시한다.
도 21은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 21에서 모바일 단말기(100)는 영상 데이터와, 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(2110)에, 제2자막 데이터는 자막 영역(2120)에 각각 표시되는 것으로 가정한다.
본 실시예에서, 사용자(2100)는 스크린(190) 상의 적어도 일부를 터치함으로써 스크린(190) 상에서 제2자막 데이터가 출력될 위치, 즉 자막 영역(2120)의 위치를 결정할 수 있다. 그에 따라 도 21에서 사용자(2100)는 스크린(190)을 반으로 가르는 동작을 행하고 있다. 상기와 같은 사용자(2100)의 동작은 사용자 입력으로서 모바일 단말기(100)에 입력된다. 제어부(110)는 상기 사용자 입력에 따라 제2자막 데이터를 스크린(190) 상의 자막 영역(2120)으로 출력하거나 또는 스크린(190) 상에서의 자막 영역(2120)의 출력 위치를 변경한다. 도 21에서 모바일 단말기(100)는 사용자 입력에 따라 영상 데이터를 스크린(190)의 좌측에 출력하고, 제2자막 데이터를 스크린(190)의 우측에 출력하고 있다. 즉, 스크린(190)의 좌측에는 영상 영역(2110)이 위치하고, 스크린(190)의 우측에는 자막 영역(2120)이 위치한다. 상기와 같이 모바일 단말기(100)는 사용자 입력에 따라 스크린(190) 상에서의 영상 데이터 및 제2자막 데이터의 출력 위치를 변경할 수 있다.
도 22는 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 22에서 모바일 단말기(100)는 영상 데이터와, 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(2210)에, 제2자막 데이터는 자막 영역(2220)에 각각 표시되는 것으로 가정한다.
도 22에 도시된 영상 데이터는 개방형 자막(open caption)(2211)를 포함한다. 본 실시예에 따른 제2자막 데이터는 폐쇄형 자막(closed caption)으로서, 영상 데이터에 오버랩되는 형태로서 자막 영역(2220)에 표시된다.
영상 데이터에 포함된 개방형 자막(2211)은, 일반적으로 자막의 위치를 사용자가 임의로 변경하기 어렵다. 그에 따라 영상 데이터에 오버랩되는 형태로 스크린(190) 상에 표시되는 제2자막 데이터에 의하여 개방형 자막(2211)이 가려질 수 있다. 제어부(110)는 제2자막 데이터가 표시되는 자막 영역(2220)에 의하여 개방형 자막(2211)이 가려지는 경우, 제2자막 데이터가 출력되는 자막 영역(2220)의 위치를 임의로 변경할 수 있다. 실시예에 따라 제어부(110)는 사용자 입력에 따라 제2자막 데이터가 출력되는 자막 영역(2220)의 위치를 변경할 수도 있다. 도 22에서 제어부(110)는 제2자막 데이터가 출력되는 자막 영역(2220)의 위치를 개방형 자막(2211)의 상단으로 결정하여 출력하고 있다.
도 23은 도 1에 도시된 모바일 단말기에서 자막을 표시하는 또 다른 예를 나타낸 도면이다. 도 23에서 모바일 단말기(100)는 영상 데이터와, 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다.
도 23을 참조하면, 영상 데이터가 표시되고 있는 영상 영역(2310)의 하단에 제2자막 데이터가 표시되는 자막 영역(2320)이 나타나고 있다. 사용자(2300)는 스크린(190) 상에서 제2자막 데이터가 표시되고 있는 영역, 즉 자막 영역(2320)의 적어도 일부를 터치함으로써, 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 표시하여 줄 것을 모바일 단말기(100)에 요청할 수 있다. 상기와 같은 터치는 자국어 수화 애니메이션 또는 외국어 수화 애니메이션을 요청하기 위한 사용자 입력으로서 모바일 단말기(100)로 입력된다.
제어부(110)의 수화 번역부(410)는 제1자막 데이터에 포함되어 있던 자국어 자막을 자국어 수화로 번역하고, 수화 생성부(412)는 자국어 수화를 기초로 자국어 수화 애니메이션을 생성한다. 또한 제어부(110)의 외국어 수화 번역부(414)는 제1자막 데이터에 포함되어 자국어 자막을 외국어 수화로 번역하고, 외국어 수화 생성부(416)는 외국어 수화를 기초로 외국어 수화 애니메이션을 생성한다. 본 실시예에서 자국어 수화 번역부(412) 및 외국어 수화 번역부(416)는 도 23에 도시된 바와 같이 아바타가 수화 동작을 수행하는 애니메이션을 자국어 수화 애니메이션 또는 외국어 수화 애니메이션으로서 생성한다.
사용자(2300)는 스크린(190) 상에서 제2자막 데이터가 표시되는 자막 영역(2320), 자국어 수화 애니메이션이 표시되는 자국어 수화 영역(2331) 또는 외국어 수화 애니메이션이 표시되는 외국어 수화 영역(2332) 각각의 위치를 선택할 수 있다. 도 23에서 사용자(2300)는 외국어 수화 애니메이션이 표시되는 외국어 수화 영역(2332)을 스크린(190)의 위측 상단으로 드래그하고 있다. 상기와 같이 사용자(2300)는 상기 외국어 수화 영역(2332)의 위치를 모바일 단말기(100)에 입력할 수 있다. 상기 사용자 입력에 따라 도 23의 스크린(190)은 영상 영역(2310)의 하단에 자막 영역(2320), 우측 상단에는 외국어 수화 영역(2332)을, 우측 하단에는 자국어 수화 영역(2331)을 각각 출력하고 있다.
도 24은 도 1에 도시된 모바일 단말기에서 특수 효과를 출력하는 또 다른 예를 나타낸 도면이다. 도 24에서 모바일 단말기(100)는 영상 데이터와 제1자막 데이터가 변환된 제2자막 데이터를 표시하고 있는 것으로 가정한다. 또한 영상 데이터는 영상 영역(2410)에, 제2자막 데이터는 자막 영역(2420)에 각각 표시되는 것으로 가정한다.
도 11a 및 도 11b에 대한 설명에서 이미 언급한 바와 같이, 모바일 단말기(100)는 컨텐츠 데이터의 내용에 따라 사용자에게 특수 효과를 제공할 수 있다. 본 실시예에 따른 제어부(110)는 제1자막 데이터를 분석하여 특수 효과와 연관된 단어 또는 문장이 포함되어 있는 경우에 해당 특수 효과를 사용자에게 제공할 수 있다. 도 24의 제1자막 데이터에는 ‘아카시아 꽃’이 포함되어 있다. 제어부(110)의 단어 사전부(406)는 특수 효과를 나타내는 단어로서 상기 ‘아카시아 꽃’을 제1자막 데이터로부터 별도 추출할 수 있다. 효과 발생부(418)는 상기 ‘아카시아 꽃’에 대응하는 특정 명령어를 생성할 수 있다. 이때 명령어는, 제2자막 데이터가 표시되는 자막 영역(2420)에 상기 ‘아카시아 꽃’이 표시되고 있을 동안에 아카시아 꽃향기를 발생시키기 위한 명령어라고 가정한다.
자막 변환부(408)는 상기 명령어를 포함시킴으로써 제1자막 데이터를 제2자막 데이터로 변환한다. 그에 따라 도 24에서는 ‘아카시아 꽃’이 포함된 제2자막 데이터가 자막 영역(2420)에 표시되고 있는 동안에 아카시아 꽃향기를 발생시켜 사용자에게 제공하는 단말기(100)를 도시하고 있다.
본 발명의 실시예에 따라 모바일 단말기의 제어 방법은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이 ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 본 발명의 실시 예에 따른 모바일 단말기의 제어 방법은 제어부 및 메모리를 포함하는 컴퓨터 또는 휴대 단말에 의해 구현될 수 있고, 상기 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
또한 상기 모바일 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 모바일 장치가 미리 설정된 컨텐츠 보호 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 컨텐츠 보호 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 모바일 장치와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 모바일 장치의 요청 또는 자동으로 해당 프로그램을 상기 송수신 장치로 전송하는 제어부를 포함할 수 있다.
이외에도 본 발명의 다양한 실시예 또는 변형예가 있을 수 있으며, 따라서 본 발명의 범위는 설명된 실시예에 의하여 정할 것이 아니고, 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.
100: 모바일 단말기 110: 제어부
111: CPU 112: ROM
113: RAM 120: 이동 통신 모듈
122: 영상 수신부 130: 서브 통신 모듈
131: 무선 랜 모듈 132: 근거리 통신 모듈
140: 멀티미디어 모듈 141: 방송 통신 모듈
142: 오디오 재생 모듈 143: 동영상 재생 모듈
150: 카메라 모듈 151: 제1카메라
152: 제2카메라 153: GPS 모듈
160: 입출력 모듈 161: 버튼
162: 마이크 163: 스피커
164: 진동 모터 165: 커넥터
166: 키패드 167: 이어폰 연결잭
170: 센서 모듈 175: 저장부
176: 수화 DB 177: 단어 DB
178: 외국어 수화 DB 180: 전원 공급부
190: 스크린 195: 스크린 컨트롤러
402: 자막 디코딩부 404: 오류 보정부
406: 단어 사전부 408: 자막 변환부
410: 수화 번역부 412: 수화 생성부
414: 외국어 수화 번역부 416: 외국어 수화 생성부
418: 효과 발생부

Claims (20)

  1. 전자 장치에서 자막을 표시하는 방법에 있어서,
    영상 데이터를 포함하는 컨텐트 데이터를 수신하는 동작;
    상기 컨텐트 데이터에 자국어 자막 데이터가 포함되어 있는 것에 기반하여, 상기 자국어 자막 데이터에 대한 에러 체크를 수행하고, 상기 자국어 자막 데이터의 하나 이상의 에러들을 보정함으로써 보정된 자막 데이터를 생성하는 동작;
    상기 보정된 자막 데이터 중 하나 이상의 고난도 단어들을 식별하는 동작;
    상기 하나 이상의 고난도 단어들 각각에 대응하는 설명 데이터를 생성하는 동작;
    상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 적어도 하나의 단어에 대응하는 적어도 하나의 특수 효과를 판단하는 동작; 및
    상기 영상 데이터를 표시하는 동안, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 제공하는 동작;을 포함하되,
    상기 적어도 하나의 특수 효과는,
    상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 상기 적어도 하나의 단어에 대응하는 진동의 발생, 색 발광, 열기의 발생, 냉기의 발생 또는 향기의 발생임을 특징으로 하는 표시 방법.
  2. 제1항에 있어서, 상기 영상 데이터를 표시하는 동안, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 제공하는 동작은,
    상기 자막을 표시하기 위한 사용자 입력이 수신되는 것에 기반하여, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 동시에 제공하는 동작;을 포함함을 특징으로 하는 표시 방법.
  3. 제2항에 있어서, 상기 보정된 자막 데이터 중 하나 이상의 고난도 단어들을 식별하는 동작 이전에,
    상기 전자 장치의 디스플레이 상에 표시되는 상기 보정된 자막 데이터에 상기 하나 이상의 고난도 단어가 포함되어 있는지 여부를 판단하는 동작;을 더 포함함을 특징으로 하는 표시 방법.
  4. 제1항에 있어서,
    상기 하나 이상의 고난도 단어들 각각에 대응하는 수화 애니메이션을 생성하는 동작-상기 수화 애니메이션은 상기 하나 이상의 고난도 단어들 각각을 설명하기 위한 상기 설명 데이터를 포함함-;을 더 포함하고,
    상기 영상 데이터를 표시하는 동안, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 제공하는 동작은,
    상기 보정된 자막 데이터, 상기 수화 애니메이션 및 상기 적어도 하나의 특수 효과를 제공하는 동작;을 포함함을 특징으로 하는 표시 방법.
  5. 삭제
  6. 삭제
  7. 제4항에 있어서,
    외국어 수화 애니메이션을 표시하기 위한 사용자 입력이 수신되는 것에 기반하여, 상기 보정된 자막 데이터의 적어도 일부를 외국어 수화로 번역하는 동작;
    상기 번역된 외국어 수화에 기초하여 상기 외국어 수화 애니메이션을 생성하는 동작; 및
    상기 생성된 외국어 수화 애니메이션을 표시하는 동작;을 더 포함함을 특징으로 하는 표시 방법.
  8. 자막을 표시하는 전자 장치에 있어서,
    영상 데이터를 포함하는 컨텐트 데이터를 수신하는 영상 수신부;
    상기 영상 데이터를 표시하는 디스플레이; 및
    상기 컨텐트 데이터에 자국어 자막 데이터가 포함되어 있으면, 상기 자국어 자막 데이터에 대한 에러 체크를 수행하고, 상기 자국어 자막 데이터의 하나 이상의 에러들을 보정함으로써 보정된 자막 데이터를 생성하고, 상기 보정된 자막 데이터 중 하나 이상의 고난도 단어들을 식별하고, 상기 하나 이상의 고난도 단어들 각각에 대응하는 설명 데이터를 생성하고, 상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 적어도 하나의 단어에 대응하는 적어도 하나의 특수 효과를 판단하고, 상기 영상 데이터가 표시되는 동안, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 제공하도록 설정되는 제어부;를 포함하되,
    상기 적어도 하나의 특수 효과는,
    상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 상기 적어도 하나의 단어에 대응하는 진동의 발생, 색 발광, 열기의 발생, 냉기의 발생 또는 향기의 발생임을 특징으로 하는 전자 장치.
  9. 제8항에 있어서, 상기 제어부는,
    상기 자막을 표시하기 위한 사용자 입력이 수신되는 것에 기반하여, 상기 보정된 자막 데이터, 상기 설명 데이터 및 상기 적어도 하나의 특수 효과를 동시에 제공하도록 설정되는 것을 특징으로 하는 전자 장치.
  10. 제9항에 있어서, 상기 제어부는,
    상기 디스플레이 상에 표시되는 상기 보정된 자막 데이터에 상기 하나 이상의 고난도 단어들이 포함되어 있는지 여부를 판단함을 특징으로 하는 전자 장치.
  11. 자막을 표시하는 전자 장치에 있어서,
    영상 데이터를 포함하는 컨텐트 데이터를 수신하는 영상 수신부;
    상기 영상 데이터를 표시하는 디스플레이; 및
    상기 컨텐트 데이터에 자국어 자막 데이터가 포함되어 있으면, 상기 자국어 자막 데이터에 대한 에러 체크를 수행하고, 상기 자국어 자막 데이터의 하나 이상의 에러들을 보정함으로써 보정된 자막 데이터를 생성하고, 상기 보정된 자막 데이터 중 하나 이상의 고난도 단어들을 식별하고, 상기 하나 이상의 고난도 단어들 각각에 대응하는 수화 애니메이션을 생성하고-상기 수화 애니메이션은 상기 하나 이상의 고난도 단어들 각각을 설명하기 위한 설명 데이터를 포함함-, 상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 적어도 하나의 단어에 대응하는 적어도 하나의 특수 효과를 판단하고, 상기 영상 데이터가 표시되는 동안, 상기 보정된 자막 데이터, 상기 수화 애니메이션 및 상기 적어도 하나의 특수 효과를 제공하도록 설정되는 제어부;를 포함하되,
    상기 적어도 하나의 특수 효과는,
    상기 보정된 자막 데이터 또는 상기 설명 데이터에 포함된 상기 적어도 하나의 단어에 대응하는 진동의 발생, 색 발광, 열기의 발생, 냉기의 발생 또는 향기의 발생임을 특징으로 하는 전자 장치.
  12. 제11항에 있어서, 상기 제어부는,
    상기 자막을 표시하기 위한 사용자 입력이 수신되는 것에 기반하여, 상기 보정된 자막, 상기 수화 애니메이션 및 상기 적어도 하나의 특수 효과를 동시에 제공하도록 설정되는 것을 특징으로 하는 전자 장치.
  13. 제12항에 있어서, 상기 제어부는,
    상기 전자 장치의 디스플레이 상에 표시되는 상기 보정된 자막 데이터에 상기 적어도 하나의 고난도 단어들이 포함되어 있는지 여부를 판단함을 특징으로 하는 전자 장치.
  14. 제11항에 있어서, 상기 제어부는,
    외국어 수화 애니메이션을 표시하기 위한 사용자 입력이 수신되는 것에 기반하여, 상기 보정된 자막 데이터의 적어도 일부를 외국어 수화로 번역하고, 상기 번역된 외국어 수화에 기초하여 상기 외국어 수화 애니메이션을 생성하고, 상기 생성된 외국어 수화 애니메이션을 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  15. 삭제
  16. 제1항에 있어서, 상기 하나 이상의 에러들은,
    오타(typographical error) 또는 구문 에러(syntax error)임을 특징으로 하는 표시 방법.
  17. 삭제
  18. 제8항에 있어서, 상기 하나 이상의 에러들은,
    오타(typographical error) 또는 구문 에러(syntax error)임을 특징으로 하는 전자 장치.
  19. 삭제
  20. 제11항에 있어서, 상기 하나 이상의 에러들은,
    오타(typographical error) 또는 구문 에러(syntax error)임을 특징으로 하는 전자 장치.
KR1020130093019A 2013-08-06 2013-08-06 모바일 단말기 및 그의 제어 방법 KR102129536B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130093019A KR102129536B1 (ko) 2013-08-06 2013-08-06 모바일 단말기 및 그의 제어 방법
US14/453,171 US9852130B2 (en) 2013-08-06 2014-08-06 Mobile terminal and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130093019A KR102129536B1 (ko) 2013-08-06 2013-08-06 모바일 단말기 및 그의 제어 방법

Publications (2)

Publication Number Publication Date
KR20150017131A KR20150017131A (ko) 2015-02-16
KR102129536B1 true KR102129536B1 (ko) 2020-07-03

Family

ID=52449352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130093019A KR102129536B1 (ko) 2013-08-06 2013-08-06 모바일 단말기 및 그의 제어 방법

Country Status (2)

Country Link
US (1) US9852130B2 (ko)
KR (1) KR102129536B1 (ko)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016536647A (ja) 2013-09-16 2016-11-24 トムソン ライセンシングThomson Licensing テキスト色を生成するための色検出の方法及び装置
US9495351B1 (en) * 2013-10-20 2016-11-15 Mary Shawver Writing a visual language
CN104750374B (zh) * 2013-12-27 2019-11-22 深圳富泰宏精密工业有限公司 拨号盘管理方法及***
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム
CN105744346A (zh) * 2014-12-12 2016-07-06 深圳Tcl数字技术有限公司 字幕切换方法及装置
US10796089B2 (en) * 2014-12-31 2020-10-06 Sling Media Pvt. Ltd Enhanced timed text in video streaming
CN113350659A (zh) 2016-02-24 2021-09-07 禾木(中国)生物工程有限公司 柔性增强的神经血管导管
KR102612355B1 (ko) * 2016-09-30 2023-12-08 로비 가이드스, 인크. 자막 텍스트에서의 에러들을 정정하기 위한 시스템들 및 방법들
CN110381855B (zh) 2017-01-06 2023-07-04 因赛普特有限责任公司 用于动脉瘤治疗装置的抗血栓涂层
CN108093310B (zh) * 2017-11-30 2019-11-05 腾讯科技(深圳)有限公司 信息的分享方法和装置、存储介质、电子装置
KR102554934B1 (ko) * 2018-04-17 2023-07-12 현대자동차주식회사 장애인을 위한 커뮤니케이션 시스템이 구비된 차량 및 장애인을 위한 커뮤니케이션 시스템 제어방법
US11395665B2 (en) 2018-05-01 2022-07-26 Incept, Llc Devices and methods for removing obstructive material, from an intravascular site
WO2019212984A1 (en) 2018-05-01 2019-11-07 Imperative Care, Inc. Devices and methods for removing obstructive material from an intravascular site
KR102067446B1 (ko) * 2018-06-04 2020-01-17 주식회사 엔씨소프트 자막 생성 방법 및 시스템
WO2020010310A1 (en) 2018-07-06 2020-01-09 Imperative Care, Inc. Sealed neurovascular extendable catheter
US11471582B2 (en) 2018-07-06 2022-10-18 Incept, Llc Vacuum transfer tool for extendable catheter
US11766539B2 (en) 2019-03-29 2023-09-26 Incept, Llc Enhanced flexibility neurovascular catheter
EP4044906A4 (en) 2019-10-15 2023-05-24 Imperative Care, Inc. MULTIVARIABLE ATTACK DETECTION SYSTEMS AND METHODS
US20210185405A1 (en) * 2019-12-17 2021-06-17 Rovi Guides, Inc. Providing enhanced content with identified complex content segments
CN113365687A (zh) 2019-12-18 2021-09-07 因普瑞缇夫护理公司 治疗静脉血栓栓塞疾病的方法和***
US11439799B2 (en) 2019-12-18 2022-09-13 Imperative Care, Inc. Split dilator aspiration system
US11633272B2 (en) 2019-12-18 2023-04-25 Imperative Care, Inc. Manually rotatable thrombus engagement tool
US11539900B2 (en) * 2020-02-21 2022-12-27 Ultratec, Inc. Caption modification and augmentation systems and methods for use by hearing assisted user
EP4117762A4 (en) 2020-03-10 2024-05-08 Imperative Care Inc NEUROVASCULAR CATHETER WITH INCREASED FLEXIBILITY
US11207497B1 (en) 2020-08-11 2021-12-28 Imperative Care, Inc. Catheter with enhanced tensile strength
US11875133B2 (en) * 2021-02-02 2024-01-16 Rovi Guides, Inc. Methods and systems for providing subtitles
GB202104299D0 (en) * 2021-03-26 2021-05-12 Polkinghorne Ben Video content item selection
CN114143592B (zh) * 2021-11-30 2023-10-27 抖音视界有限公司 视频处理方法、视频处理装置和计算机可读存储介质
US20230362452A1 (en) * 2022-05-09 2023-11-09 Sony Group Corporation Distributor-side generation of captions based on various visual and non-visual elements in content

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5543851A (en) * 1995-03-13 1996-08-06 Chang; Wen F. Method and apparatus for translating closed caption data
KR100212134B1 (ko) * 1996-05-03 1999-08-02 윤종용 시청자 선택형 자막표시의 소프트 스크롤 방법
WO2003061285A2 (en) * 2001-12-24 2003-07-24 Scientific Generics Limited Captioning system
KR100443365B1 (ko) 2002-03-26 2004-08-09 한국과학기술원 티브이 자막 신호에 기반한 3차원 수화 애니메이션 발생시스템
US7774194B2 (en) 2002-08-14 2010-08-10 Raanan Liebermann Method and apparatus for seamless transition of voice and/or text into sign language
KR100819251B1 (ko) * 2005-01-31 2008-04-03 삼성전자주식회사 방송 통신 융합 시스템에서 수화 비디오 데이터를제공하는 시스템 및 방법
KR100762616B1 (ko) 2005-09-01 2007-10-01 삼성전자주식회사 디지털 멀티미디어 방송에서 가사 정보를 제공하기 위한디지털 멀티미디어 방송 시스템 및 가사 정보 제공 방법
KR20080086640A (ko) * 2007-03-23 2008-09-26 주식회사 한국스테노 디지털 복합 수신기를 통한 수화·자막 수신장치 및 방법
US8149330B2 (en) * 2008-01-19 2012-04-03 At&T Intellectual Property I, L. P. Methods, systems, and products for automated correction of closed captioning data
US7508450B1 (en) * 2008-05-06 2009-03-24 International Business Machines Corporation Method for closed captioning of audio video content on a portable playback device
CN101605158A (zh) * 2008-06-13 2009-12-16 鸿富锦精密工业(深圳)有限公司 聋哑人专用手机
KR101479079B1 (ko) * 2008-09-10 2015-01-08 삼성전자주식회사 디지털 캡션에 포함된 용어의 설명을 표시해주는 방송수신장치 및 이에 적용되는 디지털 캡션 처리방법
KR101093917B1 (ko) 2010-11-11 2011-12-13 윤종석 감정상태의 상황 전달용 통신 단말기

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system

Also Published As

Publication number Publication date
US9852130B2 (en) 2017-12-26
US20150046148A1 (en) 2015-02-12
KR20150017131A (ko) 2015-02-16

Similar Documents

Publication Publication Date Title
KR102129536B1 (ko) 모바일 단말기 및 그의 제어 방법
US9641471B2 (en) Electronic device, and method and computer-readable recording medium for displaying message in electronic device
CN109766065B (zh) 显示设备及其控制方法
KR102098058B1 (ko) 뷰 모드에서 정보 제공 방법 및 장치
US10419520B2 (en) Method of sharing electronic document and devices for the same
US10359901B2 (en) Method and apparatus for providing intelligent service using inputted character in a user device
KR102337072B1 (ko) 이모티콘을 생성하는 방법 및 이를 지원하는 전자장치
US20150029206A1 (en) Method and electronic device for displaying wallpaper, and computer readable recording medium
KR20160026142A (ko) 스크랩 정보를 제공하는 전자 장치 및 그 제공 방법
EP2753065A2 (en) Method and apparatus for laying out image using image recognition
KR20140137030A (ko) 메신저를 이용한 정보 제공 방법 및 장치
EP2747057A1 (en) Text-enlargement display method
KR20160091628A (ko) 싱크 디바이스 및 그 제어 방법
CN107810472B (zh) 电子装置和用于控制全景图像的显示的方法
KR20150090966A (ko) 전자 장치 및 전자 장치의 검색 결과 제공 방법
US20150012855A1 (en) Portable device for providing combined ui component and method of controlling the same
US11394871B2 (en) Photo taking control method and system based on mobile terminal, and storage medium
CN110795007A (zh) 一种获取截图信息的方法及装置
JP2017525076A (ja) キャラクタ特定方法、装置、プログラムおよび記録媒体
KR20140026726A (ko) 광학식 문자 판독기를 이용한 데이터 처리 방법 및 장치
WO2018018416A1 (zh) 一种显示控制方法和终端
KR102242324B1 (ko) 카메라 광 데이터로 가상 환경을 조명하는 방법
US11474683B2 (en) Portable device and screen control method of portable device
KR20170014589A (ko) 번역 서비스를 제공하는 사용자 단말 장치 및 그 제어 방법
CN110377914B (zh) 字符识别方法、装置及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right