KR20130116860A - 정보 처리 장치 및 정보 처리 방법 - Google Patents

정보 처리 장치 및 정보 처리 방법 Download PDF

Info

Publication number
KR20130116860A
KR20130116860A KR1020137001386A KR20137001386A KR20130116860A KR 20130116860 A KR20130116860 A KR 20130116860A KR 1020137001386 A KR1020137001386 A KR 1020137001386A KR 20137001386 A KR20137001386 A KR 20137001386A KR 20130116860 A KR20130116860 A KR 20130116860A
Authority
KR
South Korea
Prior art keywords
user
information processing
image
processing apparatus
display
Prior art date
Application number
KR1020137001386A
Other languages
English (en)
Other versions
KR102091885B1 (ko
Inventor
유스케 사카이
마사오 콘도
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20130116860A publication Critical patent/KR20130116860A/ko
Application granted granted Critical
Publication of KR102091885B1 publication Critical patent/KR102091885B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

정보 처리 장치는, 촬상 화상에서 유저를 인식하는 유저 인식부와, 유저의 행동을 인식하는 행동 인식부를 포함해도 된다. 또한, 상기 장치는, 상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보을 포함하는 유저 행동 정보를 생성하는 생성부와, 외부 기기로 상기 유저 행동 정보를 송신하는 통신부를 포함해도 된다.

Description

정보 처리 장치 및 정보 처리 방법{INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD}
본 발명은, 정보 처리 장치 및 정보 처리 방법에 관한 것이다.
종래, 원격지에 있는 유저끼리의 교류에 이용하는 장치로서, 전화, 이른바 화상 전화, 비디오 회의 시스템 등이 존재한다. 또한, 퍼스널 컴퓨터 등을 이용하여 인터넷에 접속하고, 텍스트 채팅, 영상과 음성을 수반하는 비디오 채팅 등을 행하는 방법도 있다.
이와 같은 것중, 전자 기기 등의 장치의 고기능화나 다기능화가 점차로 진행되어, 예를 들면, 텔레비전 수상기에서는, 네트워크 통신 기능을 구비하고, 방송국으로부터 방송프로그램의 영상 및 음성 콘텐츠를 수신하여 표시할 뿐만 아니라, 다른 수상기와의 사이에서 각종 정보를 교환하는 것이 가능하게 되어 있다.
예를 들면, 특허 문헌 1에는, 텔레비전 수상기에서 유저가 텔레비전 방송의 방송프로그램 콘텐츠를 시청할 때에, 등록된 다른 유저에 관한 정보(예를 들면, 다른 유저의 영상, 다른 유저의 섬네일 화상, 다른 유저가 시청하고 있는 콘텐츠의 명칭, 채널, 영상 등)를, 방송프로그램 콘텐츠와 병행하여 표시하는 기술이 개시되어 있다.
일본 특개2006-50370호 공보
그런데, 상술한 특허 문헌 1에 기재된 기술에서는, 텔레비전 수상기가, 1지점 또는 복수 지점의 다른 수상기로부터 영상이나 음성을 수신하여, 수신한 영상이나 음성을 예를 들면 방송프로그램 콘텐츠의 표시와 병행하여 재생함에 의해, 원격지에 있는 유저와 같은 방송프로그램 콘텐츠의 공용이나 대면(對面)으로의 커뮤니케이션을 가능하게 하고 있다.
그렇지만, 1지점의 다른 수상기의 유저가 복수 존재하는 경우 등에서는, 예를 들면, 다른 수상기의 복수의 유저중의 어느 유저가 발화(發話) 등의 표현을 행한 때에, 텔레비전 수상기의 유저는, 다른 수상기로부터 수신한 영상이나 음성의 재생으로부터 다른 수상기의 복수의 유저중의 어느 유저가 표현을 행한 것인지를 파악하기 어렵다는 문제가 있다.
그래서, 본 발명은, 상기 문제를 감안하여 이루어진 것이고, 본 발명의 목적으로 하는 점은, 다른 정보 처리 장치의 유저가 표현을 행한 경우에, 유저에게 다른 정보 처리 장치의 어느 유저가 표현을 행한 것인지를 파악시키는 것이 가능한, 신규이면서 개량된 정보 처리 장치 및 정보 처리 방법을 제공하는 것에 있다.
본 발명의 하나의 실시의 형태에서, 정보 처리 장치는, 촬상 화상에서 유저를 인식하는 유저 인식부와, 유저의 행동을 인식하는 행동 인식부를 포함해도 된다. 또한, 상기 장치는, 상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보을 포함하는 유저 행동 정보를 생성하는 생성부와, 외부 기기로 상기 유저 행동 정보를 송신하는 통신부를 포함해도 된다.
본 발명의 또 다른 실시의 형태에서, 정보 처리 장치는, 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하는 통신부와, 표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를 제어하는 생성부를 포함해도 된다.
본 발명의 또 다른 실시의 형태에서, 정보 처리 방법은, 촬상 화상에서 유저를 인식하고, 유저의 행동을 인식하는 것을 포함해도 된다. 또한, 상기 방법은, 프로세서에 의하여, 상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보를 포함하는 유저 행동 정보를 생성하고, 외부 장치로 상기 유저 행동 정보를 송신하는 것을 포함해도 된다.
본 발명의 또 다른 실시의 형태에서, 정보 처리 방법은, 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하고, 표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를, 프로세스에 의하여 제어하는 것을 포함해도 된다.
본 발명의 또 다른 실시의 형태에서, 기록매체는 컴퓨터에서 실행하는 컴퓨터가 판독 가능한 프로그램을 기록해도 된다. 상기 프로그램은, 촬상 화상에서 유저를 인식하고, 유저의 행동을 인식하는 것을 포함해도 된다. 또한, 상기 프로그램은, 상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보를 포함하는 유저 행동 정보를 생성하고, 외부 장치로 상기 유저 행동 정보를 송신하는 것을 포함해도 된다.
본 발명의 또 다른 실시의 형태에서, 기록매체는 컴퓨터에서 실행하는 컴퓨터가 판독 가능한 프로그램을 기록해도 된다. 상기 프로그램은, 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하고, 표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를 제어하는 것을 포함해도 된다.
이상 설명한 바와 같이 본 발명에 의하면, 다른 정보 처리 장치의 유저가 표현을 행한 경우에, 유저에게 다른 정보 처리 장치의 어느 유저가 표현을 행한 것인지를 파악시킬 수 있다.
도 1은 본 발명의 실시의 형태에서의 표시 시스템의 한 예를 설명하기 위한 설명도.
도 2는 본 발명의 제 1의 실시의 형태에 관한 정보 처리 장치의 기능 구성의 한 예를 설명하기 위한 설명도.
도 3은 도 2에서의 정보 처리 장치의 하드웨어 구성의 한 예를 설명하기 위한 설명도.
도 4는 도 2에서의 정보 처리 장치가 실행하는 표시 처리의 플로 차트.
도 5는 도 4의 표시 처리에서의 스텝 S114에서 실행되는 유저 표시 처리의 플로 차트.
도 6a 내지 도 6d는, 본 발명의 제 1의 실시예에 관해 설명하기 위한 설명도.
도 7a 내지 도 7d는, 본 발명의 제 1의 실시예에 관해 설명하기 위한 설명도.
도 8a 내지 도 8d는, 본 발명의 제 2의 실시예에 관해 설명하기 위한 설명도.
도 9a 내지 도 9d는, 본 발명의 제 3의 실시예에 관해 설명하기 위한 설명도.
도 10a 및 도 10b는, 본 발명의 제 4의 실시예에 관해 설명하기 위한 설명도.
도 11a 내지 도 11e는, 본 발명의 제 5의 실시예에 관해 설명하기 위한 설명도.
도 12a 및 도 12b는, 본 발명의 제 6의 실시예에 관해 설명하기 위한 설명도.
도 13a 내지 도 13l은, 본 발명의 제 7의 실시예에 관해 설명하기 위한 설명도.
도 14는 본 발명의 제 2의 실시의 형태에 관한 정보 처리 장치의 기능 구성의 한 예를 설명하기 위한 설명도.
이하에 첨부 도면을 참조하면서, 본 발명이 매우 적합한 실시의 형태에 관해 상세히 설명한다. 또한, 본 명세서 및 도면에서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 관해서는, 동일한 부호를 붙임에 의해 중복 설명을 생략한다.
또한, 설명은 이하의 순서로 행하는 것으로 한다.
1. 표시 시스템
2. 정보 처리 장치의 기능 구성(제 1의 실시의 형태)
3. 정보 처리 장치의 하드웨어 구성
4. 표시 처리
5. 실시예
6. 정보 처리 장치의 기능 구성(제 2의 실시의 형태)
(1. 표시 시스템)
우선, 본 발명의 실시의 형태에서의 표시 시스템에 관해 설명한다. 도 1은, 본 실시의 형태에서의 표시 시스템의 한 예를 설명하기 위한 설명도이다. 도 1은, 표시 시스템을 정면에서 본 정면도이다.
도 1에서, 표시 시스템(100)은, 예를 들면, 표시 장치(102)와, 촬상 장치(104)를 구비한다.
표시 장치(102)는, 구동 신호에 의거하여 정지화상 또는 동화상을 표시할 수 있다. 예를 들면, 표시 장치(102)는, 액정에 의해 정지화상 또는 동화상을 표시한다. 또한, 표시 장치(102)는, 유기 EL(전계 발광)과 같은 자발광형의 표시 디바이스에 의해 정지화상 또는 동화상을 표시하여도 좋다.
촬상 장치(104)는, 표시 장치(102)의 상방 중앙부에 마련되어 있고, 표시 장치(102)의 표시 방향에서의 피사체를 촬상할 수 있다. 촬상 장치(104)는, CCD(Charge Coupled Device) 이미지 센서에 의해 정지화상 또는 동화상의 촬상을 행하는 것이라도 좋고, CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서에 의해 정지화상 또는 동화상의 촬상을 행하는 것이라도 좋다.
또한, 본 실시의 형태에서는, 촬상 장치(104)가 표시 장치(102)의 상방 중앙부에 마련되어 있지만, 촬상 장치(104)가 마련되는 장소는 표시 장치(102)의 상방 중앙부로 한정되지 않는다. 예를 들면, 촬상 장치(104)는, 표시 장치(102)의 하방 중앙부 등에 마련되어도 좋다. 또한, 본 실시의 형태에서는, 촬상 장치(104)가 하나만 마련되어 있지만, 촬상 장치(104)의 수는 하나로 한정되지 않는다. 예를 들면, 촬상 장치(104)는, 2개 이상 마련되어도 좋다. 또한, 본 실시의 형태에서는, 표시 장치(102)와 촬상 장치(104)가 일체로 되어 있지만, 표시 장치(102)와 촬상 장치(104)는 별체로 되어도 좋다.
또한, 표시 시스템(100)에는, 표시 장치(102)의 전방의 유저의 유무를 검지하는 센서(도시 생략)나, 리모트 컨트롤러(도시 생략)로부터의 적외선이나 무선 등에 의한 제어 신호를 수신 가능한 신호 수신부(도시 생략)가 마련되어 있어도 좋다. 제어 신호는, 본 발명의 조작 신호의 한 예이다. 또한, 상기 센서는, 표시 장치(102)와 표시 장치(102)의 전방의 유저와의 사이의 거리를 검출할 수 있는 것이라도 좋다. 또한, 표시 시스템(100)에는, 주위의 소리를 취득 가능한 예를 들면 마이크로폰 등의 음성 취득 수단이 마련되어 있어도 좋다.
본 실시의 형태에서의 표시 장치(102)는, 후술하는 바와 같이, 정지화상 또는 동화상의 콘텐츠이나, 도 4의 표시 처리에서의 정보 처리 장치(200)에 의해 생성된 표시 화상의 표시를 행할 수가 있다.
또한, 본 실시의 형태에서의 촬상 장치(104)는, 도 2에서의 표시 장치(102)의 표시 화면을 보고 있는 유저 A 및 B의 정지화상 또는 동화상을 촬상할 수 있다.
(2. 정보 처리 장치의 기능 구성(제 1의 실시의 형태))
다음에, 본 발명의 제 1의 실시의 형태에 관한 정보 처리 장치의 기능 구성에 관해 설명한다. 도 2는, 본 실시의 형태에 관한 정보 처리 장치의 기능 구성의 한 예를 설명하기 위한 설명도이다. 또한, 도 2에는, 본 실시의 형태에 관한 정보 처리 장치로서의 정보 처리 장치(200)에 촬상 화상을 전달하고, 또한 정보 처리 장치(200)로부터 표시 장치(102)를 구동하기 위한 신호를 수신하는 표시 시스템(100)과, 표시 시스템(100) 및 정보 처리 장치(200)의 유저로서의 유저 A 및 B가 도시되어 있다. 또한, 도 2에는, 정보 처리 장치(200)가 접속 가능한 통신 네트워크(800)와, 통신 네트워크(800)에 접속 가능한 통신 서버(300)나 다른 정보 처리 장치(500, 700)와, 다른 정보 처리 장치(500)에 촬상 화상을 전달하고, 또 다른 정보 처리 장치(500)로부터 신호를 수신하는 다른 표시 시스템(400)과, 다른 표시 시스템(400) 및 다른 정보 처리 장치(500)의 유저로서의 유저 C 및 D와, 다른 정보 처리 장치(700)에 촬상 화상을 전달하고, 또 다른 정보 처리 장치(700)로부터 신호를 수신하는 다른 표시 시스템(600)과, 다른 표시 시스템(600) 및 다른 정보 처리 장치(700)의 유저로서의 유저 E 및 F가 도시되어 있다. 다른 표시 시스템(400, 600)은, 표시 시스템(100)과 같은 구성을 갖기 때문에, 상세한 설명은 생략한다. 또한, 다른 정보 처리 장치(500, 700)는, 정보 처리 장치(200)와 같은 구성을 갖기 때문에, 상세한 설명은 생략한다. 다른 정보 처리 장치(500, 700)는, 본 발명의 통신 대상 장치의 한 예이다.
도 2에서, 정보 처리 장치(200)는, 예를 들면, 화상 입력부(202)와, 얼굴 인식부(204)와, 표시 화상 생성부(206)와, 출력부(208)와, 표시 제어부(210)와, 통신부(212)와, 음성 입력부(214)와, 음성 인식부(216)와, 조작 신호 입력부(218)와, 행동 인식부(220)와, 기억부(222)를 구비한다.
화상 입력부(202)는, 본 발명의 입력부의 한 예이고, 촬상 장치(104)가 촬상에 의해 생성한 촬상 화상을 수신한다. 그리고, 화상 입력부(202)는, 수신한(입력된) 촬상 화상을 통신부(212)에 전달하다. 또한, 화상 입력부(202)는, 수신한 촬상 화상을 얼굴 인식부(204)나 표시 화상 생성부(206)에 전달하여도 좋다.
얼굴 인식부(204)는, 본 발명의 인식부의 한 예이고, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 촬상 화상을 수신하여, 수신한 촬상 화상으로부터 다른 정보 처리 장치(500, 700)의 유저의 얼굴을 검출하고, 당해 얼굴의 검출 결과에 의거하여, 다른 정보 처리 장치(500, 700)의 유저, 즉 유저 C 및 D 또는 유저 E 및 F를 인식한다. 다른 정보 처리 장치(500, 700)로부터의 촬상 화상은, 본 발명의 통신 대상 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 예를 들면, 얼굴 인식부(204)는, 수신한 촬상 화상으로부터 유저의 얼굴의 부분을 검출하고, 검출한 유저의 얼굴의 부분에서 유저의 얼굴의 정보(이하, "유저 얼굴 정보"라고 한다)를 산출하고, 산출한 유저 얼굴 정보와, 기억부(222)에 기억되어 있는 미리 산출된 유저마다의 유저 얼굴 정보(223)를 비교함에 의해, 촬상 화상에 찍혀 있는 유저를 인식한다. 촬상 화상에 찍힌다는 행위는, 본 발명의 표현의 한 예이다. 또한, 얼굴 인식부(204)는, 또한, 촬상 화상에 찍혀 있는 유저의 성별이나 연령 등을 인식하여도 좋다. 그리고, 얼굴 인식부(204)는, 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과를 표시 화상 생성부(206)에 전달한다. 또한, 얼굴 인식부(204)는, 화상 입력부(202)로부터의 촬상 화상을 수신하여, 수신한 촬상 화상으로부터 정보 처리 장치(200)의 유저의 얼굴을 인식함에 의해, 정보 처리 장치(200)의 유저, 즉 유저 A 및 B를 인식하여도 좋다. 화상 입력부(202)로부터의 촬상 화상은, 본 발명의 정보 처리 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 그리고, 얼굴 인식부(204)는, 정보 처리 장치(200)의 유저의 인식의 결과를 표시 화상 생성부(206)나 통신부(212)에 전달하여도 좋다.
또한, 얼굴 인식부(204)는, 다른 정보 처리 장치(500, 700)로부터의 촬상 화상으로부터 다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정을 인식하여도 좋다. 얼굴의 표정을 변화시킨다는 행위는, 본 발명의 표현의 한 예이다. 그리고, 얼굴 인식부(204)는, 다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정의 인식의 결과를 표시 화상 생성부(206)에 전달하여도 좋다. 또한, 얼굴 인식부(204)는, 화상 입력부(202)로부터의 촬상 화상으로부터 정보 처리 장치(200)의 유저의 얼굴의 표정을 인식하여도 좋다. 그리고, 얼굴 인식부(204)는, 정보 처리 장치(200)의 유저의 얼굴의 표정의 인식의 결과를 표시 화상 생성부(206)나 통신부(212)에 전달하여도 좋다.
표시 화상 생성부(206)는, 본 발명의 제어부의 한 예이고, 얼굴 인식부(204)로부터 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과를 수신하고, 통신부(212)가 수신한 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 표시 시스템(600)에서 촬상된 촬상 화상을 수신한다. 그리고, 표시 화상 생성부(206)는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과에 의거하여, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상을 생성한다. 표시 화상의 상세한 것에 대해는 후술한다. 또한, 표시 화상 생성부(206)는, 표시 화상에서의 유저 화상을, 수신한 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터 유저의 얼굴의 부분을 절출(切出)하여 생성하여도 좋다. 또한, 표시 화상 생성부(206)는, 표시 화상에서의 유저 화상을, 예를 들면 유저를 나타낸 캐릭터 화상으로 하여도 좋다. 그리고, 표시 화상 생성부(206)는, 생성한 표시 화상을 표시 제어부(210)에 전달한다.
또한, 표시 화상 생성부(206)는, 화상 입력부(202)로부터 표시 시스템(100)에서 촬상된 촬상 화상을 수신하고, 얼굴 인식부(204)로부터 정보 처리 장치(200)의 유저의 인식의 결과나 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과를 수신하고, 통신부(212)가 수신한 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 표시 시스템(600)에서 촬상된 촬상 화상을 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저 및 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과에 의거하여, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 통신부(212)가 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하여, 얼굴 인식부(204)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다. 이 경우, 상술한 얼굴 인식부(204)는, 다른 정보 처리 장치(500, 700)로부터의 촬상 화상으로부터 유저의 인식을 행하지 않아도 좋다.
또한, 표시 화상 생성부(206)는, 얼굴 인식부(204)로부터 또 다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 얼굴의 표정이 변화한 유저를 나타낸 유저 화상과, 얼굴의 표정이 대응지어져서 표시되는 표시 화상을 생성한다. 예를 들면, 표시 화상 생성부(206)는, 어느 유저의 얼굴의 표정이 웃고 있는 표정으로 변화하였다고 인식한 경우는, 당해 유저를 나타낸 유저 화상이 마치 날뛰고 있는 것처럼 표시시킨 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 얼굴 인식부(204)로부터 또한 정보 처리 장치(200)의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저의 표정의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 얼굴의 표정이 변화한 유저를 나타낸 유저 화상과, 얼굴의 표정이 대응지어져서 표시되는 표시 화상을 생성하여도 좋다.
또한, 표시 화상 생성부(206)는, 통신부(212)가 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 얼굴의 표정의 인식의 결과나, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하여, 얼굴 인식부(204)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 화자인 유저를 나타낸 유저 화상과, 발화한 취지가 대응지어져서 표시되는 표시 화상을 생성한다. 예를 들면, 표시 화상 생성부(206)는, 화자인 유저를 나타낸 유저 화상이 확대되도록 표시시킨 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또한 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지가 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하여, 음성 인식부(216)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지 및 이야기하고 있는 내용이 대응지어져서 표시되는 표시 화상을 생성한다. 예를 들면, 표시 화상 생성부(206)는, 또한 화자인 유저를 나타낸 유저 화상으로부터의 말풍선중에 이야기하고 있는 내용의 문자 화상이 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또한 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지 및 이야기하고 있는 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 화자인 유저가 이야기하고 있는 내용의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하여, 음성 인식부(216)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 표시 화상 생성부(206)는, 행동 인식부(220)로부터 다른 정보 처리 장치(500, 700)의 유저의 행동의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 행동의 인식의 결과에 또한 의거하여, 조작자인 유저를 나타낸 유저 화상과, 조작 내용이 대응지어져서 표시되는 표시 화상을 생성한다. 예를 들면, 표시 화상 생성부(206)는, 조작자인 유저를 나타낸 유저 화상으로부터의 말풍선중에 조작자인 유저가 표시시키고 싶은 콘텐츠 화상이 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 행동 인식부(220)로부터 또한 정보 처리 장치(200)의 유저의 행동의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저의 행동의 인식의 결과에 또한 의거하여, 조작자인 유저를 나타낸 유저 화상과, 조작 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 조작 신호로부터의 유저의 행동의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 조작 신호로부터의 유저의 행동의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 행동 인식부(220)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
출력부(208)는, 표시 제어부(210)로부터 표시 장치(102)를 구동하기 위한 신호를 수신하고, 수신한 신호를 표시 장치(102)에 전달한다. 또한, 출력부(208)는, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)에서 입력된 음성을 수신한 경우에는, 수신한 음성을 표시 시스템(100)의 스피커 등(도시 생략) 등에 전달하여도 좋다.
표시 제어부(210)는, 본 발명의 제어부의 한 예이고, 표시 화상 생성부(206)로부터 표시 화상을 수신한다. 또한, 표시 제어부(210)에는 정지화상 또는 동화상의 콘텐츠가 공급된다. 그리고, 표시 제어부(210)는, 표시 장치(102)의 표시 화면에, 표시 화상 생성부(206)가 생성한 표시 화상을 표시시키기 위한 신호를 출력부(208)에 전달한다. 또한, 표시 제어부(210)는, 표시 장치(102)의 표시 화면에, 콘텐츠를 표시시키기 위한 신호를 출력부(208)에 전달하여도 좋다.
통신부(212)는, 통신 서버(300)로부터 통신 네트워크(800)를 경유하여 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 정보 처리 장치(500)에서 입력된 음성이나 조작 신호를 수신한다. 또한, 통신부(212)는, 통신 서버(300)로부터 통신 네트워크(800)를 경유하여 다른 표시 시스템(600)에서 촬상된 촬상 화상이나 다른 정보 처리 장치(700)에서 입력된 음성이나 조작 신호를 수신하다. 또한, 통신부(212)는, 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 정보 처리 장치(500)에서 입력된 음성이나 조작 신호를 다른 정보 처리 장치(500)로부터 통신 네트워크(800)를 경유하여 직접적으로 수신할 수도 있다. 마찬가지로, 통신부(212)는, 다른 표시 시스템(600)에서 촬상된 촬상 화상이나 다른 정보 처리 장치(700)에서 입력된 음성이나 조작 신호를 다른 정보 처리 장치(700)로부터 통신 네트워크(800)를 경유하여 직접적으로 수신할 수도 있다.
또한, 통신부(212)는, 통신 서버(300)로부터 통신 네트워크(800)를 경유하여 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 인식의 결과나 조작 신호로부터의 인식의 결과, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 인식의 결과나 조작 신호로부터의 인식의 결과를 수신하여도 좋다. 또한, 통신부(212)는, 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 인식의 결과나 조작 신호로부터의 인식의 결과를 다른 정보 처리 장치(500)로부터 통신 네트워크(800)를 경유하여 직접적으로 수신할 수도 있다. 마찬가지로, 통신부(212)는, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 인식의 결과나 조작 신호로부터의 인식의 결과를 다른 정보 처리 장치(700)로부터 통신 네트워크(800)를 경유하여 직접적으로 수신할 수도 있다.
또한, 통신부(212)는, 화상 입력부(202)로부터의 촬상 화상이나 음성 입력부(214)로부터의 음성, 조작 신호 입력부(218)로부터의 조작 신호를 수신하고, 수신한 촬상 화상이나 음성, 조작 신호를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신하여도 좋다. 또한, 통신부(212)는, 얼굴 인식부(204)로부터 표시 시스템(100)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 음성 인식부(210)로부터 정보 처리 장치(200)에 입력된 음성으로부터의 인식의 결과, 행동 인식부(220)로부터 정보 처리 장치(200)에 입력된 조작 신호로부터의 인식의 결과를 수신하고, 수신한 그들의 인식의 결과를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신하여도 좋다. 또한, 통신부(212)는, 수신한 촬상 화상이나 음성, 조작 신호, 촬상 화상으로부터의 유저의 인식의 결과, 음성으로부터의 인식의 결과, 조작 신호로부터의 인식의 결과를 통신 네트워크(800)를 경유하여 다른 정보 처리 장치(500, 700)에 직접적으로 송신할 수도 있다.
음성 입력부(214)는, 본 발명의 입력부의 한 예이고, 예를 들면, 정보 처리 장치(200)의 유저로서의 유저 A 및 B로부터의 음성을 수신한다. 그리고, 음성 입력부(214)는, 수신한(입력된) 음성을 통신부(212)에 전달한다. 또한, 음성 입력부(214)는, 수신한 음성을 음성 인식부(216)에 전달하여도 좋다.
음성 인식부(216)는, 본 발명의 인식부의 한 예이고, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 음성을 수신하여, 수신한 음성으로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저를 인식한다. 발화(發話)한다는 행위는, 본 발명의 표현의 한 예이다. 다른 정보 처리 장치(500, 700)로부터의 음성은, 본 발명의 통신 대상 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 예를 들면, 음성 인식부(216)는, 수신한 음성으로부터 특징을 추출하여 유저의 음성의 정보(이하, "유저 음성 정보"라고 한다)를 생성하고, 생성한 유저 음성 정보와, 기억부(222)에 기억되어 있는 미리 생성된 유저마다의 유저 음성 정보(224)를 비교함에 의해, 화자인 유저를 인식한다. 그리고, 음성 인식부(216)는, 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저의 인식의 결과를 표시 화상 생성부(206)에 전달한다. 또한, 음성 인식부(216)는, 음성 입력부(214)로부터의 음성을 수신하여, 수신한 음성으로부터 정보 처리 장치(200)의 유저중의 화자인 유저를 인식하여도 좋다. 음성 입력부(214)로부터의 음성은, 본 발명의 정보 처리 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 그리고, 음성 인식부(216)는, 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과를 표시 화상 생성부(206)나 통신부(212)에 전달하여도 좋다.
또한, 음성 인식부(216)는, 다른 정보 처리 장치(500, 700)로부터의 음성으로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용을 인식하여도 좋다. 예를 들면, 음성 인식부(216)는, 수신한 음성을 해석함에 의해, 유저가 이야기하고 있는 내용을 문자 데이터로서 취출하여 인식한다. 그리고, 음성 인식부(216)는, 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 표시 화상 생성부(206)에 전달하여도 좋다. 또한, 음성 인식부(216)는, 음성 입력부(214)로부터의 음성으로부터 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용을 인식하여도 좋다. 그리고, 음성 인식부(216)는, 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 표시 화상 생성부(206)나 통신부(212)에 전달하여도 좋다.
조작 신호 입력부(218)는, 본 발명의 입력부의 한 예이고, 예를 들면, 정보 처리 장치(200)의 유저로서의 유저 A 및 B에 의한, 예를 들면 리모트 컨트롤러(도시 생략)를 사용하고 송신된 조작 신호를 수신한다. 그리고, 조작 신호 입력부(218)는, 수신한(입력된) 조작 신호를 통신부(212)에 전달한다. 또한, 조작 신호 입력부(218)는, 수신한 조작 신호를 행동 인식부(220)에 전달하여도 좋다.
행동 인식부(220)는, 본 발명의 인식부의 한 예이고, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 조작 신호를 수신하여, 수신한 조작 신호로부터 다른 정보 처리 장치(500, 700)의 유저의 행동을 인식한다. 행동을 일으킨다는 행위는, 본 발명의 표현의 한 예이다. 다른 정보 처리 장치(500, 700)로부터의 조작 신호는, 본 발명의 통신 대상 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 예를 들면, 행동 인식부(220)는, 수신한 조작 신호로부터 당해 조작 신호에 포함되어 있는 조작자인 유저의 기기의 정보(이하, "유저 기기(機器) 정보"라고 한다)를 추출하고, 추출한 유저 기기 정보와, 기억부(222)에 기억되어 있는 미리 생성된 유저마다의 유저 기기 정보(226)를 비교함에 의해, 조작자인 유저를 인식한다. 또한, 예를 들면, 행동 인식부(220)는, 수신한 조작 신호로부터 당해 조작 신호에 포함되어 있는 조작 내용의 정보를 추출하여, 조작자의 조작 내용을 인식한다. 예를 들면, 행동 인식부(220)는, 조작 내용의 정보에 포함되어 있는 조작자인 유저가 표시 화면에 표시시키고 싶은 콘텐츠의 정보(이하, "유저 콘텐츠 정보"라고 한다)와, 기억부(222)에 기억되어 있는 미리 기억된 유저 콘텐츠 정보(225)를 비교함에 의해, 조작자인 유저가 표시 화면에 표시시키고 싶은 콘텐츠를 인식한다. 그리고, 행동 인식부(220)는, 다른 정보 처리 장치(500, 700)의 유저의 행동의 인식의 결과를 표시 화상 생성부(206)에 전달한다. 또한, 행동 인식부(220)는, 조작 신호 입력부(218)로부터의 조작 신호를 수신하여, 수신한 조작 신호로부터 정보 처리 장치(200)의 유저의 행동을 인식하여도 좋다. 조작 신호 입력부(218)로부터의 조작 신호는, 본 발명의 정보 처리 장치의 유저의 표현에 관한 소정의 신호의 한 예이다. 그리고, 행동 인식부(220)는, 정보 처리 장치(200)의 유저의 행동의 인식의 결과를 표시 화상 생성부(206)나 통신부(212)에 전달하여도 좋다.
기억부(222)는, 다른 정보 처리 장치(500, 700)나 정보 처리 장치(200)의 유저의 얼굴의 정보로서의 유저 얼굴 정보(223)와, 다른 정보 처리 장치(500, 700)나 정보 처리 장치(200)의 유저의 음성의 정보로서의 유저 음성 정보(224)와, 다른 정보 처리 장치(500, 700)나 정보 처리 장치(200)의 유저의 콘텐츠의 정보로서의 유저 콘텐츠 정보(225)와, 다른 정보 처리 장치(500, 700)나 정보 처리 장치(200)의 유저가 사용하는 기기의 정보로서의 유저 기기 정보(226)를 기억한다.
또한, 본 발명의 통신 대상 장치의 유저의 표현에 관한 소정의 신호는, 상술한 다른 정보 처리 장치(500, 700)로부터의 촬상 화상이나 음성, 조작 신호로 한정되지 않고, 다른 정보 처리 장치(500, 700)로부터의 다른 정보 처리 장치(500, 700)의 유저가 행위를 행함에 의해 생성된 신호라면 좋다. 또한, 본 발명의 정보 처리 장치의 유저의 표현에 관한 소정의 신호는, 상술한 정보 처리 장치(200)에 입력된 촬상 화상이나 음성, 조작 신호로 한정되지 않고, 정보 처리 장치(200)의 유저가 행위를 행함에 의해 생성된 신호라면 좋다.
(3. 정보 처리 장치의 하드웨어 구성)
다음에, 도 2에서의 정보 처리 장치(200)의 하드웨어 구성에 관해 설명한다. 도 3은, 도 2에서의 정보 처리 장치(200)의 하드웨어 구성의 한 예를 설명하기 위한 설명도이다.
도 3에서, 정보 처리 장치(200)는, 예를 들면, MPU(230)와, ROM(232)과, RAM(234)과, 기록 매체(236)와, 입출력 인터페이스(238)와, 조작 입력 디바이스(240)와, 표시 디바이스(242)와, 통신 인터페이스(244)를 구비한다. 또한, 정보 처리 장치(200)는, 예를 들면, 데이터의 전송로로서의 버스(246)로 각 구성 요소 사이를 접속한다.
MPU(230)는, MPU(Micro Processing Unit)나, 화상 처리 등의 각종 기능을 실현하기 위한 복수의 회로가 집적된 집적 회로 등으로 구성되고, 정보 처리 장치(200) 전체를 제어하는 제어부(도시 생략)로서 기능한다. 또한, MPU(230)는, 정보 처리 장치(200)에서, 얼굴 인식부(204), 표시 화상 생성부(206), 표시 제어부(210), 음성 인식부(216) 및 행동 인식부(220)로서의 역할을 다한다.
ROM(232)은, MPU(230)가 사용하는 프로그램이나 연산 파라미터 등의 제어용 데이터 등을 기억한다. RAM(234)은, 예를 들면, MPU(230)에 의해 실행되는 프로그램 등을 일시적으로 기억한다.
기록 매체(236)는, 기억부(222)로서 기능하고, 예를 들면, 유저 얼굴 정보나 유저 음성 정보, 유저 콘텐츠 정보, 유저 기기 정보 등의 다양한 데이터(또는 데이터베이스)나, 어플리케이션 등을 기억한다. 여기서, 기록 매체(236)로서는, 예를 들면, 하드 디스크 등의 자기 기록 매체나, EEPROM(Electrically Erasable and Programmable Read Only Memory), 플래시 메모리(flash memory), MRAM(Magnetoresistive Random Access Memory), FeRAM(Ferroelectric Random Access Memory), PRAM(Phase change Random Access Memory) 등의 불휘발성 메모리(nonvolatile memory)를 들 수 있다. 또한, 정보 처리 장치(200)는, 정보 처리 장치(200)로부터 착탈 가능한 기록 매체(236)를 구비할 수도 있다.
입출력 인터페이스(238)는, 예를 들면, 조작 입력 디바이스(240)나, 표시 디바이스(242)를 접속한다. 또한, 입출력 인터페이스(238)는, 화상 입력부(202), 출력부(208), 음성 입력부(214) 및 조작 신호 입력부(214)로서의 역할을 다할 수도 있다. 조작 입력 디바이스(240)는, 조작부(도시 생략)로서 기능하고, 또한, 표시 디바이스(242)는, 후술하는 도 15에서의 표시부(254)로서 기능한다. 여기서, 입출력 인터페이스(238)로서는, 예를 들면, USB(Universal Serial Bus) 단자나, DVI(Digital Visual Interface) 단자, HDMI(High-Definition Multimedia Interface) 단자, 각종 처리 회로 등을 들 수 있다. 또한, 조작 입력 디바이스(240)는, 예를 들면, 정보 처리 장치(200)상에 구비되고, 정보 처리 장치(200)의 내부에서 입출력 인터페이스(238)와 접속된다. 조작 입력 디바이스(240)로서는, 예를 들면, 버튼, 방향 키, 조그다이얼 등의 회전형 셀렉터, 또는, 이들의 조합 등을 들 수 있다. 또한, 표시 디바이스(242)는, 예를 들면, 정보 처리 장치(200)상에 구비되고, 정보 처리 장치(200)의 내부에서 입출력 인터페이스(238)와 접속된다. 표시 디바이스(242)로서는, 예를 들면, 액정 디스플레이(Liquid Crystal Display ; LCD)나 유기 EL 디스플레이(Organic Electro Luminescence display. 또는, OLED 디스플레이(Organic Light Emitting Diode display)라고도 불린다) 등을 들 수 있다. 또한, 입출력 인터페이스(238)가, 정보 처리 장치(200)의 외부 장치로서의 조작 입력 디바이스(예를 들면, 키보드나 마우스 등)나, 표시 디바이스(예를 들면, 표시 장치(102) 등의 외부 표시 디바이스), 촬상 디바이스(예를 들면, 촬상 장치(104) 등) 등의 외부 디바이스와 접속할 수도 있음은, 말할 필요도 없다. 또한, 표시 디바이스(242)는, 예를 들면 터치 스크린 등, 표시와 유저 조작이 가능한 디바이스라도 좋다.
통신 인터페이스(244)는, 정보 처리 장치(200)가 구비하는 통신 수단이고, 네트워크(800)를 경유하여(또는, 직접적으로), 예를 들면 통신 서버(300)나, 다른 정보 처리 장치(500, 700) 등의 외부 장치와 무선/유선으로 통신을 행하기 위한 통신부(212)로서 기능한다. 여기서, 통신 인터페이스(244)로서는, 예를 들면, 통신 안테나 및 RF 회로(무선 통신)나, IEEE802.15.1 포트 및 송수신 회로(무선 통신), IEEE802.11b 포트 및 송수신 회로(무선 통신), 또는 LAN 단자 및 송수신 회로(유선 통신) 등을 들 수 있다.
또한, 본 실시의 형태에 관한 정보 처리 장치(200)의 하드웨어 구성은, 도 3에 도시하는 구성으로 한정되지 않는다. 예를 들면, 정보 처리 장치(200)는, 음성 출력부(도시 생략)의 역할을 다하는, DSP(Digital Signal Processor)와, 증폭기(앰프)나 스피커 등으로 구성되는 음성 출력 디바이스를 구비하여도 좋다.
또한, 정보 처리 장치(200)는, 예를 들면, 도 15에서의 촬상부(252)의 역할을 다하는, 렌즈/촬상 소자와 신호 처리 회로로 구성된 촬상 디바이스를 구비하고 있어도 좋다. 상기한 경우에는, 정보 처리 장치(200)는, 자체장치(自裝置))가 생성한 촬상 화상을 처리할 수 있다. 여기서, 렌즈/촬상 소자는, 예를 들면, 광학계의 렌즈와, CCD(Charge Coupled Device)나 CMOS(Complementary Metal Oxide Semiconductor) 등의 촬상 소자를 복수 이용한 이미지 센서로 구성된다. 신호 처리 회로는, 예를 들면, AGC(Automatic Gain Control) 회로나 ADC(Analog to Digital Converter)를 구비하고, 촬상 소자에 의해 생성된 아날로그 신호를 디지털 신호(화상 데이터)로 변환하고, 각종 신호 처리를 행한다. 신호 처리 회로가 행하는 신호 처리로서는, 예를 들면, 화이트 밸런스(White Balance) 보정 처리, 보간 처리, 색조 보정 처리, 감마 보정 처리, YCbCr 변환 처리, 에지 강조 처리, 및 코딩 처리 등을 들 수 있다.
또한, 정보 처리 장치(200)는, 예를 들면, 도 3에 도시하는 조작 입력 디바이스(240)나 표시 디바이스(242)를 구비하지 않은 구성이라도 좋다.
(4. 표시 처리)
다음에, 도 2에서의 정보 처리 장치(200)가 실행하는 표시 처리에 관해 설명한다. 도 4는, 도 2에서의 정보 처리 장치(200)가 실행하는 표시 처리의 플로 차트이다.
도 4에서, 우선, 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C 및 D나 유저 E 및 F와의 네트워크 접속이 지시되면, 통신부(212)는, 통신 네트워크(800)를 경유하여 통신 서버(300)와 통신 가능한 상태가 된다(스텝 S100). 또한, 스텝 S100에서는, 통신부(212)는, 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)와 통신 가능한 상태가 되어도 좋다.
뒤이어, 통신부(212)는, 화상 입력부(202)를 경유하여 수신한 표시 시스템(100)에서의 촬상 장치(104)가 촬상에 의해 생성한 촬상 화상을 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신한다(스텝 S102). 또한, 스텝 S102에서는, 통신부(212)는, 얼굴 인식부(204)로부터 수신한 정보 처리 장치(200)의 유저의 인식의 결과나 정보 처리 장치(200)의 유저의 얼굴의 표정의 인식의 결과를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신하여도 좋다. 또한, 스텝 S102에서는, 통신부(212)는, 촬상 화상이나 유저의 인식의 결과, 유저의 얼굴의 표정의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)에 송신하여도 좋다.
뒤이어, 통신부(212)는, 음성 입력부(214)를 경유하여 수신한 정보 처리 장치(200)에 입력된 음성을 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신한다(스텝 S104). 또한, 스텝 S104에서는, 통신부(212)는, 음성 인식부(216)로부터 수신한 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과나 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신하여도 좋다. 또한, 스텝 S104에서는, 통신부(212)는, 음성이나 화자인 유저의 인식의 결과, 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)에 송신하여도 좋다.
뒤이어, 통신부(212)는, 조작 신호 입력부(218)를 경유하여 수신한 정보 처리 장치(200)에 입력된 조작 신호를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신한다(스텝 S106). 또한, 스텝 S106에서는, 통신부(212)는, 행동 인식부(220)로부터 수신한 정보 처리 장치(200)의 유저의 행동의 인식의 결과를 통신 네트워크(800)를 경유하여 통신 서버(300)에 송신하여도 좋다. 또한, 스텝 S106에서는, 통신부(212)는, 조작 신호나 유저의 행동의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)에 송신하여도 좋다.
뒤이어, 통신부(212)는, 다른 정보 처리 장치(500)로부터 송신된, 표시 시스템(400)에서 촬상된 촬상 화상을 통신 서버(300)로부터 수신한다. 또한, 통신부(212)는, 다른 정보 처리 장치(700)로부터 송신된, 표시 시스템(600)에서 촬상된 촬상 화상을 통신 서버(300)로부터 수신한다(스텝 S108). 또한, 스텝 S108에서는, 다른 정보 처리 장치(500)로부터 송신된, 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나 유저의 얼굴의 표정의 인식의 결과, 또한, 다른 정보 처리 장치(700)로부터 송신된, 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나 유저의 얼굴의 표정의 인식의 결과를 통신 서버(300)로부터 수신하여도 좋다. 또한, 스텝 S108에서는, 통신부(212)는, 촬상 화상이나 유저의 인식의 결과, 유저의 얼굴의 표정의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)로부터 수신하여도 좋다.
뒤이어, 통신부(212)는, 다른 정보 처리 장치(500)로부터 송신된, 다른 정보 처리 장치(500)에서 입력된 음성을 통신 서버(300)로부터 수신한다. 또한, 통신부(212)는, 다른 정보 처리 장치(700)로부터 송신된, 다른 정보 처리 장치(700)에서 입력된 음성을 통신 서버(300)로부터 수신한다(스텝 S110). 또한, 스텝 S110에서는, 다른 정보 처리 장치(500)로부터 송신된, 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과나 화자인 유저가 이야기하고 있는 내용의 인식의 결과, 또한, 다른 정보 처리 장치(700)로부터 송신된, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과나 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 통신 서버(300)로부터 수신하여도 좋다. 또한, 스텝 S110에서는, 통신부(212)는, 음성이나 화자인 유저의 인식의 결과, 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)로부터 수신하여도 좋다.
뒤이어, 통신부(212)는, 다른 정보 처리 장치(500)로부터 송신된, 다른 정보 처리 장치(500)에서 입력된 조작 신호를 통신 서버(300)로부터 수신한다. 또한, 통신부(212)는, 다른 정보 처리 장치(700)로부터 송신된, 다른 정보 처리 장치(700)에서 입력된 조작 신호를 통신 서버(300)로부터 수신한다(스텝 S112). 또한, 스텝 S112에서는, 다른 정보 처리 장치(500)로부터 송신된, 다른 정보 처리 장치(500)에서 입력된 조작 신호로부터의 유저의 행동의 인식의 결과나, 다른 정보 처리 장치(700)로부터 송신된, 다른 정보 처리 장치(700)에서 입력된 조작 신호로부터의 유저의 행동의 인식의 결과를 통신 서버(300)로부터 수신하여도 좋다. 또한, 스텝 S112에서는, 통신부(212)는, 조작 신호나 유저의 행동의 인식의 결과를 통신 네트워크(800)를 경유하여 직접적으로 다른 정보 처리 장치(500, 700)로부터 수신하여도 좋다.
뒤이어, 정보 처리 장치(200)는, 후술하는 도 5의 유저 표시 처리를 실행하여(스텝 S114), 표시 장치(102)의 표시 화면에, 예를 들면, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시되도록 하고, 본 처리를 종료한다.
도 5는, 도 4의 표시 처리에서의 스텝 S114에서 실행되는 유저 표시 처리의 플로 차트이다.
도 5에서, 우선, 얼굴 인식부(204)는, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 촬상 화상을 수신하여, 수신한 촬상 화상으로부터 다른 정보 처리 장치(500, 700)의 유저의 얼굴을 검출하고, 당해 얼굴의 검출 결과에 의거하여, 다른 정보 처리 장치(500, 700)의 유저, 즉 유저 C 및 D 또는 유저 E 및 F를 인식한다(스텝 S200). 또한, 스텝 S200에서는, 얼굴 인식부(204)는, 수신한 촬상 화상으로부터 다른 정보 처리 장치(500, 700)의 유저의 얼굴을 검출하고, 당해 얼굴의 검출 결과에 의거하여, 다른 정보 처리 장치(500, 700)의 유저, 즉 유저 C 및 D 또는 유저 E 및 F의 얼굴의 표정을 인식하여도 좋다. 또한, 스텝 S200에서는, 얼굴 인식부(204)는, 화상 입력부(202)로부터의 촬상 화상을 수신하여, 수신한 촬상 화상으로부터 정보 처리 장치(200)의 유저의 얼굴을 검출하고, 당해 얼굴의 검출 결과에 의거하여, 정보 처리 장치(200)의 유저, 즉 유저 A 및 B를 인식하여도 좋고, 정보 처리 장치(200)의 유저, 즉 유저 A 및 B의 얼굴의 표정을 인식하여도 좋다.
뒤이어, 음성 인식부(216)는, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 음성을 수신하여, 수신한 음성으로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저를 인식한다(스텝 S202). 또한, 스텝 S202에서는, 음성 인식부(216)는, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 음성을 수신하여, 수신한 음성으로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용을 인식하여도 좋다. 또한, 스텝 S202에서는, 음성 인식부(216)는, 음성 입력부(214)로부터의 음성을 수신하여, 수신한 음성으로부터 정보 처리 장치(200)의 유저중의 화자인 유저를 인식하여도 좋고, 화자인 유저가 이야기하고 있는 내용을 인식하여도 좋다.
뒤이어, 행동 인식부(220)는, 통신부(212)가 수신한 다른 정보 처리 장치(500, 700)로부터의 조작 신호를 수신하여, 수신한 조작 신호로부터 다른 정보 처리 장치(500, 700)의 유저의 행동을 인식한다(스텝 S204). 또한, 스텝 S204에서는, 조작 신호 입력부(218)로부터의 조작 신호를 수신하여, 수신한 조작 신호로부터 정보 처리 장치(200)의 유저의 행동을 인식하여도 좋다.
뒤이어, 표시 화상 생성부(206)는, 얼굴 인식부(204)로부터 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과를 수신하고, 통신부(212)가 수신한 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 표시 시스템(600)에서 촬상된 촬상 화상을 수신한다. 그리고, 표시 화상 생성부(206)는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과에 의거하여, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상을 생성한다(스텝 S206).
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 화상 입력부(202)로부터 표시 시스템(100)에서 촬상된 촬상 화상을 수신하고, 얼굴 인식부(204)로부터 정보 처리 장치(200)의 유저의 인식의 결과나 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과를 수신하고, 통신부(212)가 수신한 다른 표시 시스템(400)에서 촬상된 촬상 화상이나 다른 표시 시스템(600)에서 촬상된 촬상 화상을 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저 및 다른 정보 처리 장치(500, 700)의 유저의 인식의 결과에 의거하여, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 통신부(212)가 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과나, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 얼굴 인식부(204)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 얼굴 인식부(204)로부터 또다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 얼굴의 표정의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 얼굴의 표정이 변화한 유저를 나타낸 유저 화상과, 얼굴의 표정이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 얼굴 인식부(204)로부터 또한 정보 처리 장치(200)의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저의 표정의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 얼굴의 표정이 변화한 유저를 나타낸 유저 화상과, 얼굴의 표정이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 통신부(212)가 다른 표시 시스템(400)에서 촬상된 촬상 화상으로부터의 유저의 얼굴의 표정의 인식의 결과나, 다른 표시 시스템(600)에서 촬상된 촬상 화상으로부터의 유저의 얼굴의 표정의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 얼굴 인식부(204)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저의 인식의 결과에 또한 의거하여, 상기 표시 화상에서 또한, 화자인 유저를 나타낸 유저 화상과, 발화한 취지가 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또한 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저중의 화자인 유저의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지가 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 화자인 유저의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 음성 인식부(216)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지 및 이야기하고 있는 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 음성 인식부(216)로부터 또한 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저중의 화자인 유저가 이야기하고 있는 내용의 인식의 결과에 또한 의거하여, 화자인 유저를 나타낸 유저 화상과, 발화한 취지 및 이야기하고 있는 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 음성으로부터의 화자인 유저가 이야기하고 있는 내용의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 음성으로부터의 화자인 유저가 이야기하고 있는 내용의 인식의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 음성 인식부(216)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 행동 인식부(220)로부터 다른 정보 처리 장치(500, 700)의 유저의 행동의 인식의 결과를 수신한 경우에는, 수신한 다른 정보 처리 장치(500, 700)의 유저의 행동의 인식의 결과에 또한 의거하여, 조작자인 유저를 나타낸 유저 화상과, 조작 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 행동 인식부(220)로부터 또한 정보 처리 장치(200)의 유저의 행동의 인식의 결과를 수신한 경우에는, 수신한 정보 처리 장치(200)의 유저의 행동의 인식의 결과에 또한 의거하여, 조작자인 유저를 나타낸 유저 화상과, 조작 내용이 대응지어져서 표시되는 표시 화상을 생성한다.
또한, 스텝 S206에서는, 표시 화상 생성부(206)는, 통신부(212)가 다른 정보 처리 장치(500)에서 입력된 조작 신호로부터의 유저의 행동의 인식의 결과나, 다른 정보 처리 장치(700)에서 입력된 조작 신호로부터의 유저의 행동의 결과를 수신한 경우에는, 그들의 인식의 결과를 수신하고, 행동 인식부(220)에 의한 인식의 결과에 대신하여 통신부(212)로부터 수신한 그들의 인식의 결과에 의거하여, 표시 화상을 생성하도록 하여도 좋다.
뒤이어, 표시 제어부(210)는, 표시 화상 생성부(206)로부터 표시 화상을 수신하여, 표시 장치(102)의 표시 화면에, 수신한 표시 화상을 표시시키기 위한 신호를 출력부(208)에 전달한다. 그리고, 출력부(208)는, 수신한 표시 화상을 표시시키기 위한 신호를 표시 장치(102)에 전달한다. 이에 의해, 표시 장치(102)의 표시 화면에는, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상이나, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된다(스텝 S208). 그리고, 본 처리를 종료한다.
도 4의 표시 처리에 의하면, 표시 장치(102)의 표시 화면에는, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상이 표시된다. 이에 의해, 정보 처리 장치(200)의 유저는, 예를 들면 다른 정보 처리 장치(500)의 유저가 복수 존재하는 경우에도, 표시 장치(102)의 표시 화면에는, 유저마다 다른 정보 처리 장치(500)의 유저를 나타낸 유저 화상이 표시되기 때문에, 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있다.
또한, 도 4의 표시 처리에 의하면, 표시 장치(102)의 표시 화면에는, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되는 표시 화상이 표시된다. 이에 의해, 정보 처리 장치(200)의 유저는, 상술한 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있음과 함께, 마치 같은 장소에서 커뮤니케이션을 행하고 있는 것 같은 현장감, 일체감, 또는 친근감 등을 얻을 수 있다.
또한, 도 4의 표시 처리에 의하면, 표시 장치(102)의 표시 화면에는, 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된다. 이에 의해, 정보 처리 장치(200)의 유저는, 상술한 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있음과 함께, 예를 들면 다른 정보 처리 장치(500)의 유저가 복수 존재하는 경우에도, 표시 장치(102)의 표시 화면에는, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되기 때문에, 다른 정보 처리 장치(500)의 어느 유저가 표현을 행한 것인지를 확실하게 파악할 수 있다.
또한, 도 4의 표시 처리에 의하면, 표시 장치(102)의 표시 화면에는, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된다. 이에 의해, 정보 처리 장치(200)의 유저는, 상술한 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있고, 상술한 마치 같은 장소에서 커뮤니케이션을 행하고 있을 것 같은 현장감, 일체감, 또는 친근감 등을 얻을 수 있고, 또한, 다른 정보 처리 장치(500)의 어느 유저가 표현을 행한 것인지를 확실하게 파악할 수 있다.
(5. 실시예)
다음에, 본 발명의 실시예에 관해 설명한다. 도 6a 내지 도 6d 및 도 7a 내지 도 7d는, 본 발명의 제 1의 실시예에 관해 설명하기 위한 설명도이다. 본 제 1의 실시예에서는, 도 2에서의 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C 및 D와의 네트워크 접속이 지시되어, 도 2에서의 표시 장치(102)의 표시 화면 및 표시 시스템(400)에서의 표시 화면에, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된 경우에 관해 설명한다.
우선, 정보 처리 장치(200)는, 도 6a에 도시하는 촬상 화상 및 도 6b에 도시하는 촬상 화상을 수신하여, 상술한 얼굴 인식에 의해 정보 처리 장치(200)의 유저 A 및 B 및 다른 정보 처리 장치(500)의 유저 C 및 D를 인식한다. 그리고, 정보 처리 장치(200)는, 도 6c에 도시하는 바와 같이, 표시 장치(102)의 표시 화면에, 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(110)과, 정보 처리 장치(200)의 유저 B를 나타낸 유저 화상(112)과, 다른 정보 처리 장치(500)의 유저 C를 나타낸 유저 화상(114)과, 다른 정보 처리 장치(500)의 유저 D를 나타낸 유저 화상(116)이 유저마다 표시되는 표시 화상을 표시한다. 마찬가지로, 다른 정보 처리 장치(500)는, 도 6d에 도시하는 바와 같이, 표시 시스템(400)에서의 표시 장치(402)의 표시 화면에, 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(410)과, 정보 처리 장치(200)의 유저 B를 나타낸 유저 화상(412)과, 다른 정보 처리 장치(500)의 유저 C를 나타낸 유저 화상(414)과, 다른 정보 처리 장치(500)의 유저 D를 나타낸 유저 화상(416)이 유저마다 표시되는 표시 화상을 표시한다.
뒤이어, 도 7a에 도시하는 바와 같이, 유저 D에 의한 표현으로서, 예를 들면, "후지산이 보고 싶다"라는 발화(發話)가 행하여지면, 다른 정보 처리 장치(500)는, 그 음성을 수신하여, 상술한 음성 인식에 의해 다른 정보 처리 장치(500)의 유저중의 화자인 유저 D 및 화자인 유저 D가 이야기하고 있는 내용을 인식한다. 그리고, 다른 정보 처리 장치(500)는, 도 7b에 도시하는 바와 같이, 표시 장치(402)의 표시 화면에, 화자인 유저 D를 나타낸 유저 화상(416)으로부터의 말풍선(418)중에 이야기하고 있는 내용의 문자 화상, 즉 "후지산이 보고 싶다."라는 화상이 표시되는 표시 화상을 표시한다. 마찬가지로, 정보 처리 장치(200)는, 도시는 하지 않지만, 표시 장치(102)의 표시 화면에, 화자인 유저 D를 나타낸 유저 화상(116)으로부터의 말풍선(도시 생략)중에 이야기하고 있는 내용의 문자 화상, 즉 "후지산이 보고 싶다"라는 화상이 표시되는 표시 화상을 표시한다.
또한, 도 7a에 도시하는 바와 같이, 유저 D에 의한 표현으로서, 예를 들면, 리모트 컨트롤러를 사용한 "후지산이 보고 싶다"하는 문자 데이터의 송신이 행하여지면, 다른 정보 처리 장치(500)는, 그 조작 신호를 수신하여, 상술한 행동 인식에 의해 다른 정보 처리 장치(500)의 유저중의 조작자인 유저 D 및 조작자의 조작 내용을 인식한다. 그리고, 다른 정보 처리 장치(500)는, 도 7b에 도시하는 바와 같이, 표시 장치(402)의 표시 화면에, 조작자인 유저 D를 나타낸 유저 화상(416)으로부터의 말풍선(418)중에 조작자의 조작 내용의 문자 화상, 즉 "후지산이 보고 싶다"라는 화상이 표시되는 표시 화상을 표시한다. 마찬가지로, 정보 처리 장치(200)는, 도시는 하지 않지만, 표시 장치(102)의 표시 화면에, 조작자인 유저 D를 나타낸 유저 화상(116)으로부터의 말풍선(도시 생략)중에 조작자의 조작 내용의 문자 화상, 즉 "후지산이 보고 싶다"라는 화상이 표시되는 표시 화상을 표시한다.
뒤이어, 도 7c에 도시하는 바와 같이, 유저 B에 의한 표현으로서, 예를 들면, 리모트 컨트롤러를 사용한 "후지산의 콘텐츠"의 표시 요구의 송신이 행하여지면, 정보 처리 장치(200)는, 그 조작 신호를 수신하여, 상술한 행동 인식에 의해 정보 처리 장치(200)의 유저중의 조작자인 유저 B 및 조작자의 조작 내용을 인식한다. 그리고, 정보 처리 장치(200)는, 도 7d에 도시하는 바와 같이, 표시 장치(102)의 표시 화면에, 조작자인 유저 B를 나타낸 유저 화상(112)으로부터의 말풍선(118)중에 조작자인 유저 B가 표시시키고 싶은 콘텐츠 화상, 즉 "후지산의 콘텐츠"의 화상이 표시되는 표시 화상을 표시한다. 마찬가지로, 다른 정보 처리 장치(500)는, 도시는 하지 않지만, 표시 장치(402)의 표시 화면에, 조작자인 유저 B를 나타낸 유저 화상(412)으로부터의 말풍선(도시 생략)중에 조작자인 유저 B가 표시시키고 싶은 콘텐츠 화상, 즉 "후지산의 콘텐츠"의 화상이 표시되는 표시 화상을 표시한다. 이때, 다른 정보 처리 장치(500)는, 정보 처리 장치(200)로부터 조작자인 유저 B가 표시시키고 싶은 콘텐츠 화상, 즉 "후지산의 콘텐츠"의 화상을 수신하여도 좋고, 예를 들면 통신 네트워크(800)를 경유하여 다른 장치로부터 당해 콘텐츠 화상을 수신하여도 좋다.
본 제 1의 실시예에 의하면, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 유저는, 정보 처리 장치(200)나 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있고, 마치 같은 장소에서 커뮤니케이션을 행하고 있을 것 같은 현장감, 일체감, 또는 친근감 등을 얻을 수 있고, 또한, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 어느 유저가 표현을 행한 것인지를 확실하게 파악할 수 있다.
도 8a 내지 도 8d는, 본 발명의 제 2의 실시예에 관해 설명하기 위한 설명도이다. 본 제 2의 실시예에서는, 도 2에서의 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C 및 D와의 네트워크 접속이 지시되어, 유저 C 및 D와의 네트워크 접속의 도중에 유저 A가 퇴석(退席)한 경우에 관해 설명한다.
도 8a 및 도 8b에 도시하는 바와 같이, 유저 C 및 D와의 네트워크 접속의 도중에 유저 A가 퇴석한 경우에는, 도 8c 및 도 8d에 도시하는 바와 같이, 표시 장치(102)의 표시 화면에는, 유저 A의 퇴석과 함께 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(120)이 소거(消去)된 표시 화상이 표시된다. 마찬가지로, 표시 시스템(400)의 표시 장치(402)의 표시 화면에도, 도시는 하지 않지만, 유저 A의 퇴석과 함께 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(도시 생략)이 소거된 표시 화상이 표시된다.
본 제 2의 실시예에 의하면, 표시 장치(402)의 표시 화면에 표시되는 표시 화상에서, 유저 A의 퇴석과 함께 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(120)이 소거되기 때문에, 다른 정보 처리 장치(500)의 유저는, 정보 처리 장치(200)의 유저 A의 퇴석을 확실하게 파악할 수 있다.
도 9a 내지 도 9d는, 본 발명의 제 3의 실시예에 관해 설명하기 위한 설명도이다. 본 제 3의 실시예에서는, 도 2에서의 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C 및 D와의 네트워크 접속이 지시되어, 유저 C 및 D와의 네트워크 접속의 도중에 유저 A의 얼굴의 표정이 웃고 있는 표정으로 변화한 경우에 관해 설명한다.
도 9a 내지 도 9d에 도시하는 바와 같이, 유저 C 및 D와의 네트워크 접속의 도중에 유저 A의 얼굴의 표정이 웃고 있는 표정으로 변화한 경우에는, 표시 장치(102)의 표시 화면에는, 얼굴의 표정이 웃고 있는 표정으로 변화한 유저 A를 나타낸 유저 화상(130)이 마치 날뛰고 있는 것처럼 표시시킨 표시 화상이 표시된다. 마찬가지로, 표시 시스템(400)의 표시 장치(402)의 표시 화면에도, 도시는 하지 않지만, 얼굴의 표정이 웃고 있는 표정으로 변화한 유저 A를 나타낸 유저 화상(도시 생략)이 마치 날뛰고 있는 것처럼 표시시킨 표시 화상이 표시된다.
본 제 3의 실시예에 의하면, 표시 장치(402)의 표시 화면에 표시되는 표시 화상에서, 얼굴의 표정이 웃고 있는 표정으로 변화한 유저 A를 나타낸 유저 화상(130)이 마치 날뛰고 있는 것처럼 표시되기 때문에, 다른 정보 처리 장치(500)의 유저는, 정보 처리 장치(200)의 유저 A의 얼굴의 표정이 웃고 있는 표정으로 변화한 것을 확실하게 파악할 수 있다.
도 10a 및 도 10b는, 본 발명의 제 4의 실시예에 관해 설명하기 위한 설명도이다. 본 제 4의 실시예에서는, 도 2에서의 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C 및 D와의 네트워크 접속이 지시되어, 도 2에서의 표시 장치(102)의 표시 화면 및 표시 시스템(400)에서의 표시 화면에, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된 경우에 관해 설명한다.
도 10a 및 도 10b에 도시하는 바와 같이, 정보 처리 장치(200)는, 상술한 얼굴 인식에 의해 정보 처리 장치(200)의 유저 A 및 B 및 다른 정보 처리 장치(500)의 유저 C 및 D를 인식함과 함께, 정보 처리 장치(200)의 유저 A 및 B 및 다른 정보 처리 장치(500)의 유저 C 및 D의 성별을 인식하고, 표시 장치(102)의 표시 화면에, 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(140)과, 정보 처리 장치(200)의 유저 B를 나타낸 유저 화상(144)과, 다른 정보 처리 장치(500)의 유저 C를 나타낸 유저 화상(142)과, 다른 정보 처리 장치(500)의 유저 D를 나타낸 유저 화상(146)이 유저마다 및 성별마다 표시되는 표시 화상을 표시한다. 마찬가지로, 도시는 하지 않지만, 다른 정보 처리 장치(500)는, 상술한 얼굴 인식에 의해 정보 처리 장치(200)의 유저 A 및 B 및 다른 정보 처리 장치(500)의 유저 C 및 D를 인식함과 함께, 정보 처리 장치(200)의 유저 A 및 B 및 다른 정보 처리 장치(500)의 유저 C 및 D의 성별을 인식하고, 표시 장치(402)의 표시 화면에, 정보 처리 장치(200)의 유저 A를 나타낸 유저 화상(도시 생략)과, 정보 처리 장치(200)의 유저 B를 나타낸 유저 화상(도시 생략)과, 다른 정보 처리 장치(500)의 유저 C를 나타낸 유저 화상(도시 생략)과, 다른 정보 처리 장치(500)의 유저 D를 나타낸 유저 화상(도시 생략)이 유저마다 및 성별마다 표시되는 표시 화상을 표시한다.
본 제 4의 실시예에 의하면, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 유저는, 정보 처리 장치(200)나 다른 정보 처리 장치(500)의 어느 유저의 성별에 대해도 확실하게 파악할 수 있다.
도 11a 내지 도 11e는, 본 발명의 제 5의 실시예에 관해 설명하기 위한 설명도이다. 본 제 5의 실시예에서는, 도 2에서의 다른 정보 처리 장치(500)에서, 예를 들면, 유저 C에 의해 유저 A 및 B와의 네트워크 접속이 지시되어, 도 2에서의 표시 시스템(400)에서의 표시 화면에, 다른 정보 처리 장치(500)의 표시 화상 생성부(도시 생략)가 생성한 표시 화상(420)이 표시되어 있는 때에, 표시 시스템(400)에서의 표시 화면에 콘텐츠 화상(430)을 표시시키는 경우에 관해 설명한다.
도 11a 내지 도 11e에 도시하는 바와 같이, 표시 시스템(400)에서의 표시 화면에, 표시 화상(420)이 표시되어 있을 때, 콘텐츠 화상(430)을 표시시키는 경우에는, 표시 화상(420)을 페이드아웃시키면서 표시 화상(420)을 서서히 오른쪽 방향으로 비켜 놓고, 또한, 왼쪽 방향으로부터 콘텐츠 화상(430)을 오른쪽 방향으로 비켜 놓아, 콘텐츠 화상(430)을 표시시킨다. 그리고, 도 11e에 도시하는 바와 같이, 표시 시스템(400)에서의 표시 화면에, 네트워크 접속중인 것을 나타내는 표시(440)을 표시시킨다.
본 제 5의 실시예에 의하면, 다른 정보 처리 장치(500)의 유저는, 유저 A 및 B와의 네트워크 접속중인 것을 확실하게 파악할 수 있다.
도 12a 및 도 12b는, 본 발명의 제 6의 실시예에 관해 설명하기 위한 설명도이다. 본 제 6의 실시예에서는, 도 2에서의 정보 처리 장치(200)에서, 예를 들면, 유저 A에 의해 유저 C와의 네트워크 접속이 지시되어, 도 2에서의 표시 장치(102)의 표시 화면에, 콘텐츠 화상과 표시 화상 생성부(206)가 생성한 표시 화상을 중첩 표시시키는 경우에 관해 설명한다.
도 12a 및 도 12b에 도시하는 바와 같이, 표시 장치(102)의 표시 화면에, 콘텐츠 화상과 표시 화상 생성부(206)가 생성한 표시 화상을 중첩 표시시키는 경우에는, 유저 화상(150, 152)을 서서히 표시 화면의 화면 밖으로 이동시킨다. 그리고, 도 12b에 도시하는 바와 같이, 유저 화상(150, 152)으로 표시된 유저가 발화 등의 표현을 행한 경우에, 유저 화상(150, 152)의 이동처에 상당한 위치에서, 예를 들면 파문(波紋) 표현을 행하도록 한다.
본 제 6의 실시예에 의하면, 정보 처리 장치(200)의 유저는, 콘텐츠 화상의 전체를 볼 수 있음과 함께, 유저 C와의 네트워크 접속중인 것을 확실하게 파악할 수 있다.
도 13a 내지 도 13l은, 본 발명의 제 7의 실시예에 관해 설명하기 위한 설명도이다. 본 제 7의 실시예에서는, 도 2에서의 정보 처리 장치(700)에서, 예를 들면, 유저 E에 의해 유저 A 및 B 및 유저 C 및 D와의 네트워크 접속이 지시되어, 도 2에서의 표시 시스템(600)에서의 표시 화면에, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상이 표시된 경우에 관해 설명한다.
도 13a 내지 도 13l에 도시하는 바와 같이, 표시 시스템(600)에서의 표시 화면에는, 정보 처리 장치(200) 및 다른 정보 처리 장치(500, 700)의 유저가 콘텐츠를 공유하는 영역으로서의 공유 콘텐츠 영역(A1)과, 다른 정보 처리 장치(700)의 유저 E 및 F의 콘텐츠를 나타낸 영역으로서의 유저별(別) 콘텐츠 영역(A2)이 설정된다. 그리고, 예를 들면 유저 E에 의해 공급 콘텐츠 영역(A1)에 표시시키는 콘텐츠로서 콘텐츠 화상(602)이 선택되면, 공유 콘텐츠 영역(A1)에서의 유저 E에 대응하는 위치로서의 하측의 영역에 콘텐츠 화상(602)에 대응하는 콘텐츠 화상(604)이 표시되어 서서히 확대된다(도 13b 내지 도 13d). 또한, 예를 들면 유저 A에 의해 공급 콘텐츠 영역(A1)에 표시시키는 콘텐츠로서 콘텐츠 화상(도시 생략)이 선택되면, 유저 A를 나타낸 유저 화상이 확대됨과 함께, 공유 콘텐츠 영역(A1)에서의 유저 A에 대응하는 위치로서의 우하측의 영역에 유저 A가 선택한 콘텐츠 화상(도시 생략)에 대응한 콘텐츠 화상(606)이 표시되어 서서히 확대된다(도 13f 내지 도 13h). 또한, 예를 들면 유저 C에 의해 공급 콘텐츠 영역(A1)에 표시시키는 콘텐츠로서 콘텐츠 화상(도시 생략)이 선택되면, 유저 C를 나타낸 유저 화상이 확대됨과 함께, 공유 콘텐츠 영역(A1)에서의 유저 C에 대응하는 위치로서의 좌상측의 영역에 유저 C가 선택한 콘텐츠 화상(도시 생략)에 대응한 콘텐츠 화상(608)이 표시되어 서서히 확대된다(도 13j 내지 도 13l). 이때, 도 13k에 도시하는 바와 같이, 유저 A가 선택한 콘텐츠 화상(606)을 페이드아웃시키도록 하여도 좋다.
본 제 7의 실시예에 의하면, 다른 정보 처리 장치(700)의 유저는, 정보 처리 장치(200)나 다른 정보 처리 장치(500)의 어느 유저의 존재에 대해서도 확실하게 파악할 수 있고, 마치 같은 장소에서 커뮤니케이션을 행하고 있을 것 같은 현장감, 일체감, 또는 친근감 등을 얻을 수 있고, 또한, 정보 처리 장치(200) 및 다른 정보 처리 장치(500)의 어느 유저가 표현을 행한 것인지를 확실하게 파악할 수 있다.
(6. 정보 처리 장치의 기능 구성(제 2의 실시의 형태))
다음에, 본 발명의 제 2의 실시의 형태에 관한 정보 처리 장치의 기능 구성에 관해 설명한다. 도 14는, 본 실시의 형태에 관한 정보 처리 장치의 기능 구성의 한 예를 설명하기 위한 설명도이다. 본 실시의 형태에서의 정보 처리 장치로서의 정보 처리 장치(250)는, 촬상부(252)와, 표시부(254)를 구비하고 있는 점이, 상술한 제 1의 실시의 형태와 다를 뿐이기 때문에, 중복된 구성, 작용에 관해서는 설명을 생략하고, 이하에 다른 구성, 작용에 관한 설명을 행한다.
또한, 도 14에는, 정보 처리 장치(250)의 유저로서의 유저 A 및 B와, 정보 처리 장치(250)가 접속 가능한 통신 네트워크(800)와, 통신 네트워크(800)에 접속 가능한 통신 서버(300)나 다른 정보 처리 장치(550, 750)와, 다른 정보 처리 장치(550)의 유저로서의 유저 C 및 D와, 다른 정보 처리 장치(750)의 유저로서의 유저 E 및 F가 도시되어 있다. 다른 정보 처리 장치(550, 750)는, 정보 처리 장치(250)와 같은 구성을 갖기 때문에, 상세한 설명은 생략한다. 다른 정보 처리 장치(550, 750)는, 본 발명의 통신 대상 장치의 한 예이다.
도 13에서, 정보 처리 장치(250)는, 예를 들면, 촬상부(252)와, 얼굴 인식부(204)와, 표시 화상 생성부(206)와, 표시부(254)와, 표시 제어부(210)와, 통신부(212)와, 음성 입력부(214)와, 음성 인식부(216)와, 조작 신호 입력부(218)와, 행동 인식부(220)와, 기억부(222)를 구비한다.
촬상부(252)는, 표시부(254)의 표시 화면을 보고 있는 유저 A 및 B의 정지화상 또는 동화상을 촬상할 수 있다. 그리고, 촬상부(252)는, 촬상에 의해 생성한 촬상 화상을 통신부(212)나, 얼굴 인식부(204), 표시 화상 생성부(206)에 전달할 수 있다.
표시부(254)는, 예를 들면, 정보 처리 장치(250) 및 다른 정보 처리 장치(550, 750)의 유저를 나타낸 유저 화상이 유저마다 표시되고, 표현을 행한 유저를 나타낸 유저 화상과, 표현의 내용이 대응지어져서 표시되는 표시 화상을 표시할 수 있다.
본 실시의 형태에 의하면, 정보 처리 장치(250)가 상술한 도 4의 표시 처리를 실행함에 의해, 상술한 제 1의 실시의 형태와 같은 효과를 이룰 수 있다. 또한, 본 실시의 형태에 의하면, 예를 들면, 도 2에 도시하는 표시 시스템(100)을 별도 준비할 필요를 없앨 수 있어서, 간이하게 실시할 수 있도록 된다.
또한, 본 발명의 목적은, 상술한 각 실시의 형태의 기능을 실현하는 소프트웨어의 프로그램 코드를 기억한 기억 매체를, 시스템 또는 장치에 공급하고, 그 시스템 또는 장치의 컴퓨터(또는 CPU, MPU 등)가 기억 매체에 격납된 프로그램 코드를 판독하여 실행함에 의해서도 달성된다.
이 경우, 기억 매체로부터 판독된 프로그램 코드 자체가 상술한 각 실시의 형태의 기능을 실현하게 되고, 그 프로그램 코드 및 그 프로그램 코드를 기억한 기억 매체는 본 발명을 구성하게 된다.
또한, 프로그램 코드를 공급하기 위한 기억 매체로서는, 예를 들면, 플로피(등록상표) 디스크, 하드 디스크, 광자기 디스크, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD+RW 등의 광디스크, 자기 테이프, 불휘발성의 메모리 카드, ROM 등을 이용할 수 있다. 또는, 프로그램 코드를 네트워크를 통하여 다운로드하여도 좋다.
또한, 컴퓨터가 판독한 프로그램 코드를 실행함에 의해, 상술한 각 실시의 형태의 기능이 실현될 뿐만 아니라, 그 프로그램 코드의 지시에 의거하여, 컴퓨터상에서 가동하고 있는 OS(Operating System) 등이 실제의 처리의 일부 또는 전부를 행하고, 그 처리에 의해 상술한 각 실시의 형태의 기능이 실현되는 경우도 포함된다.
또한, 기억 매체로부터 판독된 프로그램 코드가, 컴퓨터에 삽입된 기능 확장 보드나 컴퓨터에 접속된 기능 확장 유닛에 구비되는 메모리에 기록된 후, 그 프로그램 코드의 지시에 의거하여, 그 확장 기능을 확장 보드나 확장 유닛에 구비되는 CPU 등이 실제의 처리의 일부 또는 전부를 행하고, 그 처리에 의해 상술한 각 실시의 형태의 기능이 실현되는 경우도 포함된다.
이상, 첨부 도면을 참조하면서 본 발명의 알맞은 실시의 형태에 관해 상세히 설명하였지만, 본 발명은 이러한 예로 한정되지 않는다. 본 발명이 속하는 기술의 분야에서 통상의 지식을 갖는 자라면, 특허청구의 범위에 기재된 기술적 사상의 범주 내에서, 각종의 변경례 또는 수정례에 상도 할 수 있음은 분명하고, 이들에 대해서도, 당연히 본 발명의 기술적 범위에 속하는 것이라고 이해된다.
예를 들면, 통신 서버(300)에서, 다른 정보 처리 장치(500, 700)로부터의 촬상 화상으로부터 다른 정보 처리 장치(500, 700)의 유저나 유저의 표정을 인식하도록 하여도 좋다. 또한, 통신 서버(300)에서, 다른 정보 처리 장치(500, 700)로부터의 음성으로부터 다른 정보 처리 장치(500, 700)의 유저중의 화자인 유저나 화자인 유저의 이야기하고 있는 내용을 인식하도록 하여도 좋다. 또한, 통신 서버(300)에서, 다른 정보 처리 장치(500, 700)로부터의 조작 신호로부터 다른 정보 처리 장치(500, 700)의 유저의 행동을 인식하도록 하여도 좋다.
또한, 정보 처리 장치(200)는, 콘텐츠를 다른 정보 처리 장치(500, 700)에 송신하고, 유저 사이에서 콘텐츠를 공유하도록 하여도 좋다.
100 : 표시 시스템
102 : 표시 장치
104 : 촬상 장치
200 : 정보 처리 장치
202 : 화상 입력부
204 : 얼굴 인식부
206 : 표시 화상 생성부
208 : 출력부
210 : 표시 제어부
212 : 통신부
214 : 음성 입력부
216 : 음성 인식부
218 : 조작 신호 입력부
220 : 행동 인식부
222 : 기억부
300 : 통신 서버
400, 600 : 다른 표시 시스템
500, 700 : 다른 정보 처리 장치
800 : 통신 네트워크

Claims (20)

  1. 촬상 화상에서 유저를 인식하는 유저 인식부와,
    유저의 행동을 인식하는 행동 인식부와,
    상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보을 포함하는 유저 행동 정보를 생성하는 생성부와,
    외부 기기로 상기 유저 행동 정보를 송신하는 통신부를 구비하는 정보 처리 장치.
  2. 제 1항에 있어서,
    상기 유저 인식부는, 상기 촬상 화상에서, 얼굴 검출에 의거하여 상기 유저를 인식하는 것을 특징으로 하는 정보 처리 장치.
  3. 제 1항에 있어서,
    상기 유저 행동 정보는 상기 촬상 화상, 얼굴 표정, 음성 또는 동작에서 나타나는 행동 중 적어도 하나인 것을 특징으로 하는 정보 처리 장치.
  4. 제 1항에 있어서,
    상기 촬상 화상을 촬상하는 촬상부를 더 구비하는 것을 특징으로 하는 정보 처리 장치.
  5. 제 1항에 있어서,
    상기 유저 행동 정보는 상기 촬상 화상의 일부를 포함하는 것을 특징으로 하는 정보 처리 장치.
  6. 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하는 통신부와,
    표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를 제어하는 생성부를 구비하는 정보 처리 장치.
  7. 제 6항에 있어서,
    상기 시각적 표현은 상기 인식된 유저에 의한 촬상 화상, 얼굴 표정, 음성 또는 동작에서 나타나는 행동 중 적어도 하나인 것을 특징으로 하는 정보 처리 장치.
  8. 제 6항에 있어서,
    상기 시각적 표현 및 상기 유저 화상은 대응지어져서 표시되는 것을 특징으로 하는 정보 처리 장치.
  9. 제 6항에 있어서,
    상기 유저 행동 정보는 촬상 화상의 일부를 포함하는 것을 특징으로 하는 정보 처리 장치.
  10. 촬상 화상에서 유저를 인식하고,
    유저의 행동을 인식하고,
    프로세서에 의하여, 상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보를 포함하는 유저 행동 정보를 생성하고,
    외부 장치로 상기 유저 행동 정보를 송신하는 정보 처리의 방법.
  11. 제 10항에 있어서,
    상기 유저는, 상기 촬상 화상에서, 얼굴 검출에 의거하여 인식되는 것을 특징으로 하는 정보 처리의 방법.
  12. 제 10항에 있어서,
    상기 유저 행동 정보는 상기 촬상 화상, 얼굴 표정, 음성 또는 동작에서 나타나는 행동 중 적어도 하나인 것을 특징으로 하는 정보 처리 방법.
  13. 제 10항에 있어서,
    상기 촬상 화상을 촬상하는 것을 더 구비하는 것을 특징으로 하는 정보 처리 방법.
  14. 제 10항에 있어서,
    상기 유저 행동 정보는 상기 촬상 화상의 일부를 포함하는 것을 특징으로 하는 정보 처리 방법.
  15. 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하고,
    표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를, 프로세스에 의하여 제어하는 정보 처리 방법.
  16. 제 15항에 있어서,
    상기 시각적 표현은 상기 인식된 유저에 의한 촬상 화상, 얼굴 표정, 음성 또는 동작에서 나타나는 행동 중 적어도 하나인 것을 특징으로 하는 정보 처리 방법.
  17. 제 15항에 있어서,
    상기 시각적 표현 및 상기 유저 화상은 대응지어져서 표시되는 것을 특징으로 하는 정보 처리 방법.
  18. 제 15항에 있어서,
    상기 유저 행동 정보는 촬상 화상의 일부를 포함하는 것을 특징으로 하는 정보 처리 방법.
  19. 촬상 화상에서 유저를 인식하고,
    유저의 행동을 인식하고,
    상기 인식된 유저 및 상기 인식된 유저의 상기 인식된 행동의 정보를 포함하는 유저 행동 정보를 생성하고,
    외부 장치로 상기 유저 행동 정보를 송신하는 것을 컴퓨터에서 실행시키는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록된 기록매체.
  20. 외부 장치로부터 인식된 유저 및 상기 인식된 유저의 인식된 행동의 정보를 포함하는 유저 행동 정보를 수신하고,
    표시 화면에, 상기 인식된 유저의 정보에 상당한 유저 화상 및 상기 인식된 행동의 정보에 상당한 시각적 표현을 포함하는 화상의 표시를 제어하는 것을 컴퓨터에서 실행시키는 것을 특징으로 하는 컴퓨터가 판독 가능한 프로그램이 기록된 기록매체.
KR1020137001386A 2010-10-07 2011-09-30 정보 처리 장치 및 정보 처리 방법 KR102091885B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2010-227868 2010-10-07
JP2010227868A JP2012085009A (ja) 2010-10-07 2010-10-07 情報処理装置および情報処理方法
PCT/JP2011/005535 WO2012046425A1 (en) 2010-10-07 2011-09-30 Information processing device and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020197002122A Division KR102056031B1 (ko) 2010-10-07 2011-09-30 정보 처리 장치 및 정보 처리 방법

Publications (2)

Publication Number Publication Date
KR20130116860A true KR20130116860A (ko) 2013-10-24
KR102091885B1 KR102091885B1 (ko) 2020-03-20

Family

ID=45927432

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020137001386A KR102091885B1 (ko) 2010-10-07 2011-09-30 정보 처리 장치 및 정보 처리 방법
KR1020197002122A KR102056031B1 (ko) 2010-10-07 2011-09-30 정보 처리 장치 및 정보 처리 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020197002122A KR102056031B1 (ko) 2010-10-07 2011-09-30 정보 처리 장치 및 정보 처리 방법

Country Status (8)

Country Link
US (2) US9171199B2 (ko)
EP (1) EP2625849A4 (ko)
JP (1) JP2012085009A (ko)
KR (2) KR102091885B1 (ko)
CN (1) CN103141085B (ko)
BR (1) BR112013007719A2 (ko)
RU (1) RU2651885C2 (ko)
WO (1) WO2012046425A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8933967B2 (en) 2005-07-14 2015-01-13 Charles D. Huston System and method for creating and sharing an event using a social network
US11972450B2 (en) 2005-07-14 2024-04-30 Charles D. Huston Spectator and participant system and method for displaying different views of an event
US8207843B2 (en) 2005-07-14 2012-06-26 Huston Charles D GPS-based location and messaging system and method
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
US9031543B2 (en) 2012-06-06 2015-05-12 Qualcomm Incorporated Visualization of network members based on location and direction
KR20140004515A (ko) * 2012-07-03 2014-01-13 삼성전자주식회사 디스플레이 장치, 대화형 시스템 및 응답 정보 제공 방법
US9350944B2 (en) 2012-08-24 2016-05-24 Qualcomm Incorporated Connecting to an onscreen entity
JP5894055B2 (ja) * 2012-10-18 2016-03-23 日本電信電話株式会社 映像データ制御装置、映像データ制御方法及び映像データ制御プログラム
JP6030945B2 (ja) * 2012-12-20 2016-11-24 日本電信電話株式会社 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム
US9467486B2 (en) 2013-03-15 2016-10-11 Samsung Electronics Co., Ltd. Capturing and analyzing user activity during a multi-user video chat session
EP2779636A3 (en) * 2013-03-15 2015-04-01 Samsung Electronics Co., Ltd Display apparatus, server and control method thereof
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
KR102192704B1 (ko) 2013-10-22 2020-12-17 엘지전자 주식회사 영상 출력 장치
EP3070585A4 (en) * 2013-11-13 2017-07-05 Sony Corporation Display control device, display control method and program
JP6312345B2 (ja) * 2014-05-29 2018-04-18 シャープ株式会社 テレビ会議システム
KR102299764B1 (ko) * 2014-11-28 2021-09-09 삼성전자주식회사 전자장치, 서버 및 음성출력 방법
JP6635049B2 (ja) * 2014-12-26 2020-01-22 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
JP2021096270A (ja) * 2018-03-27 2021-06-24 ソニーグループ株式会社 情報処理装置および情報処理方法
CN113077537B (zh) * 2021-04-29 2023-04-25 广州虎牙科技有限公司 一种视频生成方法、存储介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040016688A (ko) * 2002-08-19 2004-02-25 삼성전자주식회사 부분화면과 전체화면을 동시에 스케일링하는 장치 및 방법
JP2006050370A (ja) 2004-08-06 2006-02-16 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20060070113A (ko) * 2004-12-20 2006-06-23 삼성전자주식회사 미리 준비된 미디어 데이터를 전송하는 화상통화 방법
JP4212274B2 (ja) * 2001-12-20 2009-01-21 シャープ株式会社 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
JP2010028715A (ja) * 2008-07-24 2010-02-04 Brother Ind Ltd 会議画像生成方法、会議システム、サーバ装置及び会議装置等
KR20100062207A (ko) * 2008-12-01 2010-06-10 삼성전자주식회사 화상통화 중 애니메이션 효과 제공 방법 및 장치

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6151619A (en) * 1996-11-26 2000-11-21 Apple Computer, Inc. Method and apparatus for maintaining configuration information of a teleconference and identification of endpoint during teleconference
JP2000184346A (ja) 1998-12-17 2000-06-30 Toshiba Corp 情報端末装置及び情報通信システム並びに表示状態制御方法
RU2218593C2 (ru) * 2000-07-10 2003-12-10 Свириденко Андрей Владимирович Способ телекоммуникаций в компьютерных сетях
AU2002216345A1 (en) * 2000-12-19 2002-07-01 Speechview Ltd. Generating visual representation of speech by any individuals of a population
US7598975B2 (en) * 2002-06-21 2009-10-06 Microsoft Corporation Automatic face extraction for use in recorded meetings timelines
JP4345353B2 (ja) 2003-05-20 2009-10-14 株式会社日立製作所 コミュニケーション端末装置
US20040243416A1 (en) * 2003-06-02 2004-12-02 Gardos Thomas R. Speech recognition
JP2005020647A (ja) 2003-06-30 2005-01-20 Canon Inc 通信端末、通信端末の制御方法、通信端末の制御プログラム
JP4144492B2 (ja) * 2003-09-19 2008-09-03 株式会社日立製作所 画像表示装置
JP4572615B2 (ja) * 2004-07-27 2010-11-04 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4547236B2 (ja) 2004-11-12 2010-09-22 株式会社Access ウェブブラウザおよび表示装置
JP2006174292A (ja) * 2004-12-17 2006-06-29 Fuji Photo Film Co Ltd 合成写真作成システム及び装置
JP4218637B2 (ja) * 2004-12-28 2009-02-04 沖電気工業株式会社 情報端末装置
JP2008085493A (ja) 2006-09-26 2008-04-10 Oki Electric Ind Co Ltd 遠隔会話システム、遠隔会話装置および遠隔会話方法
JP4699339B2 (ja) 2006-11-15 2011-06-08 シャープ株式会社 通信装置、通信方法、通信装置制御プログラム、および記録媒体
JP4747125B2 (ja) 2007-03-29 2011-08-17 株式会社デンソーアイティーラボラトリ 移動体搭載装置
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
JP5074864B2 (ja) 2007-09-03 2012-11-14 シャープ株式会社 データ送信装置、データ送信方法、視聴環境制御装置、視聴環境制御システム、及び視聴環境制御方法
US20100153497A1 (en) * 2008-12-12 2010-06-17 Nortel Networks Limited Sharing expression information among conference participants
JP5423068B2 (ja) * 2009-03-12 2014-02-19 ブラザー工業株式会社 会議端末装置、表示制御方法、表示制御プログラム
JP5201050B2 (ja) * 2009-03-27 2013-06-05 ブラザー工業株式会社 会議支援装置、会議支援方法、会議システム、会議支援プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4212274B2 (ja) * 2001-12-20 2009-01-21 シャープ株式会社 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム
KR20040016688A (ko) * 2002-08-19 2004-02-25 삼성전자주식회사 부분화면과 전체화면을 동시에 스케일링하는 장치 및 방법
JP2006050370A (ja) 2004-08-06 2006-02-16 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20060070113A (ko) * 2004-12-20 2006-06-23 삼성전자주식회사 미리 준비된 미디어 데이터를 전송하는 화상통화 방법
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
JP2010028715A (ja) * 2008-07-24 2010-02-04 Brother Ind Ltd 会議画像生成方法、会議システム、サーバ装置及び会議装置等
KR20100062207A (ko) * 2008-12-01 2010-06-10 삼성전자주식회사 화상통화 중 애니메이션 효과 제공 방법 및 장치

Also Published As

Publication number Publication date
JP2012085009A (ja) 2012-04-26
US9674488B2 (en) 2017-06-06
KR102091885B1 (ko) 2020-03-20
RU2651885C2 (ru) 2018-04-24
CN103141085A (zh) 2013-06-05
EP2625849A4 (en) 2015-08-12
KR102056031B1 (ko) 2019-12-13
CN103141085B (zh) 2018-04-27
US20130182914A1 (en) 2013-07-18
KR20190010733A (ko) 2019-01-30
EP2625849A1 (en) 2013-08-14
BR112013007719A2 (pt) 2016-08-09
US9171199B2 (en) 2015-10-27
US20160050395A1 (en) 2016-02-18
WO2012046425A1 (en) 2012-04-12
RU2013114293A (ru) 2014-10-10

Similar Documents

Publication Publication Date Title
KR102056031B1 (ko) 정보 처리 장치 및 정보 처리 방법
JP5740972B2 (ja) 情報処理装置および情報処理方法
CN110381197A (zh) 多对一投屏中音频数据的处理方法、装置及***
CN105915831B (zh) 声音记录装置、声音记录方法以及记录介质
US9148586B2 (en) Terminal apparatus for combining images from two different cameras based on detected sound
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN107948562B (zh) 视频录制方法和视频录制终端
US20130300934A1 (en) Display apparatus, server, and controlling method thereof
US9215003B2 (en) Communication apparatus, communication method, and computer readable recording medium
CN110601959A (zh) 会话消息显示方法、装置、终端及存储介质
CN109618218B (zh) 一种视频处理方法及移动终端
JP2010276792A (ja) 画像表示システム、画像表示方法、及び携帯端末
JP2016015009A (ja) 情報処理システム、情報処理端末、および情報処理方法
JP2008199197A (ja) コンテンツ出力システム、携帯通信端末およびコンテンツ出力装置
CN114285938A (zh) 一种设备推荐方法及设备
JP5914992B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP5929535B2 (ja) エフェクト制御装置、エフェクト制御方法、およびプログラム
CN115700847A (zh) 绘本阅读方法及相关设备
JP2014209778A (ja) 情報処理装置および情報処理方法
JP2015015728A (ja) 制御装置、および制御方法
US11677836B2 (en) Server apparatus, communication system and communication method
KR101364844B1 (ko) 화상통화기능을 갖는 이동통신단말기 및 그 제어방법
CN110662113A (zh) 视频播放方法、装置和计算机可读存储介质
JP2004336805A (ja) 通信端末装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2019101000229; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20190122

Effective date: 20191121

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant