JP2014130467A - 情報処理装置、情報処理方法及びコンピュータプログラム - Google Patents

情報処理装置、情報処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2014130467A
JP2014130467A JP2012287635A JP2012287635A JP2014130467A JP 2014130467 A JP2014130467 A JP 2014130467A JP 2012287635 A JP2012287635 A JP 2012287635A JP 2012287635 A JP2012287635 A JP 2012287635A JP 2014130467 A JP2014130467 A JP 2014130467A
Authority
JP
Japan
Prior art keywords
atmosphere
information processing
processing apparatus
space
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012287635A
Other languages
English (en)
Inventor
Rodrigues Gustavo Dore
ロドリゲス グスタボ ドリー
Yoshihiro Chosokabe
嘉博 長曽我部
Takahide Yamaguchi
高秀 山口
Hideki Wakamatsu
英樹 若松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012287635A priority Critical patent/JP2014130467A/ja
Priority to US14/135,969 priority patent/US20140188876A1/en
Priority to CN201310711285.5A priority patent/CN103914136B/zh
Priority to EP13198855.2A priority patent/EP2749992A3/en
Publication of JP2014130467A publication Critical patent/JP2014130467A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/211User input interfaces for electrophonic musical instruments for microphones, i.e. control of musical parameters either directly from microphone signals or by physically associated peripherals, e.g. karaoke control switches or rhythm sensing accelerometer within the microphone casing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/455Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】センサによって取得される情報を解析し、解析結果に基づいてその行動内容に対する適切な処理を実行することが可能な情報処理装置を提供する。
【解決手段】センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析部と、前記雰囲気解析部の解析の結果に基づいて前記空間に適した処理を実行する処理実行部と、を備える、情報処理装置が提供される。係る情報処理装置は、センサによって取得される情報を解析し、解析結果に基づいてその行動内容に対する適切な処理を実行することが可能となる。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法及びコンピュータプログラムに関する。
楽曲データを解析して得られるデータを用いた様々な技術が提案されている。例えば特許文献1、2は、楽曲データを解析して得られるメタデータを用いて、楽曲データをマッピングする技術を開示している。
特開2008−250857号公報 特開2010−117973号公報
このように、楽曲データを解析して得られるデータを用いて、楽曲データに対する適切な処理を実行する技術は提案されてきているが、さらに解析対象となる情報の範囲を広げることで、データの解析及びそのデータに対する適切な処理の実行が可能になる。
特に、人間の行動内容を取得することが出来るセンサの技術が発達しており、センサ等を通じて取得した人間の行動内容を解析することで、その人間に対して適切な処理を提供できるようになると考えられる。人間の行動内容を解析することで、その人間に対して適切な処理を提供出来るようになれば、その人間は、手作業で目的のデータや処理を探し出す手間が省略できるようになり、利便性の向上が期待できる。
そこで本開示は、センサによって取得される情報を解析し、解析結果に基づいてその行動内容に対する適切な処理を実行することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供する。
本開示によれば、センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析部と、前記雰囲気解析部の解析の結果に基づいて前記空間に適した処理を実行する処理実行部と、を備える、情報処理装置が提供される。
また本開示によれば、センサによって検出された人間の行動に関するデータを用いて前記センサが設置されている空間の雰囲気を決定する雰囲気解析部と、前記雰囲気解析部が決定した前記空間の雰囲気に基づいて前記空間及び前記人間に適した処理を決定して実行する処理実行部と、を備える、情報処理装置が提供される。
また本開示によれば、センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、を備える、情報処理方法が提供される。
また本開示によれば、コンピュータに、センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、センサによって取得される情報を解析し、解析結果に基づいてその行動内容に対する適切な処理を実行することが可能な、新規かつ改良された情報処理装置、情報処理方法及びコンピュータプログラムを提供することができる。
本開示の一実施形態の概要を示す説明図である。 本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。 本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。 雰囲気解析テーブル記憶部141が記憶するテーブルの例を示す説明図である。 本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。 本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。 情報処理装置100の周囲の空間の雰囲気と、再生される楽曲データとの関係の例を示すための説明図である。 情報処理装置100の周囲の空間の雰囲気と、再生される楽曲データとの関係の例を示すための説明図である。 情報処理装置100の周囲の空間の雰囲気と、再生される楽曲データとの関係の例を示すための説明図である。 本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。 本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。 情報処理装置100の周囲の空間の雰囲気と、提示されるアドバイスとの関係の例を示すための説明図である。 本開示の一実施形態に係る情報処理装置100のハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.本開示の一実施形態>
[本開示の一実施形態の概要]
[情報処理装置の機能構成例]
[情報処理装置の動作例]
<2.ハードウェア構成例>
<3.まとめ>
<1.本開示の一実施形態>
[本発明の一実施形態の概要]
まず、図面を参照しながら、本開示の一実施形態の概要について説明する。図1は、本開示の一実施形態の概要を示す説明図である。以下、図1を用いて本開示の一実施形態の概要について説明する。
図1には、ノートブック型の情報処理装置100を操作するユーザ1の姿が図示されている。そして情報処理装置100には、情報処理装置100の前方を撮像するための撮像部110、情報処理装置100の前方をセンシングするためのセンサ120、及び情報処理装置100の周囲の音を収音するためのマイク130が接続されている。
本開示の一実施形態に係る情報処理装置100は、撮像部110、センサ120、及びマイク130から取得されるデータを用いて、情報処理装置100が置かれている空間の雰囲気を解析する。そして情報処理装置100は、解析によって決定した、情報処理装置100が置かれている空間の雰囲気に応じた適切な処理を実行する。
本開示の一実施形態に係る情報処理装置100が置かれている空間の雰囲気に応じた適切な処理の例としては、雰囲気に合った楽曲の選択、雰囲気に合った情報処理装置100の機能の制御、雰囲気に応じたユーザ1に対するアドバイスの提示、などがある。
また本開示の一実施形態に係る情報処理装置100は、撮像部110、センサ120、及びマイク130から取得されるデータの他に、情報処理装置100の使用状況の情報を用いて、情報処理装置100が置かれている空間の雰囲気を解析することもできる。情報処理装置100の使用状況の情報とは、例えば情報処理装置100が起動されてからの時間の情報、情報処理装置100で実行されているアプリケーションの情報等がある。情報処理装置100で実行されているアプリケーションの情報には、例えば情報処理装置100で実行されているアプリケーションのカテゴリの情報、例えばビジネスで使用されるアプリケーションなのか、趣味で使用されるアプリケーションなのかの情報が含まれていても良い。
以上、図1を用いて本開示の一実施形態の概要について説明した。次に、本開示の一実施形態に係る情報処理装置100の機能構成例について説明する。
[情報処理装置の機能構成例]
図2は、本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。以下、図2を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明する。
図2に示したように、本開示の一実施形態に係る情報処理装置100は、撮像部110と、センサ120と、マイク130と、雰囲気解析部140と、雰囲気解析テーブル記憶部141と、処理実行部150と、を含んで構成される。
撮像部110は、図1にも示したように、情報処理装置100の前方を動画像で撮像する。撮像部110は、特に、情報処理装置100を操作するユーザの姿や、情報処理装置100が置かれている部屋の様子を撮像するために設けられる。撮像部110が撮像する動画像は雰囲気解析部140に送られる。
センサ120は、図1にも示したように、情報処理装置100の前方をセンシングする。センサ120として、例えば深度センサが用いられていても良い。センサ120として深度センサが用いられることで、センサ120は、センサ120とユーザとの距離情報を取得することができる。またセンサ120として深度センサが用いられると、センサ120は複数の人間の存在を検出でき、また人間が複数存在した場合に、その人間の間の距離情報を取得することが出来る。またセンサ120として、例えば照度センサが用いられていても良い。センサ120として照度センサが用いられることで、センサ120は、情報処理装置100が置かれている空間の明るさの情報を取得することができる。センサ120がセンシングして得られる情報は雰囲気解析部140に送られる。
マイク130は、図1にも示したように、情報処理装置100の周囲の音を収音する。マイク130が集音した音の情報は雰囲気解析部140に送られる。
雰囲気解析部140は、撮像部110、センサ120、及びマイク130から送られる情報を用いて、情報処理装置100が置かれている空間の雰囲気を解析する。雰囲気解析部140は、撮像部110、センサ120、及びマイク130から送られる情報から、情報処理装置100が置かれている空間の雰囲気を判断するための情報を得る。そして雰囲気解析部140は、情報処理装置100が置かれている空間の雰囲気を判断するための情報から、雰囲気を決定する。
情報処理装置100が置かれている空間の雰囲気を判断するための情報は、例えば、情報処理装置100の周囲にいる人の数、性別、年代、その人の表情、その人が行なっている動作の内容、人が複数人いればその人の間の距離、空間の音などである。雰囲気解析部140は、人の数は撮像部110やセンサ120が取得したデータから求めることが出来、性別、年代、表情、動作については撮像部110が取得したデータに対して画像解析を行なうことで得ることができる。また雰囲気解析部140は、マイク130が取得したデータから、その空間が賑やかなのか静かなのかについての情報を得ることができる。
雰囲気解析部140は、撮像部110が撮像した画像に対して顔認証処理を実行してもよい。雰囲気解析部140は、撮像部110が撮像した画像に対して顔認証処理を実行することで、取得された情報の対象となる人物を特定することが出来る。
雰囲気解析部140は、撮像部110、センサ120、及びマイク130から送られる情報から、空間の雰囲気を判断するための情報を決定するための情報を自ら保持するか、情報処理装置100の内部に保持される情報を参照するか、または情報処理装置100の外部の装置からネットワーク等を介して参照する。
例えば雰囲気解析部140は、情報処理装置100が置かれている空間の雰囲気を判断するための情報から雰囲気を決定するために、例えばその情報が採り得る雰囲気の情報が格納されたテーブルを参照する。本実施形態では、雰囲気解析部140は、雰囲気の決定に際して、雰囲気解析テーブル記憶部141に記憶されている情報を参照する。雰囲気解析テーブル記憶部141は、情報処理装置100が置かれている空間の雰囲気を判断するための情報と、その情報が採り得る雰囲気との対応関係が規定されたテーブルを記憶する。雰囲気解析テーブル記憶部141が記憶するテーブルの例は後述する。
処理実行部150は、雰囲気解析部140が決定した、情報処理装置100が置かれている空間の雰囲気に応じた適切な処理を実行する。処理実行部150が実行する、空間の雰囲気に応じた適切な処理の例としては、上述したように、雰囲気に合った楽曲の選択、雰囲気に合った情報処理装置100の機能の制御、雰囲気に応じたユーザ1に対するアドバイスの提示、などがある。
本開示の一実施形態に係る情報処理装置100は、図2に示したような構成を有することで、情報処理装置100の周囲の空間の雰囲気を自動的に決定し、その決定した雰囲気に応じた適切な処理を選択し、実行することができる。本開示の一実施形態に係る情報処理装置100が、このように適切な処理を選択して実行することで、情報処理装置100のユーザは、手作業で目的のデータや処理等を探し出す手間を省略出来る。
以上、図2を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明した。次に、本開示の一実施形態に係る情報処理装置100の動作例について説明する。
[情報処理装置の動作例]
図3は、本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。図3に示したのは、本開示の一実施形態に係る情報処理装置100が、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切な処理を実行する際の、情報処理装置100の動作例である。以下、図3を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明する。
本開示の一実施形態に係る情報処理装置100は、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切な処理を実行する際に、まず周囲の空間の状況を取得する(ステップS101)。このステップS101の空間の状況の取得は、例えば撮像部110、センサ120、マイク130が実行する。撮像部110は、情報処理装置100の前方を撮像し、センサ120は、情報処理装置100の前方をセンシングし、マイク130は情報処理装置100の周囲の音を収音する。
上記ステップS101で周囲の空間の状況を取得すると、続いて情報処理装置100は、取得した情報から空間の状況を解析する(ステップS102)。このステップS102の空間の状況の解析は、例えば雰囲気解析部140が実行する。雰囲気解析部140は、空間の状況の解析に際し、情報処理装置100が置かれている空間の雰囲気を判断するための情報を得て、その情報を用いて、雰囲気解析テーブル記憶部141に記憶されているテーブルを参照する。
図4は、本開示の一実施形態に係る情報処理装置100の雰囲気解析テーブル記憶部141が記憶するテーブルの例を示す説明図である。
例えば、ステップS101で取得した情報処理装置100の周囲の空間の状況から、情報処理装置100が置かれている空間がリビングルームであると雰囲気解析部140が判断したとする。情報処理装置100が置かれている空間がリビングルームであれば、予め定められた雰囲気の内、「ロマンティック(Romantic)」「メロウ(Mellow)」「フレンドリー(Friendly)」「エキサイト(Excited)」のスコアを10ポイント上昇させるように、雰囲気解析テーブル記憶部141で規定されている。従って雰囲気解析部140は、情報処理装置100が置かれている空間がリビングルームであると判断すると、「ロマンティック」「メロウ」「フレンドリー」「エキサイト」のスコアを10ポイント上昇させる。
また、例えば、ステップS101で取得した情報処理装置100の周囲の空間の状況から、情報処理装置100が置かれている空間がオフィスであると雰囲気解析部140が判断したとする。情報処理装置100が置かれている空間がオフィスであれば、予め定められた雰囲気の内、「ロマンティック」「メロウ」「フレンドリー」「エキサイト」のスコアを10ポイント下降させ、「元気がない(Depressed)」のスコアを10ポイント、「退屈(Bored)」のスコアを20ポイント、「怒り(Angry)」のスコアを5ポイント、それぞれ上昇させるように、に、雰囲気解析テーブル記憶部141で規定されている。従って雰囲気解析部140は、情報処理装置100が置かれている空間がオフィスであると判断すると、図4に示したテーブルに基づいてそれぞれの雰囲気のスコアを上下させる。
図4に示したテーブルには、情報処理装置100が置かれている空間の情報の他に、情報処理装置100が置かれている空間に居る人間の数、情報処理装置100が置かれている空間に居る人間が何をしているかの情報に応じて上下させるスコアが規定されている。雰囲気解析部140は、図4に示したテーブルを参照して予め定められた全ての雰囲気に対するスコアを求める。
なお、雰囲気解析部140は、情報処理装置100が置かれている空間の状況の解析に際し、その時点の日時の情報や、ユーザの予定の情報等を用いても良い。
上記ステップS102で、情報処理装置100が置かれている空間の状況を解析すると、続いて情報処理装置100は、解析の結果から、情報処理装置100が置かれている空間の雰囲気を決定する(ステップS103)。このステップS103の雰囲気の決定は、例えば雰囲気解析部140が実行する。雰囲気解析部140は、上記ステップS102の解析の結果、その予め定められた全ての雰囲気の内、最もスコアの高い雰囲気を、情報処理装置100が置かれている空間の雰囲気として決定する。
上記ステップS103で、情報処理装置100が置かれている空間の雰囲気を決定すると、情報処理装置100は、決定した雰囲気に応じて最適な処理を選択して実行する(ステップS104)。このステップS104の最適な処理の選択及び実行は、例えば処理実行部150が実行する。なお処理実行部150は、最適な処理の選択及び実行に際し、情報処理装置100が置かれている空間の情報、その時点の日時の情報、ユーザの予定の情報等を用いても良い。処理実行部150はこれらの情報を用いることで、同じ雰囲気であったとしても、異なる処理を選択し、実行することができる。
本開示の一実施形態に係る情報処理装置100は、図3に示したように動作することで、情報処理装置100の周囲の空間の雰囲気を自動的に決定し、その決定した雰囲気に応じた適切な処理を選択し、実行することができる。
なお、図4に示したテーブルは一例に過ぎず、雰囲気及び増減させるスコアの値は係る例に限定されるものではないことは言うまでもない。
以上、図3を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明した、続いて、本開示の一実施形態に係る情報処理装置100の動作をより具体的に説明する。
まずは雰囲気に応じた適切な処理の例として、雰囲気に適合した楽曲の再生処理を挙げて、本開示の一実施形態に係る情報処理装置100の動作をより具体的に説明する。
図5は、本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。以下、図5を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明する。
図5に示した本開示の一実施形態に係る情報処理装置100の機能構成例は、図2に示した情報処理装置100の機能構成例と比較して、処理実行部150がコンテンツ再生部151に置き換わっている。すなわち図5では、図2に示した処理実行部150の一例としてコンテンツ再生部151を示している。
コンテンツ再生部151は、コンテンツ記憶部161に記憶されている楽曲データを取得し、その取得した楽曲データを再生する。ここでコンテンツ再生部151は、雰囲気解析部140が決定した、情報処理装置100が置かれている空間の雰囲気に合致した楽曲をコンテンツ記憶部161から選択して再生する。
コンテンツ記憶部161は、楽曲データを記憶する。コンテンツ記憶部161に記憶される楽曲データは、予め解析によって当該楽曲データの曲調についての情報がメタデータとして付与されている。楽曲データの解析による当該楽曲データの曲調の決定は、特定の方法に限定されるものではない。
図5に示した本開示の一実施形態に係る情報処理装置100において、例えば雰囲気解析部140が、情報処理装置100が置かれている空間の雰囲気を「ロマンティック」「メロウ」と決定すると、コンテンツ再生部151は、コンテンツ記憶部161に記憶されている楽曲データの中から、落ち着いた曲調の楽曲データを選択して再生する。また例えば雰囲気解析部140が、情報処理装置100が置かれている空間の雰囲気を「フレンドリー」と決定すると、コンテンツ再生部151は、コンテンツ記憶部161に記憶されている楽曲データの中から、明るい曲調の楽曲データを選択して再生する。
このように本開示の一実施形態に係る情報処理装置100は、雰囲気解析部140が決定した雰囲気に応じて、コンテンツ再生部151で適切な楽曲データを選択して再生することができる。すなわち本開示の一実施形態に係る情報処理装置100は、雰囲気解析部140が決定した雰囲気に応じて適切な処理を実行することが出来る。
以上、図5を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明した。次に、本開示の一実施形態に係る情報処理装置100の動作例について説明する。
図6は、本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。図6に示したのは、本開示の一実施形態に係る情報処理装置100が、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切な楽曲データを選択して再生する際の、情報処理装置100の動作例である。以下、図6を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明する。
本開示の一実施形態に係る情報処理装置100は、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切な処理を実行する際に、まず周囲の空間の状況を取得する(ステップS111)。ステップS111で周囲の空間の状況を取得すると、続いて情報処理装置100は、取得した情報から空間の状況を解析する(ステップS112)。そして、ステップS112で、情報処理装置100が置かれている空間の状況を解析すると、続いて情報処理装置100は、解析の結果から、情報処理装置100が置かれている空間の雰囲気を決定する(ステップS113)。
このステップS111〜S113の処理は、図3に示した処理のステップS101〜S103と同一であるので、詳細な説明は省略する。
上記ステップS113で、情報処理装置100が置かれている空間の雰囲気を決定すると、情報処理装置100は、決定した雰囲気に応じて最適な楽曲データを選択して再生する(ステップS114)。このステップS114の最適な楽曲データの選択及び再生は、例えばコンテンツ再生部151が実行する。
コンテンツ再生部151は、最適な楽曲データの選択及び再生に際し、直近の所定の期間内で再生されている楽曲データの内容を参照しても良い。例えば、直近の所定の期間内で特定の歌手の楽曲データが最も再生されていれば、コンテンツ再生部151は、コンテンツ記憶部161に記憶されている、その歌手の楽曲データの中から、雰囲気に適合する楽曲データを選択してもよい。
本開示の一実施形態に係る情報処理装置100は、図6に示したように動作することで、情報処理装置100の周囲の空間の雰囲気を自動的に決定し、その決定した雰囲気に応じた適切な楽曲データを選択し、再生することができる。
ここで、本開示の一実施形態に係る情報処理装置100の周囲の空間の雰囲気と、再生される楽曲データとの関係の例を説明する。図7〜図9は、情報処理装置100の周囲の空間の雰囲気と、再生される楽曲データとの関係の例を示すための説明図である。
例えば、図7に示したように、本開示の一実施形態に係る情報処理装置100が置かれている空間において、2人の男女が会話している場合を考える。この空間の雰囲気は様々なものが考えられるが、撮像部110、センサ120及びマイク130から取得される情報を解析した結果、以下のような状況を雰囲気解析部140が取得できたとする。
環境:リビングルーム、薄暗い照明
人数:2人
性別及び年代:女性/20〜30歳、男性/20〜30歳
状況:話し合っている/顔を向け合っている/ソファに座っている/腕を触っている
再生されているコンテンツ:ロックやポップス
日時:金曜日/8月/21時13分
季節:夏
このような状況を雰囲気解析部140が取得すると、雰囲気解析部140は、これらの情報から、情報処理装置100が置かれている空間の雰囲気を決定する。例えば、雰囲気解析テーブル記憶部141に記憶されているテーブルを参照した結果、雰囲気解析部140は以下のように雰囲気が解析出来たとする。なお以下では、スコアから百分率に換算したものを示す。
ロマンティック:40%
メロウ:20%
フレンドリー:20%
エキサイト:10%
元気がない:5%
退屈:5%
怒り:0%
解析の結果、雰囲気は「ロマンティック」である可能性が最も高いので、雰囲気解析部140は、雰囲気を「ロマンティック」に決定する。そしてコンテンツ再生部151は、「ロマンティック」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生する。ここでコンテンツ再生部151は、上述したように、直近の所定の期間内で再生されている楽曲データの内容を参照した上で、「ロマンティック」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生してもよい。
別の例を示す。例えば、図8に示したように、本開示の一実施形態に係る情報処理装置100が置かれている空間において、2人の男性が踊っている場合を考える。この空間の雰囲気は様々なものが考えられるが、撮像部110、センサ120及びマイク130から取得される情報を解析した結果、以下のような状況を雰囲気解析部140が取得できたとする。
環境:リビングルーム、通常の照明
人数:2人
性別及び年代:男性/15〜20歳、男性/20〜25歳
状況:立っている/動き回っている(踊っている)/大声で歌っている/楽器を演奏するふりをしている
再生されているコンテンツ:ロックやメタル
日時:土曜日/8月/18時57分
季節:夏
このような状況を雰囲気解析部140が取得すると、雰囲気解析部140は、これらの情報から、情報処理装置100が置かれている空間の雰囲気を決定する。例えば、雰囲気解析テーブル記憶部141に記憶されているテーブルを参照した結果、雰囲気解析部140は以下のように雰囲気が解析出来たとする。なお以下では、スコアから百分率に換算したものを示す。
パーティー:50%
エキサイト:20%
怒り:20%
戦っている:10%
リラックス:0%
落ち込んでいる:0%
解析の結果、雰囲気は「パーティー」である可能性が最も高いので、雰囲気解析部140は、雰囲気を「パーティー」に決定する。そしてコンテンツ再生部151は、「パーティー」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生する。ここでコンテンツ再生部151は、上述したように、直近の所定の期間内で再生されている楽曲データの内容を参照した上で、「パーティー」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生してもよい。
さらに別の例を示す。例えば、図9に示したように、本開示の一実施形態に係る情報処理装置100が置かれている空間において、1人の女性がじっと座っている場合を考える。この空間の雰囲気は様々なものが考えられるが、撮像部110、センサ120及びマイク130から取得される情報を解析した結果、以下のような状況を雰囲気解析部140が取得できたとする。
環境:リビングルーム、自然の照明
人数:1人
性別及び年代:女性
状況:座っている/じっとしている/蓮華座を組んでいる/目を閉じている
再生されているコンテンツ:自然の音を含んだリラックスできる音楽/ジャズやポップス/女性アーティスト
日時:土曜日/8月/8時1分
季節:夏
このような状況を雰囲気解析部140が取得すると、雰囲気解析部140は、これらの情報から、情報処理装置100が置かれている空間の雰囲気を決定する。例えば、雰囲気解析テーブル記憶部141に記憶されているテーブルを参照した結果、雰囲気解析部140は以下のように雰囲気が解析出来たとする。なお以下では、スコアから百分率に換算したものを示す。
瞑想:50%
リラックス:20%
穏やか:10%
食事中:10%
落ち込んでいる:5%
怒り:5%
解析の結果、雰囲気は「瞑想」である可能性が最も高いので、雰囲気解析部140は、雰囲気を「瞑想」に決定する。そしてコンテンツ再生部151は、「瞑想」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生する。ここでコンテンツ再生部151は、上述したように、直近の所定の期間内で再生されている楽曲データの内容を参照した上で、「瞑想」という雰囲気に合致したコンテンツをコンテンツ記憶部161から取得し、再生してもよい
またコンテンツ再生部151は、「瞑想」という雰囲気に合致するように、再生時の音量を小さくするようにしてもよい。また、雰囲気解析部140が雰囲気を「瞑想」に決定しているので、情報処理装置100は、画像を表示するディスプレイのバックライトの輝度を落とすような制御を実行しても良い。
このように、本開示の一実施形態に係る情報処理装置100は、撮像部110、センサ120及びマイク130から取得される情報から空間の雰囲気を決定し、決定した雰囲気に応じた楽曲データを再生することができる。
本開示の一実施形態に係る情報処理装置100は、このように、空間の雰囲気に応じた楽曲データの再生が可能であるが、本開示は係る例に限定されない。例えば本開示の一実施形態に係る情報処理装置100は、空間の雰囲気がネガティブなものであったと判定したならば、その空間の雰囲気をネガティブなものからポジティブなものへ変えられるような楽曲データを選択して再生しても良い。ネガティブな雰囲気には、例えば「落ち込んでいる」や「怒り」などがあり、どの雰囲気がネガティブなものかどうかは、予め情報処理装置100が把握しているものとする。
なお、どのような感情がポジティブなものであり、どのような感情がネガティブなものであるかは、例えばRobert Plutchikによる感情分類によって定義されている。本開示の一実施形態に係る情報処理装置100は、このRobert Plutchikによる感情分類を用いて規定される、どの雰囲気がポジティブなのか、またどの雰囲気がネガティブなのかの情報を保持ししても良い。このように、空間の雰囲気をネガティブなものからポジティブなものへ変えられるような楽曲データの再生も、本開示における空間に適した処理の一例である。
次に、雰囲気に応じた適切な処理の例として、雰囲気にユーザへのアドバイス提示処理を挙げて、本開示の一実施形態に係る情報処理装置100の動作をより具体的に説明する。
図10は、本開示の一実施形態に係る情報処理装置100の機能構成例を示す説明図である。以下、図10を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明する。
図10に示した本開示の一実施形態に係る情報処理装置100の機能構成例は、図2に示した情報処理装置100の機能構成例と比較して、処理実行部150がアドバイス提示部152に置き換わっている。すなわち図10では、図2に示した処理実行部150の一例としてアドバイス提示部152を示している。また図10に示した本開示の一実施形態に係る情報処理装置100の機能構成例は、図2に示した情報処理装置100の機能構成例と比較して、処理内容取得部111が新たに追加されている。
処理内容取得部111は、情報処理装置100で行われている処理の内容を取得する。情報処理装置100で行われている処理の内容として、例えば情報処理装置100の起動時間、情報処理装置100で実行されているアプリケーション及びそのアプリケーションの種類(カテゴリ)、情報処理装置100のディスプレイの輝度、情報処理装置100のスピーカの音量等が処理内容取得部111で取得される。
アドバイス提示部152は、アドバイス記憶部162に記憶されている、情報処理装置100を使用するユーザへのアドバイス情報から、雰囲気に適したアドバイスを取得し、その取得したアドバイスをユーザへ提示する。アドバイス記憶部162は、情報処理装置100を使用するユーザへのアドバイス情報を記憶する。アドバイス記憶部162に記憶されるアドバイス情報には様々なものがあり、特定のものに限定されるものではないが、例えば、ユーザに対して休憩を促したり、ユーザが情報処理装置100で行なっている処理に最適なアプリケーションを提示したりする情報が、アドバイス記憶部162に記憶されていてもよい。
このように本開示の一実施形態に係る情報処理装置100は、雰囲気解析部140が決定した雰囲気に応じて、アドバイス提示部152でアドバイスを取得し、情報処理装置100のユーザに提示することができる。すなわち本開示の一実施形態に係る情報処理装置100は、雰囲気解析部140が決定した雰囲気に応じて適切な処理を実行することが出来る。
以上、図10を用いて本開示の一実施形態に係る情報処理装置100の機能構成例について説明した。次に、本開示の一実施形態に係る情報処理装置100の動作例について説明する。
図11は、本開示の一実施形態に係る情報処理装置100の動作例を示す流れ図である。図11に示したのは、本開示の一実施形態に係る情報処理装置100が、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切なアドバイスを情報処理装置100のユーザに提示する際の、情報処理装置100の動作例である。以下、図11を用いて本開示の一実施形態に係る情報処理装置100の動作例について説明する。
本開示の一実施形態に係る情報処理装置100は、周囲の空間の雰囲気を決定し、その雰囲気に応じた適切な処理を実行する際に、まず周囲の空間の状況を取得する(ステップS121)。ステップS121で周囲の空間の状況を取得すると、続いて情報処理装置100は、取得した情報から空間の状況を解析する(ステップS122)。そして、ステップS112で、情報処理装置100が置かれている空間の状況を解析すると、続いて情報処理装置100は、解析の結果から、情報処理装置100が置かれている空間の雰囲気を決定する(ステップS123)。
このステップS121〜S123の処理は、図3に示した処理のステップS101〜S103と同一であるので、詳細な説明は省略する。
上記ステップS123で、情報処理装置100が置かれている空間の雰囲気を決定すると、情報処理装置100は、決定した雰囲気に応じて最適なアドバイスを情報処理装置100のユーザに提示する(ステップS124)。このステップS124の最適なアドバイスの選択及び提示は、例えばアドバイス提示部152が実行する。
本開示の一実施形態に係る情報処理装置100は、図11に示したように動作することで、情報処理装置100の周囲の空間の雰囲気を自動的に決定し、その決定した雰囲気に応じた適切なアドバイスを選択し、選択したアドバイスを情報処理装置100のユーザに提示することができる。
ここで、本開示の一実施形態に係る情報処理装置100の周囲の空間の雰囲気と、提示されるアドバイスとの関係の例を説明する。図12は、情報処理装置100の周囲の空間の雰囲気と、提示されるアドバイスとの関係の例を示すための説明図である。
例えば、図12に示したように、本開示の一実施形態に係る情報処理装置100が置かれている空間において、1人の男性が仕事中に伸びをしながらあくびをしている場合を考える。この空間の雰囲気は様々なものが考えられるが、撮像部110、処理内容取得部111、センサ120及びマイク130から取得される情報を解析した結果、以下のような状況を雰囲気解析部140が取得できたとする。
環境:オフィス、通常の照明
人数:1人
性別及び年代:男性
状況:座っている/伸びをしている/疲れているように見える/あくびをしている
再生されているコンテンツ:無し
実行されているアプリケーション:表計算ソフト
日時:月曜日/8月/14時15分
季節:夏
このような状況を雰囲気解析部140が取得すると、雰囲気解析部140は、これらの情報から、情報処理装置100が置かれている空間の雰囲気を決定する。例えば、雰囲気解析テーブル記憶部141に記憶されているテーブルを参照した結果、雰囲気解析部140は以下のように雰囲気が解析出来たとする。なお以下では、スコアから百分率に換算したものを示す。
眠い:60%
仕事中:20%
穏やか:20%
解析の結果、雰囲気は「眠い」である可能性が最も高いので、雰囲気解析部140は、雰囲気を「眠い」に決定する。そしてアドバイス提示部152は、「眠い」という雰囲気に合致したアドバイスをアドバイス記憶部162から取得し、この男性に提示する。例えばアドバイス提示部152は、ディスプレイのバックライトの輝度を上げて眠気を覚まさせたり、「少し休憩を取りませんか?」というメッセージをディスプレイに表示させたりする。またこの男性がひどく眠そうな場合は、アドバイス提示部152は、昼寝することをアドバイスすると共に、目覚しのためのアラームを設定するようにしてもよい。
このように、本開示の一実施形態に係る情報処理装置100は、図11に示したような動作を実行することで、雰囲気解析部140が決定した雰囲気に応じて、アドバイス提示部152でアドバイスを取得し、情報処理装置100のユーザに提示することができる。すなわち本開示の一実施形態に係る情報処理装置100は、雰囲気解析部140が決定した雰囲気に応じて適切な処理を実行することが出来る。
上記実施形態では、情報処理装置100に撮像部110、センサ120、及びマイク130が含まれている形態を示したが、本開示は係る例に限定されるものではない。つまり、撮像部110、センサ120、及びマイク130の少なくともいずれかは情報処理装置100に有線または無線で接続されているような形態であっても良い。
また上記実施形態では、情報処理装置100が置かれている空間の雰囲気を決定する処理を示したが、情報処理装置100は、撮像部110、センサ120及びマイク130が置かれている部屋とは別の部屋に置かれていても良い。つまり、撮像部110、センサ120及びマイク130と情報処理装置100とを無線または有線で接続し、撮像部110、センサ120及びマイク130が置かれている部屋とは別の部屋に置かれた情報処理装置100で雰囲気を解析しても良い。
このように、本開示の一実施形態に係る情報処理装置100は、撮像部110、センサ120、及びマイク130が取得した情報や、撮像部110、センサ120、及びマイク130が情報を取得した時点での時間情報等から、情報処理装置100が置かれている空間の雰囲気を決定していた。本開示の一実施形態に係る情報処理装置100は、このように決定した雰囲気の情報の統計を取っても良い。例えば、情報処理装置100のユーザによって情報処理装置100で実行される処理の内容を逐次記録する、いわゆるライフログという技術があるが、情報処理装置100は、決定した雰囲気の情報をライフログとして記録するようにしてもよい。
本開示の一実施形態に係る情報処理装置100は、決定した雰囲気の情報をライフログとして記録することで、どの曜日、どの時間帯にどの雰囲気になることが多いかを把握することが可能になる。
そして本開示の一実施形態に係る情報処理装置100は、撮像部110、センサ120、及びマイク130が取得した情報や、撮像部110、センサ120、及びマイク130が情報を取得した時点での日付、曜日、時間情報等から雰囲気を決定する際に、ライフログとして記録された雰囲気の情報を参照しても良い。本開示の一実施形態に係る情報処理装置100は、ライフログとして記録された雰囲気の情報を参照することで、たとえ情報処理装置100が置かれた環境が変化したとしても、ライフログの内容から適切な雰囲気を決定することが可能になる。
<2.ハードウェア構成例>
上記の情報処理装置100の動作は、例えば、図13に示す情報処理装置のハードウェア構成を用いて実行することが可能である。つまり、情報処理装置100の動作は、コンピュータプログラムを用いて図13に示すハードウェアを制御することにより実現されてもよい。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA、スマートフォン、タブレット端末等の携帯情報端末、ゲーム機、接触式又は非接触式のICチップ、接触式又は非接触式のICカード、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図13に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は接触又は非接触通信用のデバイス等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<3.まとめ>
以上説明したように本開示の一実施形態によれば、撮像された画像、センサがセンシングしたデータ、マイクが収音したデータなどを用いて、空間の雰囲気を決定する情報処理装置100を提供することができる。本開示の一実施形態に係る情報処理装置100は、撮像された画像、センサがセンシングしたデータ、マイクが収音したデータなどを用いて空間の雰囲気を自動で決定することで、その決定した雰囲気に適合した処理を選択し、実行することが出来る。
例えば本開示の一実施形態に係る情報処理装置100は、自動で決定した雰囲気に適合した楽曲データを選択して、再生することが出来る。また例えば本開示の一実施形態に係る情報処理装置100は、自動で決定した雰囲気に適合したアドバイスを選択し、ユーザに提示することができる。
このように、本開示の一実施形態に係る情報処理装置100が、空間の雰囲気を自動で決定することで、その決定した雰囲気に適合した処理を選択し、実行することで、情報処理装置100のユーザは、手作業で目的のデータや処理等を探し出す手間を省略出来る。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)
センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析部と、
前記雰囲気解析部の解析の結果に基づいて前記空間に適した処理を実行する処理実行部と、
を備える、情報処理装置。
(2)
前記雰囲気解析部は、前記データによって得られる情報を用いてテーブルを参照した結果から最も相応しい雰囲気を決定する、前記(1)に記載の情報処理装置。
(3)
前記雰囲気解析部は、前記センサによって収集される人間の活動に基づいて前記センサが設置されている空間の雰囲気を解析する、前記(1)または(2)に記載の情報処理装置。
(4)
前記処理実行部は、前記雰囲気解析部が前記人間の活動に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、前記(3)に記載の情報処理装置。
(5)
前記雰囲気解析部は、前記センサによって収集される人間の数に基づいて前記センサが設置されている空間の雰囲気を解析する、前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記処理実行部は、前記雰囲気解析部が前記人間の数に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、前記(5)に記載の情報処理装置。
(7)
前記雰囲気解析部は、前記センサによって収集されるデータから複数の人間の存在が確認できた場合、該人間の間の距離に基づいて前記センサが設置されている空間の雰囲気を解析する、前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記処理実行部は、前記雰囲気解析部が前記人間の距離に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、前記(7)に記載の情報処理装置。
(9)
前記雰囲気解析部は、前記センサによって収集される人間の会話に基づいて前記センサが設置されている空間の雰囲気を解析する、前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記処理実行部は、前記雰囲気解析部が前記人間の会話に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、前記(9)に記載の情報処理装置。
(11)
前記雰囲気解析部は、前記センサによってデータが収集された時点での時間的情報をさらに用いて前記センサが設置されている空間の雰囲気を解析する、前記(1)〜(10)のいずれかに記載の情報処理装置。
(12)
前記処理実行部は、前記雰囲気解析部が雰囲気の解析に用いた前記時間的情報を加味して実行する処理を選択する、前記(11)に記載の情報処理装置。
(13)
前記処理実行部は、前記雰囲気解析部の解析の結果に基づいて、前記センサによって検出された人間に対するアドバイスを提示する、前記(1)〜(12)に記載の情報処理装置。
(14)
センサによって検出された人間の行動に関するデータを用いて前記センサが設置されている空間の雰囲気を決定する雰囲気解析部と、
前記雰囲気解析部が決定した前記空間の雰囲気に基づいて前記空間及び前記人間に適した処理を決定して実行する処理実行部と、
を備える、情報処理装置。
(15)
センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、
前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、
を備える、情報処理方法。
(16)
コンピュータに、
センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、
前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、
を実行させる、コンピュータプログラム。
100 情報処理装置
110 撮像部
120 センサ
130 マイク
140 雰囲気解析部
141 雰囲気解析テーブル記憶部
150 処理実行部
151 コンテンツ再生部
152 アドバイス提示部
152 コンテンツ記憶部
162 アドバイス記憶部

Claims (16)

  1. センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析部と、
    前記雰囲気解析部の解析の結果に基づいて前記空間に適した処理を実行する処理実行部と、
    を備える、情報処理装置。
  2. 前記雰囲気解析部は、前記データによって得られる情報を用いてテーブルを参照した結果から最も相応しい雰囲気を決定する、請求項1に記載の情報処理装置。
  3. 前記雰囲気解析部は、前記センサによって収集される人間の活動に基づいて前記センサが設置されている空間の雰囲気を解析する、請求項1に記載の情報処理装置。
  4. 前記処理実行部は、前記雰囲気解析部が前記人間の活動に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、請求項3に記載の情報処理装置。
  5. 前記雰囲気解析部は、前記センサによって収集される人間の数に基づいて前記センサが設置されている空間の雰囲気を解析する、請求項1に記載の情報処理装置。
  6. 前記処理実行部は、前記雰囲気解析部が前記人間の数に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、請求項5に記載の情報処理装置。
  7. 前記雰囲気解析部は、前記センサによって収集されるデータから複数の人間の存在が確認できた場合、該人間の間の距離に基づいて前記センサが設置されている空間の雰囲気を解析する、請求項1に記載の情報処理装置。
  8. 前記処理実行部は、前記雰囲気解析部が前記人間の間の距離に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、請求項7に記載の情報処理装置。
  9. 前記雰囲気解析部は、前記センサによって収集される人間の会話に基づいて前記センサが設置されている空間の雰囲気を解析する、請求項1に記載の情報処理装置。
  10. 前記処理実行部は、前記雰囲気解析部が前記人間の会話に基づいて解析した前記雰囲気を考慮してコンテンツを選択する処理を実行する、請求項9に記載の情報処理装置。
  11. 前記雰囲気解析部は、前記センサによってデータが収集された時点での時間的情報をさらに用いて前記センサが設置されている空間の雰囲気を解析する、請求項1に記載の情報処理装置。
  12. 前記処理実行部は、前記雰囲気解析部が雰囲気の解析に用いた前記時間的情報を加味して実行する処理を選択する、請求項11に記載の情報処理装置。
  13. 前記処理実行部は、前記雰囲気解析部の解析の結果に基づいて、前記センサによって検出された人間に対するアドバイスを提示する、請求項1に記載の情報処理装置。
  14. センサによって検出された人間の行動に関するデータを解析して前記センサが設置されている空間の雰囲気を決定する雰囲気解析部と、
    前記雰囲気解析部が決定した前記空間の雰囲気に基づいて前記空間及び前記人間に適した処理を決定して実行する処理実行部と、
    を備える、情報処理装置。
  15. センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、
    前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、
    を備える、情報処理方法。
  16. コンピュータに、
    センサによって収集されるデータを用いて前記センサが設置されている空間の雰囲気を解析する雰囲気解析ステップと、
    前記雰囲気解析ステップでの解析の結果に基づいて前記空間に適した処理を実行する処理実行ステップと、
    を実行させる、コンピュータプログラム。
JP2012287635A 2012-12-28 2012-12-28 情報処理装置、情報処理方法及びコンピュータプログラム Pending JP2014130467A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012287635A JP2014130467A (ja) 2012-12-28 2012-12-28 情報処理装置、情報処理方法及びコンピュータプログラム
US14/135,969 US20140188876A1 (en) 2012-12-28 2013-12-20 Information processing device, information processing method and computer program
CN201310711285.5A CN103914136B (zh) 2012-12-28 2013-12-20 信息处理装置、信息处理方法和计算机程序
EP13198855.2A EP2749992A3 (en) 2012-12-28 2013-12-20 Information processing device, information processing method and computer program to determine a mood

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012287635A JP2014130467A (ja) 2012-12-28 2012-12-28 情報処理装置、情報処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2014130467A true JP2014130467A (ja) 2014-07-10

Family

ID=49916878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012287635A Pending JP2014130467A (ja) 2012-12-28 2012-12-28 情報処理装置、情報処理方法及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US20140188876A1 (ja)
EP (1) EP2749992A3 (ja)
JP (1) JP2014130467A (ja)
CN (1) CN103914136B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032876A (ja) * 2015-08-04 2017-02-09 株式会社ディーアンドエムホールディングス コンピュータで読み取り可能なプログラム、プレイリスト作成装置、およびワイヤレスオーディオシステム
WO2019087779A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555858B2 (ja) * 2014-08-01 2019-08-07 シャープ株式会社 機器、音声出力方法、音声出力プログラム、ネットワークシステム、サーバ、および通信機器
EP3270346A4 (en) * 2015-03-12 2019-03-13 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
CN104991464B (zh) * 2015-05-08 2019-01-15 联想(北京)有限公司 一种信息处理方法及控制***
JP7234930B2 (ja) * 2017-10-13 2023-03-08 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6332624A (ja) * 1986-07-28 1988-02-12 Canon Inc 情報処理装置
JP2004102719A (ja) * 2002-09-10 2004-04-02 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置
JP2004348429A (ja) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd 端末装置及び端末装置の制御プログラム
JP2005066133A (ja) * 2003-08-26 2005-03-17 Sony Computer Entertainment Inc 情報端末
JP2011253375A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020078070A1 (en) * 2000-12-18 2002-06-20 Philips Electronics North America Corp. Calendar software application with personal and historical data
WO2005113099A2 (en) * 2003-05-30 2005-12-01 America Online, Inc. Personalizing content
US20040237759A1 (en) * 2003-05-30 2004-12-02 Bill David S. Personalizing content
EP1745650A1 (en) * 2003-12-22 2007-01-24 Koninklijke Philips Electronics N.V. Content- processing system, method, and computer program product for monitoring the viewer's mood
US7022907B2 (en) * 2004-03-25 2006-04-04 Microsoft Corporation Automatic music mood detection
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
US7921369B2 (en) * 2004-12-30 2011-04-05 Aol Inc. Mood-based organization and display of instant messenger buddy lists
US7396990B2 (en) * 2005-12-09 2008-07-08 Microsoft Corporation Automatic music mood detection
US7539533B2 (en) * 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
US20080109391A1 (en) * 2006-11-07 2008-05-08 Scanscout, Inc. Classifying content based on mood
US8275635B2 (en) * 2007-02-16 2012-09-25 Bodymedia, Inc. Integration of lifeotypes with devices and systems
JP4356027B2 (ja) 2007-03-30 2009-11-04 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
JP4623124B2 (ja) * 2008-04-07 2011-02-02 ソニー株式会社 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
US20100011388A1 (en) * 2008-07-10 2010-01-14 William Bull System and method for creating playlists based on mood
JP2010117973A (ja) 2008-11-14 2010-05-27 Sony Corp 情報処理装置、画像表示方法およびコンピュータプログラム
US20100332842A1 (en) * 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US20110184539A1 (en) * 2010-01-22 2011-07-28 Sony Ericsson Mobile Communications Ab Selecting audio data to be played back in an audio reproduction device
US20120130196A1 (en) * 2010-11-24 2012-05-24 Fujitsu Limited Mood Sensor
US8880640B2 (en) * 2011-06-20 2014-11-04 Facebook, Inc. Social mode for managing communications between a mobile device and a social networking system
US10264102B2 (en) * 2011-11-03 2019-04-16 Aaron Nahumi System, methods and computer readable medium for augmented personalized social network
US9019174B2 (en) * 2012-10-31 2015-04-28 Microsoft Technology Licensing, Llc Wearable emotion detection and feedback system
US20140141807A1 (en) * 2012-11-16 2014-05-22 Sankarimedia Oy Apparatus for Sensing Socially-Related Parameters at Spatial Locations and Associated Methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6332624A (ja) * 1986-07-28 1988-02-12 Canon Inc 情報処理装置
JP2004102719A (ja) * 2002-09-10 2004-04-02 Sony Ericsson Mobilecommunications Japan Inc 情報処理装置
JP2004348429A (ja) * 2003-05-22 2004-12-09 Hitachi Information Technology Co Ltd 端末装置及び端末装置の制御プログラム
JP2005066133A (ja) * 2003-08-26 2005-03-17 Sony Computer Entertainment Inc 情報端末
JP2011253375A (ja) * 2010-06-02 2011-12-15 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015051168; 高嶋 和毅: '6人会話における非言語情報と場の活性度に関する検討' 電子情報通信学会技術研究報告 Vol.112 No.176, 20120818, pp.49-54, 一般社団法人電子情報通信学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032876A (ja) * 2015-08-04 2017-02-09 株式会社ディーアンドエムホールディングス コンピュータで読み取り可能なプログラム、プレイリスト作成装置、およびワイヤレスオーディオシステム
WO2017022271A1 (ja) * 2015-08-04 2017-02-09 株式会社ディーアンドエムホールディングス コンピュータで読み取り可能なプログラム、プレイリスト作成装置、およびワイヤレスオーディオシステム
US10268648B2 (en) 2015-08-04 2019-04-23 D&M Holdings, Inc. Computer readable program, playlist preparation device, and wireless audio system
WO2019087779A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019087779A1 (ja) * 2017-10-31 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7327161B2 (ja) 2017-10-31 2023-08-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20140188876A1 (en) 2014-07-03
CN103914136B (zh) 2018-09-21
EP2749992A3 (en) 2016-07-13
EP2749992A2 (en) 2014-07-02
CN103914136A (zh) 2014-07-09

Similar Documents

Publication Publication Date Title
KR20170100007A (ko) 청취 로그 및 음악 라이브러리를 생성하기 위한 시스템 및 방법
CN107707828B (zh) 一种视频处理方法及移动终端
JP5586436B2 (ja) 生活スタイル収集装置、ユーザインターフェース装置及び生活スタイル収集方法
US8583665B2 (en) Information processing device, client device, server device, list generation method, list acquisition method, list providing method and program
JP2014130467A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
WO2014192552A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
CN110740262A (zh) 背景音乐的添加方法、装置及电子设备
KR20160015727A (ko) 음악 정보 시각화 방법 및 장치
WO2016042889A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN107122049A (zh) 用于捕获和传输媒体和位置内容的消息用户界面
KR102084979B1 (ko) 오디오 파일 재 녹음 방법, 장치 및 저장매체
CN108090140A (zh) 一种歌曲播放方法及移动终端
US11861262B2 (en) Audio detection and subtitle presence
US20200143813A1 (en) Information processing device, information processing method, and computer program
CN108763475B (zh) 一种录制方法、录制装置及终端设备
US12047660B2 (en) Information processing apparatus, information processing method, and program
JP2010078926A (ja) デュエット相手抽出システム
CN108089830B (zh) 歌曲信息显示方法、装置及移动终端
KR20150093971A (ko) 코드를 기반으로 곡을 연주하는 방법 및 이를 구현하는 전자장치
CN110784762B (zh) 一种视频数据处理方法、装置、设备及存储介质
WO2020118560A1 (zh) 一种录音方法、装置、电子设备和计算机可读存储介质
CN106303701A (zh) 智能电视内容推荐方法及装置
US11593426B2 (en) Information processing apparatus and information processing method
JP2014123085A (ja) カラオケにおいて歌唱に合わせて視聴者が行う身体動作等をより有効に演出し提供する装置、方法、およびプログラム
JP2012118286A (ja) 利用者属性対応カラオケシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160510