JP2010170166A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2010170166A
JP2010170166A JP2009009439A JP2009009439A JP2010170166A JP 2010170166 A JP2010170166 A JP 2010170166A JP 2009009439 A JP2009009439 A JP 2009009439A JP 2009009439 A JP2009009439 A JP 2009009439A JP 2010170166 A JP2010170166 A JP 2010170166A
Authority
JP
Japan
Prior art keywords
sound
unit
sensor
detection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009009439A
Other languages
English (en)
Inventor
Yuji Morimiya
祐次 森宮
Naoaki Fujimoto
直明 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009009439A priority Critical patent/JP2010170166A/ja
Priority to US12/686,678 priority patent/US8698758B2/en
Priority to CN2010100042788A priority patent/CN101794180B/zh
Publication of JP2010170166A publication Critical patent/JP2010170166A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】空間内でのユーザーの手などの動きに応じた操作入力(ジェスチャー)に応じて、音声情報などの情報信号を効果的に処理できるようにする。
【解決手段】センサ部10を通じて、例えばユーザーの手などの検出対象物により指定される所定の空間内における三次元座標を検出する。センサ部10を通じて検出した当該三次元座標が含まれる予め指定された領域が、空間位置検出部406により判断される。空間位置検出部405が判断した検出対象物により指定された三次元座標が含まれる領域に基づいて、当該三次元座標のうち少なくとも二次元座標に対応する位置(二次元座標に応じた位置)のスピーカから音声情報に応じた音声を出力するように、音声処理部410を制御する。
【選択図】図6

Description

この発明は、例えば、ユーザーの操作入力に応じて、例えば、音声情報等の情報信号を処理する装置、方法およびプログラムに関する。
従来、人が何らかの入力をする場合には、操作ボタンやタッチパネルが用いられるのが一般的である。タッチパネルの場合には、LCD(Liquid Crystal Display)などの平面ディスプレイと組み合わせられ、表示画面に表示されたボタンアイコンなどをあたかも押下操作するような操作入力となる。
これらの入力操作は、操作ボタントップの平面やタッチパネルの画面への接触や加圧を前提したものとなっている。そのため、平面との接触や加圧という限られた動作が操作入力となっていた。また、平面との接触が可能な限られた用途となっていた。
このため、接触や加圧による振動や力が、機器の性能を阻害するという問題や、接触面を汚したり、傷つけたりするなどという問題もあった。
上述の問題点を改善したものとして、出願人は、先に、特許文献1(特開2008−117371号公報)に、近接検知型情報表示装置を開示した。この特許文献1においては、例えば、互いに直交する2方向に複数のライン電極または点電極を配したセンサパネルを備えるセンサ手段を用いる。
そして、このセンサ手段においては、複数個の電極を含むセンサパネル面と、このパネル面に対して空間的に離間する検出対象物、例えば人の手や指との距離を、当該距離に応じた静電容量を複数の電極について検出することにより検出する。
すなわち、センサパネルの複数の電極のそれぞれと接地点との間の静電容量は、人の手や指の位置と、パネル面との空間的な離間距離に応じて変化する。そこで、人の指の位置と、パネル面との空間的な距離にスレッショールド値を設定し、その距離よりも指がパネルに近接したか、遠のいたかを、前記距離に応じた静電容量の変化を検出することにより、検出するものである。
そして、特許文献1では、特に、検出対象物とセンサパネル面との距離に応じて、静電容量を検出する電極の間隔を変えることにより、静電容量の検知感度を向上させることができる技術が開示されている。
この先に提案した技術によれば、センサパネルに接触することなく、スイッチ入力を行うことができる。また、センサパネルには、互いに直交する2方向に複数のライン電極または点電極を配しているので、パネル面に沿う方向の手や指の動きを空間的に検出することができ、空間内での手や指の動きに応じた操作入力をすることもできるという特徴がある。
特開2008−117371号公報
上述した特許文献1に開示されたセンサ手段は、非接触により、ユーザーからの操作入力を受け付けることができるものであり、従来にない入力手段を実現することができるものである。
そして、当該センサ手段の上述した特徴を効果的に活用し、当該センサ手段を通じて受け付けるユーザーからの操作入力に応じて、情報処理を行う情報処理装置を構成することが考えられる。
以上のことに鑑み、この発明は、空間内でのユーザーの手などの動きに応じた操作入力(ジェスチャー)に応じて、音声情報などの情報信号を効果的に処理できるようにすることを目的とする。
上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
空間的に離間する検出対象物により指定される三次元座標を検出するセンサ手段と、
上記センサ手段が検出した上記三次元座標が含まれる予め指定された領域を判断する判断手段と、
上記判断手段の判断結果に基づいて、上記三次元座標のうち少なくとも二次元座標に対応する位置から音声情報に応じた音声を出力する出力手段と、
を備える。
この請求項1に記載の発明の情報処理装置によれば、センサ手段により、例えばユーザーの手などの検出対象物により指定される所定の空間内における三次元座標が検出される。センサ手段により検出された当該三次元座標が含まれる予め指定された領域が、判断手段により判断される。
そして、判断手段の判断結果に基づいて、当該三次元座標のうち少なくとも二次元座標に対応する位置(二次元座標に応じた位置)から音声情報に応じた音声が、出力手段により出力される。
これにより、所定の空間内での手などの検出対象物の動きに応じた操作入力(ユーザーのジェスチャー)に応じて、所定の音声情報に応じた音声を効果的に出力することができるようにされる。
この発明によれば、空間内での手などの検出対象物の動きに応じた操作入力(ユーザーのジェスチャー)に応じて、音声情報などの情報信号を効果的に処理することができる。
この発明の一実施形態が適用された情報処理装置(情報処理システム)の構成例を説明するための図である。 実施形態におけるセンサ部10の構成を説明するための図である。 実施形態におけるX−Zセンサパネル12およびY−Zセンサパネル13の横断面図である。 実施形態におけるセンサ部10の構成例を説明するための図である。 実施形態におけるセンサ部10部分を中心とする構成例を説明するためのブロック図である。 実施形態の情報処理装置の構成例を説明するためのブロック図である。 実施形態のセンサ部10が形成するセンサ領域の二次元座標領域を説明するための図である。 二次元座標に対応する位置から音声情報に応じた音声を出力する音声出力処理の第1の例を説明するための図である。 センサ値検出処理1を説明するためのフローチャートである。 音声出力処理1について説明するためのフローチャートである。 センサ部10のセンサパネル10P上に設定されるレイヤについて説明するための図である。 音源を含まない仮想的な閉曲面内の音場を示す図である。 キルヒホッフの積分公式を示す図である。 N点の音圧および粒子速度をM個の音源によって再現するシステムを示す図である。 キルヒホッフの積分公式の半空間への拡張の原理を示す図である。 キルヒホッフの積分公式の半空間への拡張の具体例を示す図である。 センサ値検出処理2を説明するためのフローチャートである。 センサ値検出処理2を説明するためのフローチャートである。 音声出力処理2について説明するためのフローチャートである。 3個の各レイヤと、各レイヤ内に設定される領域とを説明するための図である。 音声情報記憶部407に記憶保持される音声情報の構成を説明するための図である。 実施形態の情報処理装置において、ユーザーの操作を受け付け、また、ユーザーに対して情報を提供する部分の構成を簡略して示した図である。 音声情報のミックス(混合)処理時の計算について説明するための図である。 センサ部10が形成するセンサ領域(三次元座標空間)において、ユーザーの手などの検出対象物が突然に大きく移動した場合の例を説明するための図である。 センサ部10が形成するセンサ領域において、ユーザーの手などの検出対象物が突然に大きく移動した場合に行う計算処理を説明するための図である。 図25に示した計算処理により求められるミックスパラメータvの変化の様子を示す図である。 音声出力処理3を説明するためのフローチャートである。 音声出力処理3の変形例を説明するためのフローチャートである。 ユーザーの手などの検出対象物が指示する三次元座標空間における指示位置に応じて、表示する映像に水紋を発生させる場合について説明するための図である。 表示する映像に水紋を発生させるための物理モデルの具体例を説明するための図である。 映像表示処理を説明するためのフローチャートである。 映像出力処理の応用例を説明するためのフローチャートである。 音声出力処理の応用例を説明するためのフローチャートである。
以下、図を参照しながら、この発明による装置、方法、プログラムの一実施形態について説明する。以下に説明する実施形態においては、センサ手段は、特許文献1に開示した静電容量を検出することにより、検出対象物との距離を検出するセンサ手段を用いる。また、検出対象物は、操作者の手や指を想定するものである。
[情報処理装置の構成]
図1は、この実施形態の情報処理装置(情報処理システム)の構成例を示す図である。図1に示すように、この実施形態の情報処理装置は、センサ部10と、ディスプレイ部20と、スピーカ部30と、キーボード50とが、処理装置部40に対して例えば接続ケーブルによって接続されて構成されている。
センサ部10は、ユーザーからの操作入力を受け付けて、これを処理装置部40に対して供給するものである。このセンサ部10は、検出対象物としての手などの空間的な離間距離を検出することができるものである。
具体的に、センサ部10は、このセンサ部10に対する検出対象物としての手や指の空間的な離間距離に応じたセンサ検出出力を出力する。この実施形態では、センサ部10は、後述するように、所定の大きさの2次元平面からなる矩形状のセンサパネル10Pを備え、このセンサパネル面から検出対象物までの距離を検出するものである。
そして、この実施形態では、センサ部10は、センサパネル面の横方向および縦方向において、それぞれ複数の位置において、独立して検出対象物までの距離に応じたセンサ検出出力を出力することができるように構成されている。これにより、この実施形態では、センサ部10は、検出対象物がセンサパネル面のいずれの位置上にあるかをも検出可能とされている。
すなわち、例えばセンサパネル面の横方向をx軸方向、縦方向をy軸方向とすると共に、センサパネル面に直交する方向をz軸方向としたとき、検出対象物の空間的な離間距離は、z軸座標値として検出される。そして、センサパネル上の検出対象物の空間位置は、x軸座標値およびy軸座標値により検出される。
ディスプレイ部20は、例えば、CRT(cathode Ray Tube)、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)パネル、PDP(Plasma Display Panel)などにより構成されるものである。
この実施形態において、ディスプレイ部20は、LCD、有機ELパネル、PDPなどのいわゆる薄型ディスプレイパネルが用いられて構成されたものである。ディスプレイ部20は、例えば、画面サイズが52V型のものを縦置きにして用いるようになっている。なお、ディスプレイ部20の画面サイズや置き方は、種々の態様が可能である。
この実施形態においてスピーカ部30は、16個のスピーカSP1〜SP16が横方向(水平方向)に並べられて構成されたいわゆるアレイスピーカである。
処理装置部40は、例えばパーソナルコンピュータ(以下、パソコンと略称する。)である。処理装置部40は、音声情報(音声信号)や映像情報(映像信号)などの再生対象のコンテンツデータを自機の例えばハードディスクなどのメモリ内に記憶保持している。
処理装置部40は、センサ部10を通じてユーザーからの操作入力を受け付ける。センサ部10からのセンサ検出出力は、検出対象物のセンサパネル面における空間位置(x、y座標)および空間的な離間距離(z座標)に応じたものとなる。
そして、処理装置部40は、受け付けた操作入力に基づいて、所定の音声情報に応じた音声をスピーカ部30のスピーカから放音するようにしたり、所定の映像情報に応じた映像をディスプレイ部20の表示画面に表示するようにしたりする。
この場合、処理装置部40は、受け付けた操作入力に応じて、音声の放音位置を変えたり、音声信号を混合(ミックス)したり、表示する映像に対して目的とする効果を付与したりするなどの処理を行うようにしている。
キーボード50は、アルファベットキー、数字キー、種々のファンクションキー等を備え、ユーザーからの指示入力を受け付けて、これを処理装置部40に供給することができるものである。
処理装置部40は、キーボードを通じて受け付けるユーザーからの指示入力に応じて、処理装置部40において実行されるプログラムをメンテナンスしたり、処理装置部40に対して、種々の設定や調整などを行ったりすることができるようにしている。
このように、この実施形態の情報処理装置は、センサ部10を通じて受け付ける操作入力に応じて、スピーカ部30のスピーカから音声を放音させたり、ディスプレイ部20の表示画面に映像を表示させたりすることができるものである。
[センサ部10の構造の説明]
図2は、この実施形態におけるセンサ部10の構成を説明するための図である。この実施形態においては、図1に示し、また図2にも示すように、ディスプレイ部20の前面にセンサ部10が重ね合わせて設けられる積層構造となっている。
すなわち、図2に示すように、センサ部10の操作方向の前面側から、その奥行き方向に向かって順に、X−Zセンサパネル12、Y−Zセンサパネル13、ディスプレイ部20の順で設けられた構成となっている。
X−Zセンサパネル12およびY−Zセンサパネル13は、この実施形態のセンサ部10の主要構成部分であり、センサパネル10Pを構成するものである。これら、X−Zセンサパネル12およびY−Zセンサパネル13は、この例では、互いに直交する2方向に複数本のワイヤ電極が配列されて構成されている。
X−Zセンサパネル12においては、ワイヤ電極の延伸方向が図2上の垂直方向(縦方向)である複数の縦電極12V1,12V2,12V3,・・・,12Vn(nは、2以上の整数)が、図2上、水平方向(横方向)に、この例では等間隔に配置されている。
また、Y−Zセンサパネル13においては、ワイヤ電極の延伸方向が図2上の水平方向(横方向)である複数の横電極13H1,13H2,13H3,・・・,13Hm(mは、2以上の整数)が、図2上の垂直方向(縦方向)に、この例では等間隔に配置されている。
図3(A)および(B)は、それぞれX−Zセンサパネル12およびY−Zセンサパネル13の横断面図を示すものである。
X−Zセンサパネル12は、2枚のガラス板17V,18Vの間に、複数個の縦電極12V1,12V2,12V3,・・・,12Vnが含まれる電極層19Vが挟持される構成とされている。
また、Y−Zセンサパネル13は、2枚のガラス板17H,18Hの間に、複数個の横電極13H1,13H2,13H3,・・・,13Hmが含まれる電極層19Hが挟持される構成とされている。なお、図3(B)における13Hiは、i番目の横電極を意味している。
なお、図2には図示しないが、後述するように、X−Zセンサパネル12およびY−Zセンサパネル13の電極端子が接続されると共に、ユーザーからの指示位置を検出するための回路構成部分も設けられる。
当該回路構成部品は、センサ部10用のプリント配線基板であり、例えば、ディスプレイ20の下側などの所定の位置に設けられるようにされている。このように、センサ部10は、X−Zセンサパネル12とY−Zセンサパネル13からなるセンサパネル10Pと、センサ部10用のプリント配線基板とからなるものである。
そして、図2に示したように、センサ部10は、多数のワイヤ電極を有するものであるが、ワイヤ電極は極めて細く、ディスプレイ部20の表示画面に表示される映像が、センサ部10によって遮られることは無い。
すなわち、ユーザーは、センサ部10を通して、ディスプレイ部20の表示画面に表示される映像を見ることになるが、表示画面に表示される映像が見難くなったり、表示される映像が劣化して見えたりするなどの不都合はないようにされている。
[センサ部10の回路構成]
この実施形態においても、特許文献1の場合と同様に、センサ部10のX−Zセンサパネル12およびY−Zセンサパネル13と検出対象物との距離に応じた静電容量は、発振回路の発振周波数に変換して検出する。そして、この実施形態では、センサ部10は、発振周波数に応じたパルス信号のパルス数を計数し、その発信周波数に応じた計数値をセンサ出力信号とする。
図4は、X−Zセンサパネル12およびY−Zセンサパネル13を積層した状態のセンサ部10についての説明図である。また、図5は、センサ部10から出力するセンサ検出出力信号を生成するための回路構成例を示している。
図4に示すように、また、前述もしたように、この実施形態のセンサ部10では、互いに直交する2方向に複数本のワイヤ電極が配列されて構成されている。すなわち、複数個の縦電極12V1,12V2,12V3,・・・,12Vnと、複数の横電極13H1,13H2,13H3,・・・,13Hmとが、互いに直交する方向に配列されている。
この場合、複数の横電極13H1,13H2,13H3,・・・,13Hmのそれぞれと、接地間には静電容量(浮遊容量)CH1,CH2,CH3,・・・,CHmが存在する。そして、これらの静電容量CH1,CH2,CH3,・・・,CHmは、Y−Zセンサパネル13面上の空間における手や指の存在位置により変化する。
複数の横電極13H1,13H2,13H3,・・・,13Hmの一方および他方の端部は、それぞれ横電極端子とされている。そして、この例では、複数の横電極13H1,13H2,13H3,・・・,13Hmのそれぞれの横電極端子の一方は、図5に示す横電極用の発信器101Hに接続される。
また、複数の横電極13H1,13H2,13H3,・・・,13Hmのそれぞれの横電極端子の他方は、アナログスイッチ回路103に接続される。なお、図5に示す回路部品は、例えば、ディスプレイ20の下側などの所定の位置に設けられることは、既に述べたとおりである。
この場合、横電極13H1,13H2,13H3,・・・,13Hmは、図5に示すような等価回路で表わすことができる。図5では、横電極13H1についての等価回路が示されているが、他の横電極13H2,・・・,13Hmにおいても同様である。
すなわち、横電極13H1の等価回路は、抵抗RHと、インダクタンスLHと、検出対象の静電容量CH1とからなる。他の横電極13H2,13H3,・・・,13Hmでは、静電容量がCH2,CH3,・・・,CHmに変わる。
この横電極13H1,13H2,13H3,・・・,13Hmの等価回路は、共振回路を構成するもので、発信器101Hと共に発振回路を構成し、それぞれ横電極容量検出回路102H1,102H2,102H3,・・・,102Hmを構成する。そして、横電極容量検出回路102H1,102H2,102H3,・・・,102Hmのそれぞれの出力は、検出対象物のセンサパネル面からの距離に応じた静電容量CH1,CH2,CH3,・・・,CHmのそれぞれに応じた発振周波数の信号となる。
ユーザーが、Y−Zセンサパネル13上で、手や指先の位置をY−Zセンサパネル13に対して近づけたり、遠ざけたりすると、静電容量CH1,CH2,CH3,・・・,CHmの値が変化する。そのため、横電極容量検出回路102H1,102H2,102H3,・・・,102Hmのそれぞれでは、手や指先位置の位置変化が、発振回路の発振周波数の変化として検出される。
一方、複数の縦電極12V1,12V2,12V3,・・・,12Vnの一方および他方の端部は、それぞれ縦電極端子とされている。そして、この例では、複数の縦電極12V1,12V2,12V3,・・・,12Vnのそれぞれの縦電極端子の一方は、縦電極用の発信器101Vに接続される。この例では、縦電極用の発信器101Vの出力信号の基本周波数は、横電極用の発信器101Hとは周波数が異なるものとされる。
また、複数の縦電極12V1,12V2,12V3,・・・,12Vnのそれぞれの縦電極端子の他方は、アナログスイッチ回路103に接続される。
この場合、縦電極12V1,12V2,12V3,・・・,12Vnも、図5に示すように、横電極の場合と同様の等価回路で表わすことができる。図5では、縦電極12V1についての等価回路が示されているが、他の縦電極12V2,・・・,12Vnにおいても同様である。
すなわち、縦電極12V1の等価回路は、抵抗RVと、インダクタンスLVと、検出対象の静電容量CV1とからなる。他の横電極12V2,12V3,・・・,12Vnでは、静電容量がCV2,CV3,・・・,CVnに変わる。
そして、この縦電極12V1,12V2,12V3,・・・,12Vnの等価回路は、共振回路を構成するもので、発信器101Vと共に発振回路を構成し、それぞれ縦電極容量検出回路102V1,102V2,102V3,・・・,102Vnを構成する。そして、縦電極容量検出回路102V1,102V2,102V3,・・・,102Vnのそれぞれの出力は、検出対象物のX−Zセンサパネル12面からの距離に応じた静電容量CV1,CV2,CV3,・・・,CVnのそれぞれに応じた発振周波数の信号となる。
そして、縦電極容量検出回路102V1,102V2,102V3,・・・,102Vnのそれぞれにおいても、手や指先位置の位置変化に応じた静電容量CV1,CV2,CV3,・・・,CVnの値の変化が、発振回路の発振周波数の変化として検出される。
そして、横電極容量検出回路102H1,102H2,102H3,・・・,102Hmのそれぞれの出力と、縦電極容量検出回路102V1,102V2,102V3,・・・,102Vnのそれぞれの出力とがアナログスイッチ回路103に供給される。
このアナログスイッチ回路103は、処理装置部40からの切替信号SWにより、横電極容量検出回路102H1〜102Hmおよび縦電極容量検出回路102V1〜102Vnのうちの、いずれか1つの出力を、順次に、所定の速度で選択して出力する。
そして、このアナログスイッチ回路103からの出力が、周波数カウンタ104に供給される。この周波数カウンタ104は、これに入力される信号の発振周波数を計数する。すなわち、周波数カウンタ104の入力信号は、発振周波数に応じたパルス信号であり、そのパルス信号の所定時間区間におけるパルス数を計数すると、その計数値は、発振周波数に対応したものとなる。
この周波数カウンタ104の出力計数値は、処理装置部40に、アナログスイッチ回路103で選択されたワイヤ電極についてのセンサ出力として供給される。そして、周波数カウンタ104の出力計数値は、処理装置部40からアナログスイッチ回路103に供給される切替信号SWに同期して得られる。
したがって、処理装置部40は、アナログスイッチ回路103に供給する切替信号SWから、周波数カウンタ104の出力計数値がいずれのワイヤ電極についてのセンサ出力であるかを判断する。そして、処理装置部40は、自己が備えるバッファ部に、ワイヤ電極と、出力計数値とを対応付けて保持する。
そして、処理装置部40は、バッファ部に保持した検出対象の全てのワイヤ電極についてのセンサ出力から、検出対象物の空間位置(センサ部10からの距離およびセンサ部10でのx,y座標)を検出する。
特許文献1に記載されているように、実際的には、センサ部10のセンサパネル10P上における検出対象物のx,y座標位置に応じて、複数個の横電極容量検出回路102H1〜102Hmおよび縦電極容量検出回路102V1〜102Vnからのセンサ出力が得られる。
そして、その複数のセンサ出力は、検出対象物が存在するセンサパネル10P上におけるx,y座標位置から、センサパネル10Pまでの距離が最も短くなるので、当該位置に対応する2電極間の静電容量を検出する横電極容量検出回路および縦電極容量検出回路からのセンサ出力が、他に比べて顕著なものとなる。
以上のことから、処理装置部40は、センサ部10からの複数個のセンサ出力から、センサパネル10P上における検出対象物が位置するx,y座標およびセンサパネル10Pから検出対象物までの距離(z座標)を求める。すなわち、検出したx,y座標位置上の空間に、検出対象物、例えば手の位置があると判断する。
なお、検出対象物は、所定の大きさを有するので、検出対象物の大きさ分に相当する、センサパネル12,13上のx,y座標位置範囲上において、静電容量に応じた距離だけ離れているとして検出されるものである。
この実施形態でも、検出対象物の、センサパネル12,13面に対する空間的な離間位置の距離に応じて、特許文献1の場合と同様にして、静電容量を検出するワイヤ電極の間引き切り替えをするようにする。
このワイヤ電極の間引き切り替えは、処理装置部40からの切り替え制御信号SWにより、アナログスイッチ回路103において、順次に選択するワイヤ電極を、何本置き(0本を含む)のワイヤ電極を選択するかが制御されることによりなされる。切り替えタイミングは、センサパネル12,13面から検出対象物までの距離に応じて予め定められ、例えば、後述するレイヤの変化点とするようにしてもよい。
なお、発信器は、上述の説明では、横電極用と縦電極用とを用いるようにしたが、簡易的には、1個の共通の発信器とするようにしても良い。また、理想的には、各ワイヤ電極毎に周波数の異なる複数個の発信器を設ける方が良い。
処理装置部40は、センサ部10からのセンサ出力に基づいて、再生対象の音声情報や映像情報を、どのように再生するかを決めて、それに応じて再生することができるようにしている。
[センサ部10からのセンサ出力を用いた処理動作例]
図6は、図2〜図5を用いて説明したセンサ部10からのセンサ出力を受け付ける処理装置部40の構成と、その処理動作を説明するためのブロック図である。
図6に示すように、処理装置部40は、システムバス400を介して、CPU(Central Processing Unit)401に対し、プログラムROM(Read Only Memory)402およびワークエリア用RAM(Random Access Memory)403が接続されている。
そして、この実施形態では、システムバス400に対しては、I/O(Input/Output)ポート404、空間位置検出部405、映像情報記憶部406、音声情報記憶部407が接続されている。
さらに、システムバス400には、映像情報用の物理計算処理部408、音声処理部410、音場制御部411、キーボードインターフェース(以下、キーボードI/Fと略称する。)413が接続されている。
また、物理計算処理部408には、表示処理部409が接続され、音声処理部410には、アンプ部(音声増幅部)412が接続されている。
そして、図6に示すように、処理装置部40に対しては、I/Oポート404を介してセンサ部10が接続され、物理計算処理部408及び表示処理部409を介してディスプレイ部20が接続される。
また、処理装置部40に対しては、音声処理部410及びアンプ部412を介してスピーカ部30が接続され、キーボードI/F413を介してキーボード50が接続される。
なお、図6において2重線で示した空間位置検出部405、物理計算処理部408、音声処理部410、音場制御部411は、CPU401が、ROM402に記憶されるプログラムに従ったソフトウエア処理としても実現することができる機能部である。
そして、センサ部10は、上述もしたように、そのセンサパネル10Pの前面に、当該センサパネル10Pの面の横方向(x軸方向)、縦方向(y軸方向)、当該センサパネル10Pの面に直交する方向(z軸方向)により表現される三次元座標空間にセンサ領域111を形成している。
処理装置部40は、I/Oポート404を通じて、センサ部10のセンサ領域111におけるユーザーの手などの検出対象物の位置に応じたセンサ出力信号を受け付けることができるようにされている。
座標位置検出部405は、センサ部10からのセンサ出力信号(検出出力)の供給を受けて、上述もしたように、三次元座標空間であるセンサ領域111におけるユーザーの手などにより指定される位置(三次元座標)を検出する。
そして、座標位置検出部405は、その検出結果に基づいて、ユーザーの手などにより指定された位置が、センサ領域111内に設定される複数の領域の内、どの領域に属しているのかを判断する判断手段としての機能を備えている。
映像情報記憶部406は、再生対象の映像情報を記憶している。映像情報記憶部406に記憶されている映像情報は、CPU401の制御に応じて読み出され、後述するように、物理計算処理部408、映像処理部409によって処理されて、ディスプレイ部20に供給される。なお、映像情報記憶部406に記憶保持されている再生対象の映像情報は、動画を再生するものと、静止画を再生するものいずれをも含む。
映像情報用の物理計算処理部408は、CPU401に制御され、これに供給される映像情報に対して、例えば水紋(波紋)、音の振動、雪の結晶などの種々の物理モデルから予め選択された物理モデルにしたがって所定の効果を与えるようにするものである。
具体的に物理計算処理部408は、詳しくは後述もするが、ユーザーの手などの検出対象物が指示する三次元座標空間における指示位置に応じて、再生対象の映像情報に応じた再生映像に対して物理モデルに従った効果を与えるものである。
表示処理部409は、物理計算処理部408からの映像情報からディスプレイ部20に供給する形式の映像信号を形成して、これをディスプレイ部20に供給する。これにより、ディスプレイ部20の表示画面には、物理計算処理部408、映像処理部409によって処理されて形成された映像信号に応じた映像が表示される。
なお、物理計算処理部408は、常時、映像情報に対して物理モデルにしたがって効果を付与するのではなく、後述もするように、例えばセンサ部10を通じて受け付けるユーザーからの操作入力に応じて、物理モデルにしたがって効果を施すものである。
音声情報記憶部407は、再生対象の音声情報、例えば音楽データなどを記憶保持するものである。音声情報記憶部407に記憶されている音声情報は、CPU401の制御に応じて読み出され、後述するように、音声処理部410、アンプ部412によって処理されて、スピーカ部30に供給される。
なお、スピーカ部30は、上述もしたように、アレイスピーカであり、音声処理部410及びアンプ部412は、スピーカ部30が有するスピーカに対応する数のスピーカチャンネルを有するものである。
音声処理部410は、スイッチ回路やミックス(混合)回路を備え、CPU401の制御に応じて、音声を出力するスピーカを選択する(切り替える)ようにしたり、複数の音声チャンネルの音声信号をミックス(混合)したりするなどの処理を行う。
ここで、スイッチ回路は、音声を出力するスピーカ(スピーカチャンネル)を選択する(切り替える)するものである。また、ミックス回路は、多チャンネルの音声情報の供給を受けて、これらの中から目的とする音声チャンネルの音声情報をミックス処理するものである。
さらに、音声処理部410は、各スピーカチャンネルに対応するデジタルフィルタ(デジタル信号処理回路)を備えている。このデジタルフィルタは、音場制御部411により制御され、アレイスピーカを構成するスピーカ部30のそれぞれのスピーカに供給する音声情報に対してデジタル信号処理を施すものである。
また、音場制御部412は、CPU401からの制御に応じて、適切な音場を形成することができるように、上述のように、音声処理部410がスピーカチャンネル毎に有する複数のデジタルフィルタのそれぞれを制御するものである。
これにより、スピーカ部30のそれぞれのスピーカから放音される音声により、目的とする位置に仮想音源(仮想スピーカ)を形成するようにし、当該仮想音源から音声が放音されているかのように聴取できるようにすることもできるようにしている。
ここで、仮想音源(仮想スピーカ)は、実際に音源(スピーカ)が位置していないにもかかわらず、あたかもそこから音声が放音されているかのようにユーザーが感じる位置(場所)を意味するものである。
なお、音声処理部410において行われるデジタル信号処理は、例えば、波面合成の技術を用いることにより、仮想音源を形成することができるようにするものである。当該波面合成の技術の詳細については後述する。
また、キーボードI/F413は、キーボード50を通じて受け付けるユーザーからの指示入力を、CPU401が処理可能な形式の信号に変換し、これをシステムバス400を通じて、CPU401等に供給することができるものである。
[音声出力処理の第1の例](請求項1、請求項8、請求項9)
上述のように構成されるこの実施形態の情報処理装置においては、センサ部10からの検出出力である三次元座標に基づいて、処理装置部40の空間位置検出部405が、当該三次元座標が含まれる領域を判断する。
空間位置検出部405は、検出された三次元座標が含まれる領域を判断することができるものである。しかし、この音声出力処理の第1の例においては、CPU401は、空間位置検出部405の判断結果に基づいて、検出された三次元座標のうちの二次元座標に対応する位置から音声情報に応じた音声を出力するように、音声処理部410を制御する。
このように、この音声出力処理の第1の例は、センサ部10を通じて検出するユーザーの手などの検出対象物が指示する三次元座標のうち少なくとも二次元座標に対応する位置から所定の音声情報に応じた音声を出力するものである。
図7、図8は、センサ部10により検出される三次元座標のうち少なくとも二次元座標(x座標、y座標)に対応する位置から再生対象の音声情報に応じた音声を出力する、音声出力処理の第1の例を説明するための図である。
上述もしたように、センサ部10は、センサパネル面の横方向をx軸方向、縦方向をy軸方向とすると共に、センサパネル面に直交する方向をz軸方向とする三次元座標空間において、ユーザーの手など検出対象物の位置に応じた三次元座標を検出できる。
したがって、処理装置部40の空間位置検出部405は、センサ部10からの三次元座標から、センサ部10が形成する三次元座標空間であるセンサ領域111内のどの領域に、検出対象物が位置するのか判断できる。
しかし、この例において、処理装置部40のCPU401は、上述もしたように、空間位置検出部405の判断結果に基づき、二次元座標空間における検出対象物の位置を特定し、その特定した位置に応じて、スピーカ部30のスピーカを使い分けるようにする。
すなわち、ユーザーの手などの検出対象物のセンサパネル面に対する距離は考慮せず、センサ部10が形成するセンサ領域111において、図7に示すように、横方向(x軸方向)と縦方向(y軸方向)の二次元座標領域111XYを考える。
この例においては、図7に示すように、二次元座標領域111XYを横方向(水平方向)に3等分し、領域R1、R2、R3を設定するようにしている。
そして、CPU401は、空間位置検出部405の判断結果に基づいて、検出対象物が属する領域が、二次元座標領域111XY上のどの領域にあるのかに応じて、音声処理部410を制御し、音声情報を供給するスピーカを切り換える。
なお、この第1の例においては、音声情報記憶部407に記憶保持されている2チャンネルのステレオ音声情報が、CPU401により読み出されて、常時、音声処理部410に供給するようにされているものとする。
そして、以下に説明するように、ユーザーの手などの検出対象物の指示する二次元座標領域111XYにおける位置に応じて、音声情報を出力するスピーカを切り換えるようにしている。
すなわち、ユーザーの手など検出対象物が、二次元座標領域111XYの領域R1にあると、空間位置検出部405が判断したとする。この場合、空間位置検出部405は例えばCPU401を通じて音声処理部410を制御し、図8(A)に示すように、スピーカ部30の左端部のスピーカSP1、SP2に対してのみ、左(L)チャンネルの音声情報を供給する。
また、ユーザーの手など検出対象物が、二次元座標領域111XYの領域R2にあると、空間位置検出部405が判断したとする。この場合には、空間位置検出部405は例えばCPU401を通じて音声処理部410を制御し、図8(B)に示すように、スピーカ部30の中央部のスピーカSP8、SP9に対してのみ音声情報を供給する。この場合、スピーカSP8に対しては、左(L)チャンネルの音声情報を供給し、スピーカSP9に対しては、右(R)チャンネルの音声情報を供給する。
また、ユーザーの手など検出対象物が、二次元座標領域111XYの領域R3にあると、空間位置検出部405が判断したとする。この場合には、空間位置検出部405は例えばCPU401を通じて音声処理部410を制御し、図8(C)に示すように、スピーカ部30の右端部のスピーカSP15、SP16に対してのみ、右(R)チャンネルの音声情報を供給する。
これにより、センサ部10のセンサパネル10Pの左側部分の領域R1に手などの検出対象物を近づけたときには、スピーカ部30の左側のスピーカSP1、SP2からのみ音声を放音させることができるようにされる。
同様に、センサ部10のセンサパネル10Pの中央部分の領域R2に手などの検出対象物を近づけたときには、スピーカ部30の中央のスピーカSP8、SP9からのみ音声を放音させることができるようにされる。
同様に、センサ部10のセンサパネル10Pの左側部分の領域R3に手などの検出対象物を近づけたときには、スピーカ部30の左側のスピーカSP15、SP16からのみ音声を放音させることができるようにされる。
このように、センサ部10からの三次元座標のうちの二次元座標に応じて、再生対象の音声情報に応じた音声の放音位置を制御することができるようにされる。
[音声出力処理の第1の例の動作のまとめ]
次に、この音声出力処理の第1の例について、図9、図10のフローチャートを用いてまとめる。図9は、処理装置部10の空間位置検出部405において行われるセンサ値検出処理1を説明するためのフローチャートである。また、図10は、主に処理装置部10の空間位置検出部405と音声処理部410が協働して行うようにされる音声出力処理1について説明するためのフローチャートである。
図9に示す処理は、所定の間隔で繰り返し、主に空間位置検出部405によって実行される。まず空間検出部405は、I/Oポート404を通じて、センサ部10からの出力値(センサデータ)を受け付けたか否かを判断する(ステップS101)。
このステップS101の判断処理は、ユーザーの手などの検出対象物が、センサ部10のセンサパネルの面に対してかざすようにされたか否かを判断する処理である。より具体的には、上述もしたように、I/Oポートを通じて受け付けたセンサ部10からの検出出力がRAM402に保持するようにされたか否かを判断する処理である。
ステップS101の判断処理において、センサ部10からの出力値は存在しないと判断したときには、この図9に示す処理を終了し、次の実行タイミングを待つことになる。ステップS101の判断処理において、センサ部10からの出力値が存在すると判断したときには、空間位置検出部405は、処理装置部40が受け付けたセンサ部10からの出力値を平滑化する処理を行う(ステップS102)。
ステップS102の処理は、センサ部10からの複数回(複数サンプル)の検出値の平均を算出し、検出値の精度を向上させるためのものである。
そして、空間位置検出部405は、二次元座標領域におけるx軸方向の値と、y軸方向の値のピーク値を検出する(ステップS103)。すなわち、センサ部10からの出力値は、上述もしたように、縦方向、横方向それぞれの積算値となるので、値が最も大きくなる点を検出値(座標値)として採用するようにしているのである。そして、図9に示す処理を終了し、次の実行タイミングを待つ。
このようにして、センサ部10からの検出出力に基づいて、空間位置検出部405は、ユーザーの手などの検出対象物が指示する二次元座標領域における位置(座標)を検出するようにしている。
そして、検出された二次元座標領域における位置(座標)を示す情報(ピーク値)は、空間位置検出部405内のレジスタやRAM403などに一時記憶するようにされる。
次に、空間位置検出部405は、図10に示す音声出力処理1を実行し、まず、図9に示した処理により検出したピーク値(二次元座標領域における位置(座標)を示す情報)を取得する(ステップS201)。
そして、空間位置検出部405は、取得したピーク値の強度が一定値以上か否かを判断する(ステップS202)。このステップS202の処理は、例えば、たまたまユーザーの手が、センサ部10のセンサパネルの面に近づいてしまったような場合までをも処理の対象としないようにするための処理である。換言すれば、ユーザーが意思を持って、手などの検出対象物をセンサ部10のセンサパネルの面に近づけた場合を検出するようにしている。
ステップS202の判断処理において、取得したピーク値の強度が一定値以上ではないと判断したときには、空間位置検出部405は、この図10に示す処理を終了する。すなわち、この場合、音声の出力は行わないようにされる。
ステップS202の判断処理において、取得したピーク値の強度が一定値以上であると判断したときには、空間位置検出部405は、取得したピーク値が示す二次元座標(指示位置)が属する二次元座標領域における設定領域を判断する(ステップS203)。このステップS203の判断処理は、図7を用いて説明したように、取得したピーク値が示す二次元座標が、領域R1、R2、R3のどの領域に属するのかを判断する処理である。
そして、空間位置検出部405は、例えば、CPU401を通じて、ステップS203の判断結果に基づいて、音声処理部410のスイッチ回路等を制御する(ステップS204)。これにより、スピーカ部30の目的とするスピーカから、再生対象の目的とするチャンネルの音声情報に応じた音声が放音するようにされる。
すなわち、音声処理部410は、空間位置検出部405の制御に応じて、出力する音声情報のチャンネル(左(L)チャンネル、右(R)チャンネル)を特定する。そして、音声処理部410は、空間位置検出部405の制御に応じて、図8を用いて説明したように、音声を放音するスピーカを特定して、目的とするスピーカから特定した音声チャンネルの音声情報に応じた音声を放音するようにする。
そして、この図10に示す処理を終了し、空間位置検出部405は、図10に示した処理を次に実行するタイミングを待つことになる。
このようにして、音声出力処理の第1の例の場合、簡単に示せば、ユーザーの手などの検出対象物の二次元座標領域111XYにおけるx軸方向の位置に応じて、音声を放音する位置(スピーカ)を決めることができるようにしている。
なお、この例においては、図8を用いて説明したように、アレイスピーカの構成とされたスピーカ部30の左側2つ、中央2つ、右側2つのスピーカを用いるようにしたが、これに限るものではない。
例えば、スピーカ部30の左側4つ、中央4つ、右側4つの12個のスピーカを用いるようにしたり、スピーカ部30の左側3つ、中央4つ、右側3つの10個のスピーカを用いるようにしたりするなどのことも可能である。
また、上述した第1の例においては、左右2チャンネルの音声情報を再生するものとして説明したが、これに限るものではない。モノラルの音声情報を再生する場合にも、供給先のスピーカを切り換えるようにすればよい。
また、4チャンネルや5.1チャンネルなどの多チャンネルの音声信号の場合には、同サイドの音声信号同士を混合(ミックス)するなどして、左右2チャンネルの音声信号を形成して、これを図8を用いて説明したように出力するようにすることも可能である。
また、4チャンネルや5.1チャンネルなどの多チャンネルの音声信号の場合には、上述のように、混合することなく、同サイドの音声情報を異なるスピーカに供給するようにしてもよい。
例えば、5.1チャンネルの多チャンネルの音声信号の場合、左前方チャンネルの音声情報をスピーカSP1に供給し、左後方チャンネルの音声情報をスピーカSP2に供給するといったようにすることも可能である。この場合、サブウハーチャンネルの音声信号は、左前方チャンネルの音声情報や左後方チャンネルの音声情報に混合(ミックス)するようにしてもよい。
また、上述した第1の例においては、二次元座標領域において、水平方向に3つの領域R1、R2、R3を設定するようにしたが、これに限るものではない。水平方向に2つ以上の領域を設定するようにし、設定した領域毎に、用いるスピーカと用いる音声情報(どのチャンネルの音声情報か)を決めておくようにすればよい。
また、二次元座標領域に設定する領域は、図7を用いて説明したように、水平方向に領域を分けるようにする場合に限るものではない。垂直方向に2以上の領域を設定するようにし、設定した領域毎に、用いるスピーカと用いる音声情報(どのチャンネルの音声情報か)を決めておくようにしてももちろんよい。
要は、センサ部10からの三次元座標のうちの二次元座標に応じて、再生対象の音声情報に応じた音声の放音位置を変えるようにすればよい。
そして、上述の説明から分るように、センサ手段の機能はセンサ部10が実現している。また、判断手段の機能は主に空間位置検出部405が実現している。また、出力手段の機能は、主に、音声処理部410、アンプ部412、スピーカ部30が実現している。
[音声出力処理の第2の例](請求項2)
次に、この実施形態の情報処理装置によって行うことが可能な音声出力処理の第2の例について説明する。この第2の例は、センサ手段が検出する検出対象物が指示する三次元座標に対応する位置(三次元座標に応じた位置)から所定の音声情報に応じた音声を出力するものである。
すなわち、上述した第1の例が、センサ部10が検出する三次元座標のうちの二次元座標に応じて、音声を放音する位置を制御した。これに対して、この第2の例においては、センサ部10が検出する三次元座標に応じて、音声を放音する位置を制御する。
[距離方向(z方向)の複数レイヤ]
図11は、この実施形態におけるセンサ部10のセンサパネル10P上に設定されるレイヤについて説明するための図である。
この実施形態では、センサ部10のセンサパネル10P上に形成される三次元座標空間であるセンサ領域111においては、センサパネル10Pの面からの距離の違いにより、複数個のレイヤが設定される。
この実施形態におけるセンサ領域111には、ボトムレイヤBL、ミディアムレイヤML、トップレイヤTLの3個のレイヤが設定される。
この場合、図11に示すように、センサ部10のセンサパネル10Pの表面位置をz軸の原点位置0としたとき、3個のレイヤBL、ML、TLの境界となるz方向の距離を、LP1、LP2、LP3に設定する。
したがって、0<ボトムレイヤBL≦LP1、LP1<ミディアムレイヤML≦LP2、LP2<トップレイヤTL≦LP3として、各レイヤBL、ML、TL2の距離範囲が設定される。
そして、この例においては、センサ部10のセンサパネル10P上に形成されるセンサ領域111において、ユーザーの手などの検出対象物がどのレイヤに属するかに応じて、仮想音源の位置を異ならせることができるようにしている。
そして、上述もしたように、この実施形態の情報処理装置においては、波面合成の技術を用いることにより、仮想音源を形成するようにしている。ここで、波面合成の技術について説明する。
[波面合成の技術(音場生成と制御の技術)]
ここで、波面合成の技術(音場生成と制御の技術)について説明する。3次元空間の音場を制御する方法としては、例えば、「早稲田大学理工学総合研究センター、音響情報処理研究室、山崎芳男、“Kirchhoff積分方程式に基づく3次元バーチャルリアリティに関する研究”」に示されている方法がある。当該方法は、以下のようなキルヒホッフ(Kirchhoff)の積分公式を用いるものである。
すなわち、図12に示すような、音源を含まない閉曲面Sを想定した場合、その閉曲面S内の音場は、キルヒホッフの積分公式によって表現することができる。図12において、p(ri)は閉曲面S内の点riの音圧、p(rj)は閉曲面S上の点rjの音圧、nは点rjにおける法線、un(rj)は法線nの方向の粒子速度、|ri−rj|は点riと点rjとの間の距離である。
キルヒホッフの積分公式は、図13の式(1)で表され、閉曲面S上の音圧p(rj)と法線nの方向の粒子速度un(rj)を完全に制御できれば、閉曲面S内の音場を完全に再現できることを意味する。
なお、式(1)中のωは、音声周波数をfとするとき、ω=2πfで表される角周波数であり、ρは空気の密度であり、Gijは図13の式(2)で表されるものである。
式(1)は定常音場についてのものであるが、音圧p(rj)および粒子速度un(rj)の瞬時値を制御することによって、過渡音場についても同じことが言える。
このように、キルヒホッフの積分公式による音場設計では、仮想的な閉曲面S上の音圧p(rj)と粒子速度un(rj)を再現できればよい。しかし、実際上、閉曲面S上の全ての連続的な点での音圧p(rj)および粒子速度un(rj)を制御することは不可能である。このため、閉曲面Sの微小要素内では音圧p(rj)および粒子速度un(rj)が一定であることを前提として、閉曲面Sを離散化する。
閉曲面SをN個の点で離散化すると、図11の式(1)は図13の式(3)で表されるものとなり、閉曲面S上のN点の音圧p(rj)および粒子速度un(rj)を再現することによって、閉曲面S内の音場を完全に再現することができる。
N点の音圧p(rj)および粒子速度un(rj)をM個の音源によって再現するためのシステムとしては、図14に示すようなシステムが考えられている。
このシステムでは、信号源201からの音声信号を、それぞれフィルタ202を通じて、それぞれスピーカ203に供給し、制御領域204の境界面上のN点で音圧を測定する。法線方向の粒子速度un(rj)は、2マイクロホン法によって音圧信号から近似的に求める。
このとき、N点の音圧p(rj)および粒子速度un(rj)を再現するためには、2N点の音圧が原音場と等しくなればよい。これは、フィルタ202の伝達関数Hi(i=1〜M)として、2N点の音圧が原音場に最も近くなるような値を求める問題に帰着する。
そこで、再生音場における音源i(i=1〜M)と受音点j(j=1〜2N)との間の伝達関数をCijとし、音源iの前段のフィルタの伝達関数をHiとする。そして、原音場における音源と受音点jとの間の伝達関数をPjとして、図13の式(4)で表されるような、再生音場と原音場との差を最小にするための評価関数Jを考える。
式(4)で表される評価関数Jが最小となるような伝達関数Hiを求めるには、図13の式(5)を解けばよい。
さらに、キルヒホッフの積分公式の半空間への拡張として、図15に示すように、境界面S1の片側(図の左側)の空間に音源205を配置し、反対側(図の右側)の空間に音源を含まない受聴領域206を想定する。
そして、キルヒホッフの積分公式によって、境界面S1上の全ての点または上記のような離散的な各点での音圧および粒子速度を制御すれば、音源を含まない受聴領域206内に所望の音場を実現することができる。
具体的には、図16に示すように、ある有限長の制御ライン(境界ライン)S2の左側(片側)に複数のスピーカSP1,SP2‥‥SPmを配置し、制御ラインS2上に複数の制御点C1,C2‥‥Ckを設定する。そして、各制御点C1,C2‥‥Ckでの音圧(振幅)および位相を制御する。
これにより、制御ラインS2の右側の受聴領域において、リスナー207がスピーカSP1,SP2‥‥SPmからの音を制御ラインS2の左側の仮想点音源(仮想音源)208からの音として受聴できるようにすることができる。
ここで、制御ラインS2の右側の受聴領域は、図16に示したように、スピーカSP1,SP2‥‥SPm側とは反対側の領域であり、制御ラインS2の左側は、スピーカSP1,SP2‥‥SPm側である。
このように、各スピーカに供給する音声信号の位相と音圧(音圧レベル)とを制御することにより、目的する音場を生成し、制御することが可能である。つまり、波面合成の技術により、アレイスピーカの各スピーカに供給する音声信号の位相と音圧とを制御することによって、スピーカ部30の各スピーカから放音される音声による音像を目的とする位置に定位させるようにすることができる。
これは、イメージ的には、目的とする位置に光の焦点を結ばせる場合のようなイメージで、各スピーカから放音される音声の定位位置(音の焦点)を、目的とする位置に定位させる(結ばせる)ようにしているのである。
そして、この第2の例の場合、音像を定位させるために、図6に示した処理装置部40の音場制御回路411が、センサ部10からの三次元座標に応じて、音声処理部410が有する各スピーカに対応するデジタルフィルタの係数を制御する。
より具体的には、形成する音場においてリスナー位置を設定し、目的とする仮想音源から当該リスナー位置までの伝達関数を求めておき、この伝達関数を考慮して、音場制御回路411が、音声処理部410が有するデジタルフィルタの係数を制御する。
この場合、音場制御回路411が、想定される仮想音源に対応する伝達関数に応じたフィルタ係数などの必要なパラメータを保持している。そして、音場制御回路411が、目的とする仮想音源の位置に応じて、音声処理部410が有するデジタルフィルタ回路に供給するパラメータを変えることにより、目的とする仮想音源の位置に音像を定位させることができる。
より具体的に説明する。この第2の例においては、図11を用いて説明したように、センサパネル10Pの面からの距離に応じて、ボトムレイヤBL、ミディアムレイヤML、トップレイヤTLの3つのレイヤが設定されているものとする。また、各レイヤに対しては、図7を用いて説明したように、横方向(x軸方向)に3つの領域R1、R2、R3が設定されているものとする。
図17は、この第2の例において、設定された仮想音源の例について説明するための図である。図17において、音場AFは、スピーカ部30から放音される音声によって形成される音場を示している。
そして、図17に示す例の場合、スピーカ部30の放音面に対向する位置にリスナー位置Lを設定する。そして、リスナー位置Lに対して後方に、仮想音源P1L、P1C、P1Rを設定する。また、リスナー位置Lに対してやや後方に、仮想音源P2L、P2C、P2Rを設定し、リスナー位置Lに対して前方に、仮想音源P3L、P3C、P3Rを設定する。
これら各仮想音源P1L、P1C、P1R、P2L、P2C、P2R、P3L、P3C、P3Rに音像を定位させるために、音声処理部410が有する各スピーカに対応するデジタルフィルタに供給するパラメータが音場制御部411に用意されている。
そして、ユーザーが手などの検出対象物をセンサパネル10Pに対して近づけるようにすると、検出対象物により指定される三次元座標がセンサ部10により検出され、これが処理装置部40に供給される。
そして、当該三次元座標に基づいて、空間位置検出部405が、当該三次元座標が属するレイヤと、当該レイヤ内(二次元座標領域内)の領域とを判断する。つまり、空間位置検出部405は、センサ部10からの三次元座標が、ボトムレイヤBL、ミディアムレイヤML、トップレイヤTLのいずれに属し、かつ、属するレイヤにおいて図7に示した領域R1、R2、R3のいずれに属するかを判断する。
そして、空間位置検出部405は、当該判断結果に基づいて、例えばCPU401を通じて音場制御部411を制御する。そして、空間位置検出部405の制御に応じて、音場制御部411が音声処理部410のデジタルフィルタにパラメータを設定することによって、目的とする仮想音源の位置に音像を定位させるようにする。
具体的には、センサ部10からの検出出力である三次元座標が、トップレイヤTLの領域R1に属すると判断された場合には、図17に示した仮想音場P1Lに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、トップレイヤTLの領域R2に属すると判断された場合には、図17に示した仮想音場P2Cに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、トップレイヤTLの領域R3に属すると判断された場合には、図17に示した仮想音場P2Rに音像を定位させるようにする。
同様に、センサ部10からの検出出力である三次元座標が、ミディアムレイヤMLの領域R1に属すると判断された場合には、図17に示した仮想音場P2Lに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、ミディアムレイヤMLの領域R2に属すると判断された場合には、図17に示した仮想音場P2Cに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、ミディアムレイヤTLの領域R3に属すると判断された場合には、図17に示した仮想音場P2Rに音像を定位させるようにする。
同様に、センサ部10からの検出出力である三次元座標が、ボトムレイヤBLの領域R1に属すると判断された場合には、図17に示した仮想音場P3Lに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、ボトムレイヤBLの領域R2に属すると判断された場合には、図17に示した仮想音場P3Cに音像を定位させるようにする。
また、センサ部10からの検出出力である三次元座標が、ボトムレイヤBLの領域R3に属すると判断された場合には、図17に示した仮想音場P3Rに音像を定位させるようにする。
このようにして、この第2の例の場合には、ユーザーの手などの検出対象物が指示するレイヤをも考慮して、音声を放音する位置を異ならせることができるようにしている。
この場合、検出対象物が属するレイヤに応じて、仮想音源の位置をz軸方向にも変えるようにすることができるようにしている。
そして、上述の説明から分るように、この第2の例において、センサ手段の機能はセンサ部10が実現している。また、判断手段の機能は主に空間位置検出部405が実現している。また、出力手段の機能は、音声処理部410、音場制御部411、アンプ部412、スピーカ部30が実現している。
[音声出力処理の第2の例の変形例](請求項3)
なお、図17を用いて説明した仮想音源の設定位置は一例であり、仮想音源の設定位置は種々のものが考えられる。
例えば、各レイヤの二次元座標空間内の領域は考慮せず、検出対象物が指示する位置が、トップレイヤTLに属するときには、仮想音源P1Cに音像を定位させるようにする。また、検出対象物が指示する位置が、ミディアムレイヤMLに属するときには、仮想音源P2Cに音像を定位させるようにする。また、検出対象物が指示する位置が、ボトムレイヤBLに属するときには、仮想音源P3Cに音像を定位させるようにする。
このように、レイヤ毎に1つの仮想音源を設定し、手などの検対象物が指示する位置が属するレイヤに応じて決まる仮想音源から音声を放音するようにすることもできる。
また、センサ部10からの三次元座標が、どのレイヤに属し、そのレイヤの二次元座標領域のどこを指示しているのかは、空間位置検出部405の機能により正確に判断することができる。
そして、検出対象物がユーザーの手であることを前提にすると、センサ部10からの三次元座標が指示する位置から、当該ユーザーの頭部の位置も推定することができる。
つまり、センサ部10からの三次元座標から、当該ユーザーの手の位置(例えば、地面からユーザーの肩までの高さ)を推定することができ、当該ユーザーの手の位置から当該ユーザーの身長を推定することができる。
さらに、センサ部10からの三次元座標から、成人の手の長さの平均等を考慮することによって、センサパネル10Pの面からユーザーまでのおおよその距離も推定することができる。
これら、推定したユーザーの身長と、センサパネル10Pの面からユーザーまでの凡その距離とに基づいて、センサパネル10Pに対するユーザーの位置(ユーザーの頭部の位置)を推定することができる。
そして、この推定したユーザーの位置に応じて、当該ユーザーの頭部の近傍(耳の近傍)に仮想音源を設け、当該仮想音源に音像を定位させるようにすることもできる。このようにすることによって、センサパネル10Pに対して手をかざすようにしたユーザー対してのみに良好に聴取可能にして音声を放音することができる。
この場合、ユーザーの位置の推定は、空間位置検出部405の検出結果に基づいて、CPU401が行うことができる。そして、推定したユーザーの位置に応じて、仮想音源の位置を特定する処理もCPU401によって行うことができる。
この場合、仮想音源の位置は、推定したユーザーの位置に応じて決まるように、ユーザーの位置(頭部の位置)と仮想音源の位置とを対応付けたテーブルを作成しておくことにより、一意に特定できるようにすることができる。
そして、この場合にも、各仮想音源に応じて、音声処理部410の各スピーカに対応するデジタルフィルタ路に設定する係数などのパラメータを、例えば、音場制御部411が保持しておくようにする。
これにより、推定されたユーザーの位置に応じて設定された仮想音源の位置に応じて、音声処理部410のデジタルフィルタ回路に対して適切な係数を設定して、設定した仮想音源に音像を定位させるようにすることができる。
そして、上述の説明から分るように、この第2の例の変形例においては、ユーザーの位置を推定する推定手段の機能は空間位置検出部405とCPU401が実現している。なお、この変形例においても、センサ手段の機能はセンサ部10が、判断手段の機能は空間位置検出部405が、出力手段の機能は、音声処理部410、音場制御部411、アンプ部412、スピーカ部30が実現している。
[音声出力処理の第2の例の動作のまとめ]
次に、この音声出力処理の第2の例について、図18、図19のフローチャートを用いてまとめる。図18は、処理装置部10の空間位置検出部405において行われるセンサ値検出処理2を説明するためのフローチャートである。また、図19は、主に処理装置部10の空間位置検出部405により行うようにされる音声出力処理2について説明するためのフローチャートである。
図18に示す処理は、図9を用いて説明したセンサ検出処理1の場合と同様に、所定の間隔で繰り返し、空間位置検出部405によって実行される処理である。そして、図9を用いて説明したセンサ検出処理1の場合には、x軸、y軸の値のピーク値であるX,Yを検出した。これに対して、図18に示したセンサ検出処理2の場合には、x軸、y軸、z軸の値のピーク値であるX,Y,Zを検出するものである。
このため、図18に示す処理において、ステップS301、ステップS302においては、図9に示したステップS101、102の処理と同様の処理が行われる。すなわち、まず空間検出部405は、I/Oポート404を通じて、センサ部10からの出力値(センサデータ)を受け付けたか否かを判断する(ステップS301)。
このステップS301の判断処理は、ユーザーの手などの検出対象物が、センサ部10のセンサパネルの面に対してかざすようにされたか否かを判断する処理である。より具体的には、上述もしたように、I/Oポートを通じて受け付けたセンサ部10からの検出出力がRAM402に保持するようにされたか否かを判断する処理である。
ステップS301の判断処理において、センサ部10からの出力値は存在しないと判断したときには、この図18に示す処理を終了し、次の実行タイミングを待つことになる。ステップS301の判断処理において、センサ部10からの出力値が存在すると判断したときには、空間位置検出部405は、処理装置部40が受け付けたセンサ部10からの出力値を平滑化する処理を行う(ステップS302)。
ステップS302の処理は、センサ部10からの複数回(複数サンプル)の検出値の平均を算出し、検出値の精度を向上させるためのものである。
そして、空間位置検出部405は、三次元座標領域におけるx軸方向の値と、y軸方向の値と、z軸方向の値のピーク値X,Y,Zを検出する(ステップS303)。すなわち、センサ部10からの出力値は、上述もしたように、縦方向、横方向それぞれの積算値となるので、値が最も大きくなる点を検出値(座標値)として採用するようにしているのである。そして、図18に示す処理を終了し、次の実行タイミングを待つ。
このようにして、センサ部10からの検出出力に基づいて、空間位置検出部405は、ユーザーの手などの検出対象物が指示する三次元座標領域における位置(座標)を検出するようにしている。
そして、検出された三次元座標領域における位置(座標)を示す情報(ピーク値)は、空間位置検出部405内のレジスタやRAM403などに一時記憶するようにされる。
次に、空間位置検出部405は、図19に示す音声出力処理2を実行し、まず、図18に示した処理により検出したピーク値(三次元座標領域における位置(座標)を示す情報)を取得する(ステップS401)。
そして、空間位置検出部405は、取得したピーク値の強度が一定値以上か否かを判断する(ステップS402)。このステップS402の処理は、図10に示したステップS202の処理と同様に、たまたまユーザーの手が、センサ部10のセンサパネルの面に近づいてしまったような場合までをも処理の対象としないようにするための処理である。
ステップS402の判断処理において、取得したピーク値の強度が一定値以上ではないと判断したときには、空間位置検出部405は、この図19に示す処理を終了し、次の実行タイミングを待つことになる。
ステップS402の判断処理において、取得したピーク値の強度が一定値以上であると判断したときには、空間位置検出部405は、取得したピーク値が示す三次元座標(指示位置)が属する三次元座標領域における設定領域を判断する(ステップS403)。
このステップS203の判断処理は、図7、図11を用いて説明したように、取得したピーク値が示す三次元座標が、どのレイヤのどの領域(領域R1、R2、R3)に属するのかを判断する処理である。
そして、空間位置検出部405は、CPU401を通じて、ステップS203の判断結果に基づいて、仮想音源の位置を特定し、音場制御部411を通じて音声処理部410のデジタルフィルタを制御する(ステップS404)。
すなわち、音場制御部411は、波面合成の技術に基づいて、音声処理部410の各スピーカに対応するデジタルフィルタの係数を制御し、ユーザーの指示位置に応じた位置を仮想音源として再生音声を放音する。
そして、この図19に示す処理を終了し、空間位置検出部405は、図19に示した処理を次に実行するタイミングを待つことになる。
このようにして、音声出力処理の第2の例の場合、簡単に示せば、ユーザーの手などの検出対象物の三次元座標領域における位置に応じて、音声を放音する仮想音源を特定する。そして、その特定した仮想音源から音声が放音されているかのように聞こえるように、波面合成の技術を用いて音声情報を処理して、スピーカ部30から音声を放音することができるようにしている。
[音声出力処理の第3の例](請求項6)
次に、この実施形態の情報処理装置によって行うことが可能な音声出力処理の第3の例について説明する。この第3の例は、複数のレイヤ毎であって、各レイヤ内に設定される領域毎に、音声情報を記憶手段に記憶保持しているものとする。
そして、ユーザーの手などの検出対象物が通過したレイヤの領域と到達したレイヤの領域とを特定する。そして、記憶手段に記憶されている前記音声情報であって、検出対象物が通過したレイヤの領域に対応する音声情報と検出対象物が到達したレイヤの領域に対応する音声情報とをミックス(混合)して出力するようにしている。
[レイヤとレイヤ内の領域]
図20は、この第3の例において、図11を用いて説明したように設定される3個の各レイヤと、各レイヤ内に設定される領域とを説明するための図である。
図11を用いて説明し、また、図20にも示すように、この第3の例においても、センサパネル10Pの面からの距離の違いにより、ボトムレイヤBL、ミディアムレイヤML、トップレイヤTLの3個のレイヤが設定されているものとする。
そして、各レイヤ内は、図20に示すように、各レイヤの二次元座標領域(x−y平面)を水平方向に2等分、垂直方向に2等分することにより、大きく4つの領域を設定するようにしている。
すなわち、図20に示した例の場合、各レイヤは、実線L1で囲んだ左上領域LUと、実線R1で囲んだ右上領域RUと、実線L2で囲んだ左下領域LDと、実線R2で囲んだ右下領域RDとが設定するようにされている。そして、図20に示したように、各領域LU、RU、LD、RDは、その境界部分において重なりあう部分(オーバーラップ部分)が設けられるようにされている。
そして、この第3の例においては、レイヤ毎であって、各レイヤの領域毎に、異なる音声情報を割り当てるようにしている。このように、レイヤ毎であって、各レイヤの領域毎に割り当てられる音声情報が、音声情報記憶部407に記憶保持されている。
図21は、音声情報記憶部407に記憶保持される音声情報の構成を説明するための図である。図21に示すように、この第3の例において、音声情報記憶部407には、レイヤ別、レイヤ内の領域別に、再生対象の音声情報が記憶保持されている。
そして、図21に示すように、トップレイヤTLは、伴奏パートの音声情報が割り当てられる。具体的に、トップレイヤTLの左上領域LUに対しては、弦楽器の高音部の音声情報が割り当てられ、トップレイヤTLの右上領域RUに対しては、ブラス楽器の高音部の音声情報が割り当てられる。
また、トップレイヤTLの左下領域LDに対しては、弦楽器の低音部の音声情報が割り当てられ、トップレイヤTLの右下領域RDに対しては、ブラス楽器の低音部の音声情報が割り当てられる。
また、図21に示すように、ミディアムレイヤMLは、伴奏パートとソロパートの一部の音声情報が割り当てられる。具体的に、ミディアムレイヤMLの左上領域LUに対しては、弦楽器(全音域)の音声情報とフルートの高音部の音声情報とが割り当てられる。また、ミディアムレイヤMLの右上領域RUに対しては、ブラス楽器(全音域)の音声情報と木琴の高音部の音声情報が割り当てられる。
また、ミディアムレイヤMLの左下領域LDに対しては、弦楽器(前音域)の音声情報と木琴の低音部の音声情報が割り当てられる。また、ミディアムレイヤMLの右下領域RDに対しては、ブラス楽器(全音域)の音声情報と女性ボーカル(女声)の低音部の音声情報が割り当てられる。
また、図21に示すように、ボトムレイヤBLは、ソロパートの音声情報が割り当てられる。具体的に、ボトムレイヤBLの左上領域LUに対しては、ハープとフルートの音声情報が割り当てられ、ボトムレイヤBLの右上領域RUに対しては、ハープと木琴の音声情報が割り当てられる。
また、ボトムレイヤBLの左下領域LDに対しては、木管と女性ボーカル(女声)の音声情報が割り当てられ、ボトムレイヤMLの右下領域RDに対しては、木琴と女性ボーカル(女声)の音声情報が割り当てられる。なお、ボトムレイヤBLの各領域に割り当てられるソロパートの音声情報は、全音域のものである。
このように、この第3の例において、音声情報記憶部407には、3個のレイヤ毎であって、各レイヤの4つの領域毎に割り当てられるようにされる12トラックの音声情報(音楽ファイル)が記憶するようにされている。
この第3の例においても、センサパネル10Pの面に、ユーザーの手などの検出対象物が近づけられると、センサ部10は、検出対象物が指示する位置の三次元座標を出力する。
そして、空間位置検出部405により、ユーザーの手などの検出対象物が指示する位置が属する領域(レイヤとレイヤ内の領域)がどこかを判断する。この判断結果に応じて、CPU401は、音声処理部410を制御し、音声情報の混合(ミックス)処理を行う。
例えば、図20を用いて説明したように、レイヤとレイヤ内の領域とが設定されている場合において、ユーザーの手などが、トップレイヤTLの左上領域LUに位置するときには、弦楽器の高音部の音声情報に応じた音声をスピーカ部30から出力する。
さらに、ユーザーの手などが、ミディアムレイヤMLの左上領域LUに到達したときには、弦楽器の高音部の音声情報と、弦楽器(全音域)の音声情報とフルートの高音部の音声情報との全部をミックスした音声情報に応じた音声をスピーカ部30から放音する。
さらに、ユーザーの手などが、ボトムレイヤBLの左上領域LUに到達したときには、弦楽器の高音部の音声情報と、弦楽器(全音域)の音声情報とフルートの高音部の音声情報と、ハープの音声情報とフルートの音声情報との全部をミックスする。そして、当該ミックスした音声情報に応じた音声をスピーカ部30から放音する。
このように、この第3の例においては、図20、図21を用いて説明したように、音声情報記憶部407に、複数のレイヤ毎であって、各レイヤ内に設定される領域毎に記憶保持されている音声情報を利用するものである。
そして、ユーザーの手などの検出対象物が通過したレイヤの領域と到達したレイヤの領域とを特定する。そして、音声情報記憶部407に記憶されている音声情報であって、検出対象物が通過したレイヤの領域に対応する音声情報と検出対象物が到達したレイヤの領域に対応する音声情報とを音声処理部410においてミックス(混合)して出力する。
このように、センサ部10のセンサパネル10Pに対するユーザーの手などの検出対象物の位置に応じて、必要な音声情報を選択することができるようにされる。そして、その選択した音声情報をミックスし、このミックスした音声情報に応じた音声を放音することができる。
次に、この第3の例において行われる音声情報のミックス(混合)処理について具体的に説明する。図22は、実施形態の情報処理装置において、ユーザーの操作を受け付け、また、ユーザーに対して情報を提供する部分の構成を簡略して示した図である。また、図23は、音声情報のミックス(混合)処理時の計算について説明するための図である。
図22に示すように、ユーザーからの操作を受け付け、ユーザーに対して情報を提供する部分は、ディスプレイ部20と、その前面に設けられるセンサパネル10Pと、例えば、ディスプレイ部10の上部に設けられるスピーカ部30である。
そして、センサパネル10Pを有するセンサ部10が、これにユーザーの手などの検出対象物が近づけられた場合に、その検出対象物が指示する位置の三次元座標を検出して、処理装置部40に対して出力することができる構成となっている。
そして、この第3の例においては、ユーザーがセンサパネル10Pに対して手などをかざしていない場合であっても、音声情報記憶部407に記憶保持されている12トラックの音声情報は、常に繰り返し再生するようにしている。
つまり、CPU401は、図21を用いて説明したように、音声情報記憶部407に記憶保持されている12トラックの音声情報を読み出して、音声処理部410に供給するようにしている。しかし、この段階では、音声処理部410において音声情報のミックス処理は行われず、音声情報に応じた音声がスピーカ部30から放音されることはない。
そして、人の手などの検出対象物がセンサ部10のセンサパネル10Pに対して近づけられた場合に、センサ部10は検出対象物が指示する位置の三次元座標を検出して処理装置部40に供給する。
この場合に、空間位置検出部405が、センサ部10からの三次元座標から音声情報のミックス処理に用いる調整した三次元座標を計算により求める。そして、空間位置検出部405は、当該調整した三次元座標が属することになるセンサ領域(三次元座標空間)内の領域を判断する。
さらに、空間位置検出部405は、当該調整した三次元座標が属する領域の判断結果に基づいて、センサ領域(センサ部10が形成する座標の検出が可能な三次元座標領域)において、ユーザーの手などが通過した領域と到達した領域を判別する。
そして、空間位置検出部405は、この判別結果に基づいて、どの領域に割り当てられた音声情報を出力するかを判別し、この判別結果を音声処理部410に通知する。
音声処理部410は、空間位置検出部405からの判別結果に基づいて、出力すべき音声情報に対するミックスボリューム(混合調整値)を変化させる。これにより、出力すべき音声情報が音声処理部410においてミックス処理され、アンプ部412を通じてスピーカ部30に供給され、ユーザーの手などの検出対象物の指示する位置に応じた音声が放音するようにされる。
そして、この第3の例においては、図23の式(1)に示すように、センサ部10からの検出出力である三次元座標Vを(X,Y,Z)とし、音声情報のミックス処理に用いるパラメータであるミックスパラメータvを(x,y,z)とする。
そして、空間位置検出部405は、センサ部10から供給される三次元座標Vを用いて、調整後の三次元座標であって、音声情報のミックス処理に用いるミックスパラメータvを求める。
具体的に、空間位置検出部405は、ミックスパラメータvのx軸の座標値xは、図23の式(3)により求める。式(3)において、x´(xダッシュ)は、1ステップ前のxの値である。また、αは、予め決められた値であり、例えば、図23にも示したように、値「0.00004」が用いられる。
同様に、ミックスパラメータvのy軸の座標値yは、図23の式(4)により求める。式(4)において、y´(yダッシュ)は、1ステップ前のyの値である。また、αは、予め決められた値であり、例えば、図23にも示したように、値「0.00004」が用いられる。
また、ミックスパラメータvのz軸の座標値zは、図23の式(5)により求める。式(5)において、z´(zダッシュ)は、1ステップ前のzの値である。また、α1は、予め決められた値であり、図23にも示したように、座標値x、yを求めるために用いた値αとは異なる値を用いるようにする。座標値zは、x軸やy軸に対して直交する座標軸の値であるからである。
なお、z軸用の係数であるα1は、(Z−z´)の値の正負により値を変える。たとえば、(Z−z´)>0の場合にはα1=0.0006とし、(Z−z´)<0の場合にはα1=0.000015とする。
このようにするのは、センサ部10に対して、手などの検出対象物が遠ざかっているときは、ゆっくりとした変化にしたい(リリースを長くしたい)、と言うことを考慮したものである。
なお、上述したα、α1の値は、上述したものに限るものではなく、他の種々の値を用いるようにすることももちろん可能である。
このように、1ステップ前のミックスパラメータv´を考慮すると共に、値α、α1を指数として用いて演算を行い、ミックスパラメータv=(x,y,z)を求め、これに応じて、ユーザーが指示した位置が属する領域を判断する。この判断結果に基づいて、ミックス処理する音声情報を特定して、ミックスボリュームを調整して、音声を放音することができるようにしている。
これにより、ミックスパラメータvは、センサ部10からの三次元座標Vの動きに少し遅れて(指数関数的に)追従するようにされる。そして、図23に示した計算を、音声情報のサンプリング周波数(例えば48kHz)に応じて、繰り返し行うことで、ユーザーの手などの動きに応じて、用いる音声情報を変更しても滑らかに音声を放音することができるようにされる。
[指示位置が大きく移動した場合の処理](請求項7)
ユーザーの手などの検出対象物が、センサ部10のセンサパネル10Pの面に対してかざすようにされた場合、当該検出対象物が連続的に徐々に移動する場合もあれば、突然に離れた位置に大きく移動する場合もある。
前者の場合には、図23を用いて説明した計算処理により、音声情報のミックスに用いるようにするミックスパラメータvは、実際の検出出力(三次元座標)Vに対して滑らかに追従するので再生される音声が不自然にならないようにすることができる。また、後者の場合にも、図23を用いて説明した計算処理により、再生音声が不自然にならないようにすることができる。
図24〜図26は、指示位置が大きく移動した場合の処理について説明するための図である。具体的に図24は、センサ部10が形成するセンサ領域(三次元座標空間)において、ユーザーの手などの検出対象物が突然に大きく移動した場合の例を説明するための図である。
また、図25は、センサ部10が形成するセンサ領域(三次元座標空間)において、ユーザーの手などの検出対象物が突然に大きく移動した場合にパラメータの変化の性質を説明するための計算式を示す図である。また、図26は、図25に示した計算式により求められるミックスパラメータvの変化の様子の一例を示す図である。
図24に示すように、位置V1(X1,Y1,Z1)を指示していたユーザーの手などの検出対象物が、突然に、位置V2(X2,Y2,Z2)に移動した場合を考える。この場合、1つのレイヤ内において、二次元座標領域(x−y平面)内の位置が変わる場合もあれば、位置するレイヤが変わると共に、x−y平面内の位置も変わる場合もある。
この図24に示すように、ユーザーの手などの検出対象物が指示する位置が、異なる領域に移動するように大きく移動する場合、ミックスパラメータv(x,y,z)の動きは、ほぼ指数関数となる。
つまり、ユーザーの手などの検出対象物が指示する位置が、大きく移動した場合、ミックスパラメータv(x,y,z)は、図25に示した計算式のような性質を有すると言える。
すなわち、空間位置検出部406は、センサ部10から三次元座標に基づいて、ユーザーの手などの検出対象物が指示する位置が、大きく移動したか否かを判別することができる。
例えば、図20に示したように、レイヤ毎に4つの領域が設定されている場合に、右下領域RDから左上領域LUに移動するなど、異なる領域に移動したことを検出したとする。この場合、同一レイヤ内において移動する場合もあれば、レイヤも異なるように移動する場合もある。
この場合、図25の式(1)に示すように、移動前の三次元座標が示す位置(始点)をV1=(X1,Y1,Z1)とし、移動後の三次元座標が示す位置(終点)をV2=(X2,Y2,Z2)とする。
そして、空間位置検出部405で求められるミックスパラメータvの性質は、図25の式(3)、(4)、(5)のように示すことができる。すなわち、大きく移動した場合のミックスパラメータvのx軸の座標値x(t)の性質は、図25の式(3)のように示すことができる。
同様に、大きく移動した場合のミックスパラメータvのy軸の座標値y(t)の性質は、図25の式(4)のように示すことができる。また、大きく移動した場合のミックスパラメータvのz軸の座標値z(t)の性質は、図25の式(5)のように示すことができる。
なお、式(3)、式(4)、式(5)において、値βは、図23に示した計算処理に用いるようにした値αにより決まる値であり、値0(ゼロ)より大きな値である。具体的にβは、β=α×fで求めることができる値である。ここで、値fは1秒間に何回処理が行われるかを示す値であり、単位はHzである。そして、値fは、例えば数十Hz程度の値とされる。
そして、図25の式(3)、式(4)、式(5)において、指数関数exp(−βt)は、tが小さい状態(位置V1から位置V2へ飛んだ直後)では、値が大きく動く性質がある。
そして、ユーザーの手などの検出対象物が突然に大きく移動した場合において、x軸の座標について見ると、図26において実線で示したように、検出対象物の実際の移動は、時刻t0において、突然に座標X1から座標X2に移動したように見える。
しかし、図25に示した計算式により、図26において点線で示すように、移動直後においては大きく、その後において徐々に、ミックスパラメータを変化させることが可能となる。
そして、図25の式(3)、(4)、(5)と、前述した図23の式(3)、(4)、(5)とを比較すると、両方とも指数関数であり、図23の式(3)、(4)、(5)は、図25の式(3)、(4)、(5)の性質を実現できる式であることが分る。すなわち、図25の式(3)、(4)、(5)と、前述した図23の式(3)、(4)、(5)とは、ほぼ等価の式である。
したがって、図23に示した計算式を用いて、ミックスパラメータvを求めることにより、ユーザーの手などの検出対象物が大きく移動した場合であっても、その移動に応じて、違和感を生じさせないようにして、音声情報の再生を行うことができるようにされる。
また、ユーザーの手などの検出対象物を、センサ領域111において、50センチ移動させる場合と、その2倍の100センチ移動させる場合とについて考える。
この場合、単純に考えると、50センチ移動させる場合にかかる時間を「1」とすると、100センチ移動させる場合にかかる時間は「2」となる。しかし、図25の性質を実現する図23を用いて説明した計算処理を行うようにすることによって、100センチ移動させるようにした場合であって、位置V1から位置V2へ移動する間隔的な時間は2倍未満(例えば1.2倍程度)とすることができる。
すなわち、ユーザーの手などの移動距離に左右されること無く、図23の計算処理により、ユーザーの手などの検出対象物が大きく移動した場合には、ほぼ一定の時間で、ユーザーの手などが移動されたものとして、目的とする音声情報による音声の再生を行うことができる。
換言すれば、ユーザーの手などの移動距離に左右されること無く、ミックスパラメータvを一定の時間内に適切に求め、当該ミックスパラメータv=(x,y,z)により決まる領域に応じて、再生対象の音声情報を決定し、ミックス処理を行うことができる。したがって、指示位置が大きく移動した場合であっても、ミックスして再生するようにされる再生音声が、不自然なものとなることがないようにされる。
これにより、ユーザーの手などの検出対象物を、始点V1から終点V2に大きく移動させた場合であっても、処理装置部40内においては、いきなり位置V1から位置V2に変化したものとして音声の出力処理を行うことは無いようにしている。また、再生音声を変化させる場合であっても、移動距離に応じて音声処理に時間がかかることもないようにしている。
なお、この第3の例においても、音声の放音位置は、図7、図8を用いて説明したように、三次元座標のうちのx軸方向(横方向)のパラメータにより、16チャンネルのアレイスピーカの内の用いるスピーカを切り換えるようにする。
この場合に、音声を放音するスピーカをスムーズに切り換えるようにするために、換言すれば、音声の放音位置をスムーズに移動させるために、例えば、10サンプル程度のクロスフェードを行うようにしてもよい。
例えば、図7、図8を用いて説明したように、センサ部10のセンサパラメータ10Pの面に対するユーザーの手などの検出対象物による指示位置が、領域R1から領域R2に変わった場合を考える。
この場合には、領域R1から領域R2に変わった直後の例えば10サンプル期間においては、スピーカSP1、SP2からと、スピーカSP8、SP9からの音声との両方を出力する。
そして、スピーカSP1、SP2から出力する音声の放音レベル(音量)は徐々に小さくし、スピーカSP1、SP2から出力する音声の放音レベル(音量)は徐々に大きくする。これにより、音声の放音位置の移動がスムーズに行われる。
なお、ここでは、ユーザーの手など検出対象物が大きく移動したか否かは、センサ領域111内に予め設定するようにされている領域を変わるような移動があった場合に、検出対象物の移動が発生したと判断するようにした。
しかし、これに限るものではない、少なくとも二次元座標領域(x−y平面)内において、予め決められる一定以上の距離の移動が行われた場合に、検出対象物が大きく移動した判断することができる。
当該判断は、センサ部10から三次元座標に応じた始点、終点のうちの、x座標の値とy座標の値とに応じて決まる二次元座標平面における位置に基づいて移動距離を求め、閾値以上移動したか否かに応じて判断することができる。
[音声出力処理の第3の例の動作のまとめ]
次に、この音声出力処理の第3の例について、図27、図28のフローチャートを用いてまとめる。図27は、ユーザーの手などの指示位置に応じて、ミックスする音声情報を特定してミックスし、当該指示位置に応じたスピーカからミックスした音声を出力する音声出力処理3を説明するためのフローチャートである。
また、図28は、ユーザーの手などの指示位置に応じて、ミックスする音声情報を特定してミックスし、当該指示位置に応じた仮想音源から音声が放音されているかのように、スピーカ部30から当該音声を出力する処理を説明するためのフローチャートである。
まず、図27に示す処理について説明する。この音声出力処理の第3の例の場合にも、空間位置検出部405においては、図18を用いて説明したセンサ値検出処理2が実行され、三次元座標領域におけるx軸方向の値と、y軸方向の値と、z軸方向の値のピーク値X,Y,Zとが検出される。
この後、空間位置検出部405は、図27に示す処理を実行し、まず、図18に示した処理により検出したピーク値(三次元座標領域における位置(座標)を示す情報)を取得する(ステップS501)。
そして、空間位置検出部405は、取得したピーク値の強度が一定値以上か否かを判断する(ステップS502)。このステップS502の処理は、例えば、たまたまユーザーの手が、センサ部10のセンサパネルの面に近づいてしまったような場合までをも処理の対象としないようにするための処理である。換言すれば、ユーザーが意思を持って、手などの検出対象物をセンサ部10のセンサパネルの面に近づけた場合を検出するようにしている。
ステップS502の判断処理において、取得したピーク値の強度が一定値以上ではないと判断したときには、空間位置検出部405は、この図27に示す処理を終了する。そして、次の実行タイミングを待つことになる。
ステップS502の判断処理において、取得したピーク値の強度が一定値以上であると判断したときには、空間位置検出部405は、取得したピーク値V=(X,Y,Z)を用い、図23の計算式に基づき、ミックスパラメータv=(x,y,z)を求める(ステップS503)。
そして、空間位置検出部405は、求めたパラメータvに基づいて、ユーザーの手などの検出対象物が通過した領域と到達した領域を特定し、これに応じて、再生すべき音声情報を特定する(ステップS504)。
この後、空間位置検出部405は、ステップS505の特定結果に基づいて、音声処理部410を制御し、再生すべき音声情報をミックス処理するようにする(ステップS505)。
さらに、空間位置検出部405は、ユーザーの手などの検出対象物が到達した領域に応じて、音声を放音するスピーカを特定し、そのスピーカからミックスした音声情報に応じた音声を出力するように用いるスピーカチャンネルを切り換える(ステップS506)。そして、この図27に示す処理を終了し、次の実行タイミングを待つ。
このようにして、ユーザーの手などの検出対象物による指示位置が属する領域に応じて、再生すべき音声情報を特定し、特定した音声情報をミックス処理して、当該指示位置に応じたスピーカから音声を放音することができる。
次に、図28に示す処理について説明する。上述したように、図28に示す処理は、ユーザーの手などの指示位置に応じて、ミックスする音声情報を特定してミックスし、当該指示位置に応じた仮想音源から音声が放音されているかのように、スピーカ部30から当該音声を出力する処理である。
このため、図28のフローチャートにおいて、上述した図27のフローチャートと同様の処理が行われるステップには同じ参照符号を付し、その部分の説明は重複するので省略することとする。
そして、図27と図28とを比べると分かるように、図28において、ステップS506Aの処理が、図27に示した処理とは異なるものである。
ステップS507Aにおいては、特定してミックスした音声情報を、ユーザーの指示位置に応じた仮想音源から放音されているように聴取できるようにする。
具体的には、音声出力処理の第2の例の場合と同様に、空間位置検出部405が、ユーザーの指示位置が属する領域に基づいて、仮想音源を特定し、これに基づき、音場制御部511を通じて音声処理部510のデジタルフィルタを制御する。
これにより、ミックスした音声情報に応じた音声が、特定された仮想音源から放音されているように聴取できるようにして、アレイスピーカの構成とされたスピーカ部30から放音するようにされる。
このように、ユーザーの手などの検出対象物が通過した領域と到達した領域とに基づいて、ミックス処理する音声情報を特定してミックスする。そして、このミックスした音声情報に応じた音声を、ユーザーの手などの指示位置に応じた仮想音源から音声が放音されているかのように聴取できるように、波面合成の技術を用いて音像の定位処理をも行うことができる。
なお、上述した第3の例の場合には、各レイヤを4つの領域LU、RU、LD、RDに分け、隣り合う領域同士が重なりあう部分を設けるようにした。これは、当該重なり合う部分では、その重なり合う領域の双方の音声情報をミックスするようにする。
このようにすることによって、例えば、ユーザーの手などの検出対象物が、同一レイヤ内において領域を変えるように移動した場合であっても、急に出力される音声が変わるのではなく、より自然に出力される音声を変えることができるようにしている。
また、上述した第3の例においては、レイヤ毎に4つの領域LU、RU、LD、RDを設けるようにしたが、これに限るものではない。レイヤ毎に2つ以上の複数の領域を設けるようにすることができる。
そして、各領域は、必ずしも等しい大きさにする必要はなく、設ける領域の位置や大きさは、様々なものとすることができる。また、レイヤ毎に、異なる位置に異なる大きさの領域を設けるようにすることももちろん可能である。
なお、上述した説明から明らかなように、この音声出力処理の第3の例において、記憶手段は、音声情報記憶部407が実現している。また、センサ手段の機能はセンサ部10が実現している。判断手段の機能は、空間位置検出部405が実現している。また、出力手段の機能は、主に、音声処理部410、アンプ部412、スピーカ部30が実現している。また、座標調整手段の機能は、空間位置検出部405が実現している。
[音声出力処理の第3の例の変形例1](請求項4、請求項5)
上述した音声出力処理の第3の例は、レイヤ毎であって、各レイヤに設定された領域毎に、再生対象の音声情報を割り当て、通過した領域と、到達した領域とに応じて、ミックス処理する音声情報を特定するようにした。しかし、これに限るものではない。
例えば、レイヤ毎に領域は設けず、各レイヤに対して音声情報を割り当てるようにすることもできる。つまり、レイヤ毎に1つの領域が設けられているここと等価である。
そして、ユーザーの手などの検出対象物が指示する位置が属するレイヤに割り当てられている音声だけを出力することが可能である。また、検出対象物が通過したレイヤに割り当てられている音声情報と到達したレイヤに割り当てられている音声情報とをミックス処理して出力したりすることも可能である。
前者の場合には、空間位置検出部405において、ユーザーの手などの指示位置が属するレイヤを判断し、そのレイヤに割り当てられている音声情報に応じた音声を出力するように、空間位置検出部405が音声処理部を制御するようにすればよい。
この場合、上述した第3の例の場合と同様に、ユーザーの指示位置に応じて音声を放音するスピーカを変えることも可能である。また、音場制御部411を通じて音声処理部410のデジタルフィルタを制御することによって、仮想音源から音声が放音されているかのように制御することも可能である。
また、後者の場合には、レイヤ毎に設定された領域が1つの場合であるので、ユーザーの手などの検出対象物が通過したレイヤに割り当てられている音声情報と到達したレイヤに割り当てられている音声情報とを音声処理部405においてミックスして出力する。
この場合においても、上述した音声出力処理の第3の例の場合と同様に、ユーザーの指示位置に応じて音声を放音するスピーカを変えることも可能である。また、音場制御部411を通じて音声処理部410のデジタルフィルタを制御することによって、仮想音源から音声が放音されているかのように制御することも可能である。
なお、この音声出力処理の第3の例の場合には、3つのレイヤを用いるようにしたが、レイヤの数は3つに限るものではなく、2つ以上の任意の数のレイヤを設定して用いるようにすることが可能である。なお、センサ部10の検出感度に応じて、レイヤの数は適切なものとすることが好ましい。
[映像出力処理](請求項8)
上述したように、この実施形態の情報処理装置は、センサ部10を通じて検出する三次元座標領域におけるユーザーの手などの検出対象物の指示位置に応じて、音声情報の出力処理を制御できるものである。具体的には、検出対象物による指示位置に応じて、用いるスピーカを変えたり、仮想音源を設定したり、また、ミックスする音声情報を特定してミックスしたりすることができる。
しかし、この実施形態の情報処理装置は、音声出力処理だけでなく、映像出力処理についても検出対象物による指示位置に応じて制御することができるようにしている。
すなわち、上述もしたように、この実施形態の情報処理装置は、映像情報記憶部406に記憶保持されている映像情報は、CPU401により読み出され、物理計算処理部408、映像処理部409を通じてディスプレイ装置20に供給するようにされる。
この場合、物理計算処理部408は、上述もしたように、ユーザーの手などの検出対象物が指示する三次元座標空間における指示位置に応じて、映像情報に対して物理モデルに従った効果を与える。
この例においては、物理モデルとして水紋(波紋)を用いる。図29は、ユーザーの手などの検出対象物が指示する三次元座標空間における指示位置に応じて、表示する映像に水紋を発生させる場合について説明するための図である。また、図30は、表示する映像に水紋を発生させるための物理モデルの具体例を説明するための図である。
図29に示すように、ユーザーがセンサパネル10Pに対して手を近づけた場合、ユーザーの手が指示する三次元座標空間における位置を中心にして、水紋を発生させるように物理計算処理部408が、これに供給される映像情報に対して計算を施す。
ユーザーの手が、図29において、点線で示した手の位置から、実線で示した手の位置に移動した場合には、さらに移動後の手の位置に応じても、水紋を表示させる。この場合の計算は、ユーザーの手などによる指示位置を中心にして、再生対象の映像情報による映像を水面とみなし、当該水面に対して垂直方向の加速度を加算するようにする。
この場合、加算する加速度は、1点だけでなく、広がりを持っていて、その分布はガウス関数をいくつか組み合わせたものである。つまり、図30(A)に示すように、正方向に変化するガウス関数と、図30(B)に示すように、負方向に変化するガウス関数を組み合わせることによって、図30(C)に示すように、正方向にも、負方向にも変化する関数を形成する。
そして、下側矢印で示した分布の中心を、センサ部10からの検出出力により決まる三次元座標のうちの二次元座標(x,y)となり、その形状(大きさ)は、センサパネル10Pに直交する方向(z軸方向)の深度zに応じて変化させるようにする。
これにより、図29に示したように、ユーザーの手などの検出対象物によって指示される三次元座標空間における位置に応じて、物理計算処理部408において、映像情報に対して水紋を生じさせるようにする効果を与えることができる。
次に、空間位置検出部405と、物理計算処理部408とが協働して行う映像表示処理について説明する。図31は、空間位置検出部405と、物理計算処理部408とが協働して行う映像表示処理を説明するためのフローチャートである。
上述もしたように、この実施形態の情報処理装置においては、空間位置検出部405が、図18に示したセンサ値検出処理2を例えば一定時間毎に繰り返し実行している。そして、空間位置検出部405は、図31に示す映像表示処理も、例えば一定時間ごとに繰り返し実行するようにしている。
そして、空間位置検出部405は、図31に示す映像出力処理を実行し、まず、図18に示した処理により検出したピーク値(三次元座標領域における位置(座標)を示す情報)を取得する(ステップS601)。
そして、空間位置検出部405は、取得したピーク値の強度が一定値以上か否かを判断する(ステップS602)。このステップS602の処理は、上述した音声出力処理1,2,3の場合と同様に、たまたまユーザーの手が、センサ部10のセンサパネルの面に近づいてしまったような場合までをも処理の対象としないようにするための処理である。
ステップS602の判断処理において、取得したピーク値の強度が一定値以上であると判断したときには、空間位置検出部405は、物理計算処理部408を制御し、予め決められた物理モデルに従って映像情報に対して計算処理を施す(ステップS603)。
具体的には、上述もしたように、物理モデルとして水紋現象を用いるようにし、図30を用いて説明したようなガウス関数をいくつか組み合わせた関数を用いて、ユーザーの指示位置に応じて、表示する映像に波紋を生じさせる処理を行う。
この後、物理計算処理部408は、物理状態を1ステップ発展させるように、映像情報に対して計算処理を施し(ステップS604)、この図31に示す処理を終了させ、次の実行タイミングを待つ。
また、ステップS602の判断処理において、取得したピーク値の強度が一定値以上ではないと判断したときには、ステップS604の処理に進む。そして、空間位置検出部405が物理計算処理部408を制御し、物理計算処理部408において、物理状態を1ステップ発展させるように、映像情報に対して計算処理を施す(ステップS604)。この後、この図31に示す処理を終了させ、次の実行タイミングを待つ。
このように、この実施形態の情報処理装置は、ユーザーの手などの検出対象物が指示する三次元座標空間における指示位置に応じて、映像情報に対して物理モデルに従った効果を与えることができるようにしている。
なお、ここでは物理モデルとして水紋を用いるようにしたが、これに限るものではない。水紋以外の種々の物理モデルを用いることにより、表示する映像に対して種々の効果(エフェクト)を与えることができる。
なお、上述した説明から明らかなように、この映像出力処理において、画像表示手段はディスプレイ部20が実現している。また、効果付与手段は主に物理計算処理部408が実現している。
[応用例]
この実施形態の情報処理装置は、上述したように音声出力処理や映像出力処理を行う機能を有するものである。以下においては、これらの機能を用いる場合の応用例について説明する。
以下に説明する応用例は、センサ部10に対して操作が行われていない場合においては、映像情報記憶部406に記憶保持されている映像情報に応じた映像が、物理計算処理部408、映像処理部409を通じて、ディスプレイ部20の表示画面に表示される。
そして、ランダムなタイミングで、表示されている映像の任意の位置(ランダムな位置)に、水滴を落として水紋(波紋)を広げるように表示する処理を、空間位置検出部405とCPU401とが協働して物理計算処理部を制御することにより行う。
同時に、表示するようにされる上述の水滴が水面に落ちるタイミングで、水滴が水面に落ちる音(水滴音)を、波面合成の技術を用い、仮想音源をランダムな位置に設定して、水滴音をスピーカ部30から放音する処理を行なう。
当該水滴音の放音処理は、空間位置検出部405とCPU401とが協働して、音声処理部410と音場制御部411とを制御することにより行う。これにより、水滴音は、設定された仮想音源から放音されているかのように聴取することができるようにされる。
このように、センサ部10に対して操作が行われていない場合には、表示画像に対して、ランダムなタイミングで、ランダムな位置に水滴を落として水紋を広げるようにする映像を表示することができる。そして、同時に、表示される水滴が水面に落ちるタイミングで、水滴音を任意の位置から放音されたように聴取できるようにして、スピーカ部30から放音することができる。
また、センサ部10に対して操作が行われた場合、すなわち、センサパネル10Pに対してユーザーの手などの検出対象物が近づけるようにされた場合には、当該検出対象物が示す位置に応じて、表示される映像に水紋を発生させるようにする。
この場合には、上述もしたように、主に、空間位置検出部405が物理計算処理部408を制御して、検出対象物による指示位置に応じた表示画面上の位置から水紋を発生させるようにして表示する。
また、この場合、図27を用いて説明した第3の例に従った音声出力処理を行う。すなわち、音声情報記憶部407には、図20、図21を用いて説明した態様で、音声情報が記憶されている。
そこで、空間位置検出部406は、検出対象物が指示する位置が属する領域に応じて、当該検出対象物が通過した領域と到達した領域とを判別して、ミックス処理する音声情報を特定する。また、同時に、空間位置検出部406は、検出対象物が指示する位置が属する領域に応じて、音声を放音するスピーカを特定する。
この特定結果に基づいて、空間位置検出部406が、音声処理部410を制御し、音声処理部410のミックスボリュームとスイッチ回路とを調整して、ユーザーの指示に応じた音声情報をミックス処理して、ユーザーの指示に応じたスピーカから放音する。
このように、この実施形態の情報処理装置は、センサ部10に対してユーザーが指示していない場合と、指示している場合とで、音声出力処理や映像出力処理を異ならせることができる。
次に、この応用例における映像出力処理と音声出力処理について、図32、図33のフローチャートを参照しながら説明する。
図32は、この実施形態の情報処理装置において、空間位置検出部405と、物理計算処理部408とが協働して行う、この応用例における映像出力処理を説明するためのフローチャートである。
上述もしたように、この実施形態の情報処理装置においては、空間位置検出部405が、図18に示したセンサ値検出処理2を例えば一定時間毎に繰り返し実行している。そして、空間位置検出部405は、図32に示す映像表示処理も、例えば一定時間ごとに繰り返し実行するようにしている。
そして、空間位置検出部405は、図32に示す映像出力処理を実行し、まず、図18に示した処理により検出したピーク値(三次元座標領域における位置(座標)を示す情報)を取得する(ステップS701)。
そして、空間位置検出部405は、取得したピーク値の強度が一定値以上か否かを判断する(ステップS702)。このステップS702の処理は、上述した音声出力処理1,2,3の場合と同様に、たまたまユーザーの手が、センサ部10のセンサパネルの面に近づいてしまったような場合までをも処理の対象としないようにするための処理である。
ステップS702の判断処理において、取得したピーク値の強度が一定値以上であると判断したときには、空間位置検出部405は、物理計算処理部408を制御し、水紋を発生させて表示するようにする処理を行う(ステップS703)。
具体的に、上述もしたように、物理モデルとして水紋現象を用いるようにし、図30を用いて説明したようなガウス関数をいくつか組み合わせた関数を用いて、映像情報に対して計算処理を施し、ユーザーの指示位置に応じて、表示映像に波紋を生じさせる。
この後、物理計算処理部408は、物理状態を1ステップ発展させるように、映像情報に対して計算処理を施し(ステップS704)、この図32に示す処理を終了させ、次の実行タイミングを待つ。
また、ステップS702の判断処理において、取得したピーク値の強度が一定値以上ではないと判断したときには、空間位置検出部405は、物理計算処理部408を制御し、水滴を発生させて落とすように表示する処理を行う(ステップS706)。
この場合、水滴を落とす位置はランダムに決められる。また、水滴を落とした位置から水紋が広がるように、物理計算処理部408においての計算処理も合わせて行うようにされる。
この後、物理計算処理部408は、物理状態を1ステップ発展させるように、映像情報に対して計算処理を施し(ステップS704)、この図32に示す処理を終了させ、次の実行タイミングを待つ。
このようにして、ユーザーからの指示がない場合には、ランダムに水滴を発生させて水面に落とし、その落下位置から水紋が広がるように、表示映像に対して効果(エフェクト)を与えるようにすることができる。
そして、ユーザーからの指示がある場合には、指示位置に応じたディスプレイ20の表示画面上の位置から水紋が広がるように、表示映像に対して効果(エフェクト)を与えるようにすることができる。
図33は、この実施形態の情報処理装置において、空間位置検出部405と、音声処理部410と、音場制御部411とが協働して行う、この応用例における音声出力処理を説明するためのフローチャートである。
この図33に示す処理は、図32に示した映像表示処理に連動して実行される処理であり、CPU401と、座標位置検出部405と、音声処理部410と、音場制御部411とが協働して実行する処理である。
図33に示す映像出力処理が実行されると、CPU401は、物理計算処理部(物理エンジン)408において、水滴を形成して表示するようにする処理が行われたか否かを判断するステップS801)。
ステップS801の判断処理において、水滴が生成されたと判断したときには、CPU401が、音声処理部410、空間位置検出部405を制御し、新たな水滴音を再生するようにすると共に、仮想音源を移動させるようにする処理を行う(ステップS802)。
そして、空間位置検出部405が、音場制御部411を制御し、ステップS802において移動させるようにした仮想音源から水滴音が放音されているかのように聴取できるようにするために、音声処理部410のデジタルフィルタを制御する(ステップS803)。
つまり、ステップS803の処理は、波面合成の技術を用いて、音声処理部410のデジタルフィルタの係数等を制御することにより、仮想音源を設定し、その仮想音源から音声が放音されているように音声信号のデジタルフィルタ処理を行うものである。
この後、CPU401は、空間位置検出部405等を制御し、図27のフローチャートを用いて説明した音声出力処理3を実行する(ステップS804)。そして、この図32の処理を終了し、次の実行タイミングを待つことになる。
このように、この応用例の場合には、センサ部10に対してユーザーが操作を行っていない場合であっても、表示映像に対して水滴を落として水紋を発生させるようにすると言う効果を与えることができる。同時に、波面合成の技術を用い、水滴音を仮想音源を移動させながら、再生して放音させるようにすることができる。
そして、センサ部10に対してユーザーが操作を行った場合には、ユーザーの指示位置に応じて、表示映像に対して水紋を発生させるようにすると言う効果を与えることができる。同時に、ユーザーの手などの検出対象物が通過した領域と到達した領域とに応じて合成するべき音声情報を特定し、これらをミックス処理して、ユーザーの指示位置に応じたスピーカから当該ミックス処理した音声情報に応じた音声を放音することができる。
[この発明の方法、プログラム]
なお、上述した実施形態から明らかなように、この発明の方法、プログラムは、図9及び図10、図18及び図19、図27、図28のフローチャートを用いて説明した方法、プログラムとして実現可能である。
すなわち、図9及び図10、図18及び図19、図18及び、図27又は図28のフローチャートを用いて説明した方法は、この発明の方法である。
そして、図9及び図10、図18及び図19、図18及び、図27又は図28のフローチャートに応じて形成可能なプログラムは、この発明のプログラムである。
[実施形態の効果]
ユーザーの手などの検出対象物が近づけられることにより、センサ部10のセンサパネル10Pにおける静電容量が変化するようにされる。そして、このセンサ部10を通じて検出可能な静電容量の測定値の変化に基づき、オーディオ出力を制御することにより、人の手によるジェスチャーフィードバックに応じて、再生対象の音声の放音制御を行うことができる。
すなわち、当該人の手の位置(センサパネル10Pに対する左右、奥行き)に応じて、再生対象の音声を再生して放音できるようにする。この場合、音声が放音される位置、仮想音源の位置、音声のミックス処理等を人の手によるジェスチャーに応じて変化させることができる。
また、指数関数を用いてオーディオ出力を制御することにより、遷移量にかかわらずほぼ同一の時間でオーディオ出力を遷移させることができる。
さらに、静電容量の測定値の変化に基づき、画面エフェクトをも制御できる。
これらにより、ユーザーの手によるジェスチャーに応じて、音声出力を制御し、また、表示映像(表示画像)に所定の効果(エフェクト)を与えることができる。これにより、従来にない、新たな情報処理装置(情報提供装置)を実現することができる。
そして、上述した実施形態の情報処理装置は、例えば、デパートや種々のショールーム等で用いることが可能な、従来にないタッチパネルディスプレイを実現することができる。
例えば、商品等の映像と、音声(音楽や説明音声)とを、ユーザーのセンサパネル10Pに対して行うようにするジェスチャー(手などの検出対象物の動き)に応じて変化させるようにすることができる。
また、上述した実施形態の情報処理装置は、例えば、遊園地などのアミューズメントパークなどにおける新規のアトラクションや、あるいは、案内表示などに適用可能である。
[その他]
なお、再生可能な音声情報は、上述した実施の形態のように、種々の楽曲などの音楽情報や水滴なの種々の効果音の他、アナウンスなどの人の声や、これらの種々の音声情報を合成した音などを用いることができる。すなわち、再生可能な種々の音声情報を用いることが可能である。
また、再生可能な映像情報(画像情報)は、種々の静止画像や動画像を用いることが可能である。静止画像の場合には、いわゆるスライドショーのように、複数の静止画像を順次に再生することも可能である。
また、静止画像と動画像とを交互に再生するようにしたり、また、アニメーション画像や種々のコンピュータグラフィックス画像などを再生するようにしたりすることももちろん可能である。
10…センサ部、10P…センサパネル、12…X−Zセンサパネル、13…Y−Zセンサパネル、101H…発振器、102H1〜102Hm…横電極容量検出回路、101V…発振器、102V1〜102Vm…縦電極容量検出回路、103…アナログスイッチ回路、104…周波数カウンタ、20…ディスプレイ部、20G…表示画面、30…スピーカ部、SP1〜SP16…スピーカ、40…処理装置部、400…システムバス、401…CPU、402…ROM、403…RAM、404…I/Oポート、405…空間位置検出部、406…映像情報記憶部、407…音声情報記憶部、408…物理計算処理部、409…映像処理部、410…音声処理部、411…音場制御部、412…アンプ部、413…キーボードI/F

Claims (10)

  1. 空間的に離間する検出対象物により指定される三次元座標を検出するセンサ手段と、
    上記センサ手段が検出した上記三次元座標が含まれる予め指定された領域を判断する判断手段と、
    上記判断手段の判断結果に基づいて、上記三次元座標のうち少なくとも二次元座標に対応する位置から音声情報に応じた音声を出力する出力手段と、
    を備える情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    上記出力手段は、上記判断手段の判断結果に基づいて、上記三次元座標に対応する位置から音声情報に応じた音声を出力するようにすることが可能な情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    上記センサ手段は、検出対象物であるユーザーの手により指定される上記三次元座標を検出することができるものであり、
    上記センサ手段により検出される上記三次元座標に基づいて、上記ユーザーの位置を推定する推定手段を備え、
    上記出力手段は、上記推定手段により推定された上記ユーザーの位置に応じた位置から上記音声情報に応じた音声を出力する情報処理装置。
  4. 請求項2に記載の情報処理装置であって、
    上記センサ手段のセンサ面からの距離に応じて設定される複数のレイヤ毎に、音声情報を記憶保持する記憶手段を備え、
    上記出力手段は、上記判断手段の判断結果に基づいて、上記センサ手段が検出した上記三次元座標が属するレイヤを判別し、上記記憶手段に記憶されている上記レイヤに応じた上記音声情報を出力する情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    上記出力手段は、上記判断手段の判断結果に基づいて、上記検出対象物が通過したレイヤと到達したレイヤとを特定し、上記記憶手段に記憶されている上記音声情報であって、上記検出対象物が通過したレイヤに対応する音声情報と上記検出対象物が到達したレイヤに対応する音声情報とを混合して出力する情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    上記記憶手段は、上記複数のレイヤ毎であって、各レイヤ内に設定される領域毎に、音声情報を記憶保持しており、
    上記出力手段は、上記判断手段の判断結果に基づいて、上記検出対象物が通過したレイヤの領域と到達したレイヤの領域とを特定し、上記記憶手段に記憶されている上記音声情報であって、上記検出対象物が通過した上記レイヤの領域に対応する音声情報と上記検出対象物が到達した上記レイヤの領域に対応する音声情報とを、混合して出力する情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    上記センサ手段からの今回の検出出力と前回の検出出力とを用い、所定の関数に応じて、検出出力である上記三次元座標を所定の時間範囲において変化させるように調整する座標調整手段と、
    を備え、
    上記出力手段は、上記座標調整手段からの調整された上記三次元座標に基づいて、用いる音声情報を変えるようにする情報処理装置。
  8. 請求項2に記載の情報処理装置であって、
    画像表示手段と、
    上記判断手段の判断結果が、上記三次元座標が予め指定された領域に含まれていることを示している場合に、上記三次元座標を用い、所定の物理モデルにしたがって、上記画像表示手段に供給する映像信号に対して所定の効果を与える効果付与手段と、
    を備える情報処理装置。
  9. センサ手段を通じて、空間的に離間する検出対象物により指定される三次元座標を検出する検出工程と、
    判断手段が、上記検出工程において検出した上記三次元座標が含まれる予め指定された領域を判断する判断工程と、
    出力手段が、上記判断工程においての判断結果に基づいて、上記三次元座標のうち少なくとも二次元座標に対応する位置から音声情報に応じた音声を出力する出力工程と、
    を有する情報処理方法。
  10. センサ手段を通じて、空間的に離間する検出対象物により指定される三次元座標を検出する検出ステップと、
    判断手段を通じて、上記検出ステップにおいて検出した上記三次元座標が含まれる予め指定された領域を判断する判断ステップと、
    出力手段が、上記判断ステップにおいての判断結果に基づいて、上記三次元座標のうち少なくとも二次元座標に対応する位置から音声情報に応じた音声を出力する出力ステップと、
    を情報処理装置に搭載されたコンピュータが実行する情報処理プログラム。
JP2009009439A 2009-01-20 2009-01-20 情報処理装置、情報処理方法および情報処理プログラム Withdrawn JP2010170166A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009009439A JP2010170166A (ja) 2009-01-20 2009-01-20 情報処理装置、情報処理方法および情報処理プログラム
US12/686,678 US8698758B2 (en) 2009-01-20 2010-01-13 Information processing apparatus, method, and program that detects three-dimensional coordinates and outputs corresponding audio
CN2010100042788A CN101794180B (zh) 2009-01-20 2010-01-20 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009009439A JP2010170166A (ja) 2009-01-20 2009-01-20 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2010170166A true JP2010170166A (ja) 2010-08-05

Family

ID=42336539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009009439A Withdrawn JP2010170166A (ja) 2009-01-20 2009-01-20 情報処理装置、情報処理方法および情報処理プログラム

Country Status (3)

Country Link
US (1) US8698758B2 (ja)
JP (1) JP2010170166A (ja)
CN (1) CN101794180B (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
WO2014017134A1 (ja) * 2012-07-27 2014-01-30 ソニー株式会社 情報処理システムおよび記憶媒体
JP2016100794A (ja) * 2014-11-21 2016-05-30 シャープ株式会社 通信装置、および通信装置の制御方法
WO2018008395A1 (ja) * 2016-07-05 2018-01-11 ソニー株式会社 音場形成装置および方法、並びにプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202010011656U1 (de) * 2010-08-21 2011-11-30 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Hallstadt Kapazitiver Abstandssensor
DE102010044820B4 (de) * 2010-09-09 2015-01-22 Ident Technology Ag Sensoreinrichtung sowie Verfahren zur Annäherungs- und Berührungsdetektion
US10448161B2 (en) 2012-04-02 2019-10-15 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field
CN103686136A (zh) * 2012-09-18 2014-03-26 宏碁股份有限公司 多媒体处理***及音频信号处理方法
US10158962B2 (en) * 2012-09-24 2018-12-18 Barco Nv Method for controlling a three-dimensional multi-layer speaker arrangement and apparatus for playing back three-dimensional sound in an audience area
CN104798383B (zh) * 2012-09-24 2018-01-02 巴可有限公司 控制三维多层扬声器装置的方法和在听众区回放三维声音的设备
CN104375811B (zh) * 2013-08-13 2019-04-26 腾讯科技(深圳)有限公司 一种音效处理方法和装置
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
DE112017007397B4 (de) 2017-04-04 2021-09-30 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
CN110520259B (zh) 2017-04-04 2021-09-21 牧今科技 控制装置、拾取***、物流***、存储介质以及控制方法
CN115385039A (zh) 2017-04-04 2022-11-25 牧今科技 控制装置、信息处理装置、控制方法以及信息处理方法
JP6363294B1 (ja) 2017-04-04 2018-07-25 株式会社Mujin 情報処理装置、ピッキングシステム、物流システム、プログラム、及び、情報処理方法
JP6258557B1 (ja) 2017-04-04 2018-01-10 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082745A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置及び方法、並びにプログラム格納媒体
KR101134027B1 (ko) * 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 디바이스의 오염을 방지하는 방법 및 디바이스
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
US7721227B2 (en) * 2004-09-23 2010-05-18 Nokia Corporation Method for describing alternative actions caused by pushing a single button
US8284165B2 (en) 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
JP4766340B2 (ja) 2006-10-13 2011-09-07 ソニー株式会社 近接検知型情報表示装置およびこれを使用した情報表示方法
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235588A (ja) * 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
WO2014017134A1 (ja) * 2012-07-27 2014-01-30 ソニー株式会社 情報処理システムおよび記憶媒体
JPWO2014017134A1 (ja) * 2012-07-27 2016-07-07 ソニー株式会社 情報処理システムおよび記憶媒体
US9615173B2 (en) 2012-07-27 2017-04-04 Sony Corporation Information processing system and storage medium
RU2635046C2 (ru) * 2012-07-27 2017-11-08 Сони Корпорейшн Система обработки информации и носитель информации
JP2016100794A (ja) * 2014-11-21 2016-05-30 シャープ株式会社 通信装置、および通信装置の制御方法
WO2018008395A1 (ja) * 2016-07-05 2018-01-11 ソニー株式会社 音場形成装置および方法、並びにプログラム
US11310617B2 (en) 2016-07-05 2022-04-19 Sony Corporation Sound field forming apparatus and method

Also Published As

Publication number Publication date
CN101794180B (zh) 2013-01-02
US8698758B2 (en) 2014-04-15
CN101794180A (zh) 2010-08-04
US20100182231A1 (en) 2010-07-22

Similar Documents

Publication Publication Date Title
JP2010170166A (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR101901908B1 (ko) 오디오 신호 처리 방법 및 그에 따른 오디오 신호 처리 장치
JP6322830B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
EP2791622B1 (en) Navigational soundscaping
KR20180050746A (ko) 오디오 파일들의 헤드 포즈 혼합
WO2005090916A1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよびコンピュータ読み取り可能な記録媒体
JP2015172899A (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
WO2019098022A1 (ja) 信号処理装置および方法、並びにプログラム
US20220386062A1 (en) Stereophonic audio rearrangement based on decomposed tracks
US11200739B2 (en) Virtual scene
JP5456622B2 (ja) ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP5169300B2 (ja) 楽音信号出力装置
KR100697442B1 (ko) 음향 재생 장치를 이용한 이동 시뮬레이팅 방법 및 상기방법을 수행하기 위한 사운드 재생 장치
CN112883223A (zh) 音频展示方法、装置、电子设备及计算机存储介质
Hamanaka Sound Scope Pad: Controlling a VR Concert with Natural Movement
KR101543535B1 (ko) 입체 음향 제공 시스템, 장치 및 방법
JP2011053345A (ja) 歌詞文字の立体表示機能を有するカラオケシステム
JP6634857B2 (ja) 楽曲演奏装置、楽曲演奏用プログラム及び楽曲演奏方法
JP5448611B2 (ja) 表示制御装置及び制御方法
JP2013038511A (ja) オーディオデータの再生方法、及び、オーディオデータの再生装置
JP2008165098A (ja) 電子楽器
CN117935767A (zh) 一种模拟生成音频的方法、装置、设备以及可读介质
JP2019186657A (ja) 出力装置および出力方法
JP5522212B2 (ja) カラオケ装置
Sasamoto et al. Spatial sound control with the Yamaha Tenori-On

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120403