JP6609383B2 - オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ - Google Patents

オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ Download PDF

Info

Publication number
JP6609383B2
JP6609383B2 JP2018568745A JP2018568745A JP6609383B2 JP 6609383 B2 JP6609383 B2 JP 6609383B2 JP 2018568745 A JP2018568745 A JP 2018568745A JP 2018568745 A JP2018568745 A JP 2018568745A JP 6609383 B2 JP6609383 B2 JP 6609383B2
Authority
JP
Japan
Prior art keywords
digital camera
digital
sound
sensor
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018568745A
Other languages
English (en)
Other versions
JP2019526956A (ja
Inventor
ボイル,チャールズ,エー.ジー.
マドセン,カレブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acoustic Knowledge LLC
Original Assignee
Acoustic Knowledge LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acoustic Knowledge LLC filed Critical Acoustic Knowledge LLC
Publication of JP2019526956A publication Critical patent/JP2019526956A/ja
Application granted granted Critical
Publication of JP6609383B2 publication Critical patent/JP6609383B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/006Arrangements for the associated working of recording or reproducing apparatus with related apparatus with video camera or receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • H04N5/9202Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/802Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving processing of the sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10592Audio or video recording specifically adapted for recording or reproducing multichannel signals
    • G11B2020/106113D video data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、デジタルカメラに関し、より詳細には、オーディオ、ビジュアル及びモーション入力を備えたデジタルカメラに関する。
デジタルカメラは、デジタル画像を生成するカメラである。生成されたデジタル画像は、コンピュータ内に記憶されたり、スクリーン上に表示されたり、印刷されたりし得る。今日販売されているほとんどのカメラはデジタルであり、デジタルカメラは、携帯情報端末(PDA)や携帯電話(カメラ付き携帯電話)から車両に至るまで、多くの機器に組み込まれている。多くのデジタルカメラ(ビデオカメラと称されることもある)は、音(オーディオ)付きの動画を記録することもできる。スマートフォン、携帯電話、PDA及びラップトップコンピュータ内に内蔵される場合、無圧縮ビデオのビットレートが比較的高くファイルサイズが大きいため、デジタルカメラでは画像を圧縮形式で保存することがよくある。
デジタルカメラ及びビデオカメラは、典型的には、固定絞り又は可変絞りを備えたレンズを使用して光を撮像素子上に集束させる光学系を共有している。絞り及びシャッターは、撮像素子に正確な光量が入ることを可能にし、それによって処理、記憶及び表示可能な出力を生成する。この処理は、典型的には、デジタル化された撮像素子(多くの場合、CCDセンサ)出力からRGB画像を生成することや、輝度、ホワイトバランス、シャープネス及びコントラストを調整することを含んでいる。いくつかのデジタルカメラは、画像の切り抜きや連結のような基本的な画像編集も実行可能である。
パワフルなコンピュータに接続されたデジタルカメラは、拡張現実(AR)を可能にする。拡張現実は、デジタル世界の構成要素を、人間が知覚する現実世界へと持ち込むものである。拡張現実(Augmented Reality、AR)は、多くの場合に複合現実(Mixed Reality、MR)と同義に用いられ、実世界と仮想世界とが融合することによって作り出されるハイブリッド現実を意味する。実世界と仮想世界との融合により、物理オブジェクトとデジタルオブジェクトとが共存してリアルタイムで相互作用する新たな環境及び映像が生成される。
いくつかのARシステムでは、AR画像を表示するために、頭部の動きを追跡するヘッドマウントディスプレイを使用する。高度なAR技術(例えば、コンピュータビジョン及び物体認識)を利用して、ユーザの周囲の現実世界に関する情報がインタラクティブになり、デジタル操作が可能となる。例えば、環境とそのオブジェクトに関する情報が、実際のディスプレイ上に重ね合わせられ得る。
スマートフォン、例えば、iOS又はAndroidオペレーティングシステム上で動作する携帯電話では、単純なAR技術は、「アプリ(app)」を使用して実装することができる。このような「アプリ」は、典型的には内蔵デジタルカメラの出力を操作するダウンロードされたアプリケーションプログラムである。例えば、Pokemon Goは、iOSやAndroidデバイス(例えば、スマートフォン及びパッド)用にカリフォルニア州サンフランシスコのNiantic社によって開発されたロケーションベースの拡張現実ゲームである。しかしながら、典型的なスマートフォンにおける処理能力及び知覚入力は限られているため、現実世界の映像に対する仮想物体の位置及び特性は、比較的雑になりがちである。
先行技術におけるこれら及び他の制限は、以下の詳細な説明を読解すると共に図面におけるいくつかの図を研究することによって、当業者には明らかとなるであろう。
本明細書及び図面の開示の範囲内において要素及び動作の様々な組み合わせを例示する目的で、様々な例が本明細書に記載される。当業者には明らかであるように、要素及び動作の他の組み合わせや、それらの変形もまた、本明細書にてサポートされる。
限定ではなく例として明記される実施形態では、オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラは、カメラ本体と、レンズと、前記レンズと並ぶ撮像センサと、音センサと、モーションセンサと、入力処理システムとを含んでいる。非限定的な例では、前記入力処理システムは、(a)システムバスと、(b)前記バスに結合されたデジタルプロセッサと、(c)前記音センサの出力を前記バスに結合する音センササブシステムと、(d)前記撮像センサの出力を前記バスに結合する撮像センササブシステムと、(e)前記モーションセンサの出力を前記バスに結合するモーションセンササブシステムと、(f)前記モーションセンササブシステム、前記撮像センササブシステム及び前記音センササブシステムに対して同期クロック信号を供給するための、システムクロックから分離された高精度クロックと、(g)前記バスに結合された非一時的デジタルメモリであって、リアルタイムでのオーディオ、ビジュアル及びモーション分析のために、前記モーションセンササブシステム、前記撮像センササブシステム及び前記音センササブシステムから導出されるデータから、デジタルカメラの周囲環境のデジタルモデルを構築するよう、デジタルプロセッサによって実行可能なコードセグメントを含む、非一時的デジタルメモリとを含んでいる。
限定ではなく例として明記される別の実施形態では、デジタルカメラを用いて周囲環境をモデリングする方法は、撮像センサと、音センサと、モーションセンサとを少なくとも含む複数のセンサから、生の入力データを収集するステップと、前記生の入力データからメタデータを導出するステップと、前記デジタルカメラの前記周囲環境のモデルを構築するために、前記メタデータ及び前記生の入力データを処理するステップとを含んでいる。いくつかの実施形態では、前記生の入力データは、撮像センサデータ及び音センサデータのうち1つのみを含んでいる。
限定ではなく例として明記されるさらなる実施形態では、拡張現実(AR)表示をデジタルカメラ上に提供する方法は、撮像センサと、音センサと、モーションセンサとを少なくとも含むデジタルカメラを用いて、周囲環境を走査するステップと、前記デジタルカメラのデジタルプロセッサを用いて、前記撮像センサ、前記音センサ及び前記モーションセンサから導出されたデータから、複数の物理オブジェクト及びそれらの特性を含む周囲環境のモデルを構築するステップと、前記周囲環境を重ね合わせる拡張現実(AR)を構築するステップと
を含んでいる。特定の実施形態では、前記ARは音を含んでおり、特定の別の実施形態では、前記ARは画像を含んでおり、またさらなる特定の他の実施形態では、前記ARは音及び画像の両方を含んでいる。
限定ではなく例として明記されるまたさらなる実施形態では、デジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体は、撮像センサと、音センサと、モーションセンサとを少なくとも含むデジタルカメラを用いて、周囲環境を走査するステップと、前記デジタルカメラのデジタルプロセッサを用いて、前記撮像センサ、前記音センサ及び前記モーションセンサから導出されたデータから、複数の物理オブジェクト及びそれらの特性を含む周囲環境のモデルを構築するステップと、前記周囲環境を重ね合わせる拡張現実(AR)を構築するステップとを行うためのものである。特定の実施形態では、前記ARは音を含んでおり、特定の別の実施形態では、前記ARは画像を含んでおり、またさらなる特定の他の実施形態では、前記ARは音及び画像の両方を含んでいる。
本明細書にてサポートされる要素及び動作の組み合わせについてのこれらの例及び他の例、並びにそれらの目的及び利点は、以下の詳細な説明を読解すると共に図面におけるいくつかの図を研究することによって、当業者には明らかとなるであろう。
ここでは、図面を参照して複数の例を説明するが、同様の要素及び/又は動作には、同様の参照番号が付されている。これらの実施例は、本明細書に開示される概念を、限定ではなく例示することを意図している。これらの図面は、以下に示す図を含む。
図1Aは、例示的なデジタルカメラの正面斜視図である。 図1Bは、図1Aの例示的なデジタルカメラの背面斜視図である。 図2は、デジタルカメラ用のレンズ及び関連するアナログコンポジットビデオ回路からなる例示的な集合体のブロック図である。 図3は、デジタルカメラ用の例示的な入力処理システムのブロック図である。 図4は、図3の例示的な撮像センササブシステムのブロック図である。 図5は、図3の例示的なモーションセンササブシステムのブロック図である。 図6は、図3の例示的な音センササブシステムのブロック図である。 図7は、図3の例示的な環境センササブシステムのブロック図である。 図8は、図3の例示的な全地球測位システムサブシステムのブロック図である。 図9は、図3の例示的な補助周辺サブシステムのブロック図である。 図10は、図3の例示的な共処理サブシステムのブロック図である。 図11は、図3の例示的な非揮発性記憶装置サブシステムのブロック図である。 図12は、図3の例示的なネットワークインタフェースサブシステムのブロック図である。 図13は、図3の例示的なユーザインタフェースサブシステムのブロック図である。 図14は、図3の例示的なビジュアル出力サブシステムのブロック図である。 図15は、図3の例示的な音出力サブシステムのブロック図である。 図16は、図3の例示的な電源サブシステムのブロック図である。 図17は、デジタルカメラの例示的なルート動作プロセスのフローチャートである。 図18は、図17の例示的なメインループのフロー図である。 図19は、例示的なユーザインタフェース管理プロセスのフロー図である。 図20は、例示的なデータ取得プロセスを示す図である。 図21は、例示的なデータ処理プロセスを示す図である。 図22は、例示的なデータレンダリングプロセスを示す図である。 図23は、部屋の音響モデルを構築するためのデジタルカメラの使用例のフロー図である。 図24は、HVACシステムの音響モデルを構築するためのデジタルカメラの使用例のフロー図である。
図1A及び図1Bはそれぞれ、例示的なデジタルカメラ10の正面斜視図及び背面斜視図である。デジタルカメラ10は、本体12と、レンズ14と、望遠レンズ鏡筒(絞り)16と、シャッターボタン18と、音センサ(例えば、マイク)入力20と、ディスプレイ22とを含む。この非限定的な例では、デジタルカメラ10はまた、フラッシュ集合体24と、種々の制御ボタン26と、USBポート28等のI/Oポートを含み得る。カメラ本体12内には、複数のコンポーネント(図示しない)が配置され、そのようなコンポーネントとしては、例えば、画像センサ、アナログビデオ回路及びデジタル画像を分析及び向上可能な入力処理システム等が挙げられる。特定の実施形態では、1つ以上の追加の音センサ29が、例えば本体12の前方、後方、上部、底部又は側部に配置される。また、広角カメラ、赤外線(IR)熱画像カメラ等のような、1つ以上の追加のカメラ31も設けられ得る。これらの追加のカメラは、例えば、モーション追跡に有用であり得る。周囲環境における材料の散乱特性及び吸収特性を評価するために、デジタル粒子速度センサ33が設けられ得る。さらに、デジタルカメラ10の本体12には、追加のI/Oポート35もまた設けられ得る。追加のI/Oポート35としては、例えば、ヘッドホンポート、スピーカ、プリンタポート、ビデオ出力ポート等が挙げられる。
デジタルカメラ10は、本明細書で説明するように、静止画像をキャプチャする通常のカメラとして動作し得ると共に、画像解析、画像操作及び画像拡張(image augmentation)が可能な高度なビデオカメラとしても動作し得る。デジタルカメラ10はまた、本明細書では広くデジタルカメラ又はデジタルカメラシステムと称されるが、ビデオカメラ又はビデオカメラシステム、拡張現実(AR)システム、仮想現実(VR)システム等と交換可能に記載されることもできると理解される。デジタルカメラ10は、好ましくは、単一デバイス(例えば、外部コンポーネント又は追加の演算能力への接続を必要としない)であって、例えば、リアルタイムの拡張現実表示及び分析を提供するような目的のための計算集約的なオーディオ/ビジュアル処理が可能な単一デバイスである。
図2は、図1A及び図1Bのデジタルカメラ10用のレンズ14及び関連するデジタル光撮像センサ30の例示的な集合体のブロック図である。デジタル光撮像センサ30は、この非限定的な例では、電荷結合素子(CCD)画像センサ32と、水平及び垂直駆動回路34と、同期発生器36と、ビデオアンプ38と、ミキサー40と、コンポジットビデオ出力42と、アナログ−デジタル(A/D)変換器44とを含む。水平及び垂直駆動器34は、CCDの画素マトリクスを駆動し、それによってアナログ信号をビデオアンプ38へと供給する。ビデオアンプ38の出力は、ミキサー40において同期発生器36からの同期発生器信号と混合され、アナログコンポジットビデオ出力42を提供する。アナログコンポジットビデオ出力42は、A/D変換器44によってデジタル化される。
図3は、図1A及び図1Bのデジタルカメラ10用の例示的な入力処理システム46のブロック図である。入力処理システムは、この非限定的な例では、システムバス48の周りに構築されており、中央処理装置(CPU)50と、ランダムアクセスメモリ(RAM)52と、不揮発性読み出し専用メモリ(ROM)54と、モーションセンササブシステム56と、撮像センササブシステム58と、音センササブシステム60とを含む。この例では、モーションセンササブシステム56、撮像センササブシステム58及び音センササブシステム60は、共通の同期高精度クロック62によってそれぞれ駆動される。高精度クロック62は、システムコンポーネントを同期させるための非常に正確な共通のタイミング基準を提供する。「高精度クロック」とは、クロックの周期が非常に規則的であることを意味し、例えば、サイクル毎に1%の数分の一も変化しないことを意味する。そのような高精度クロックは、通常、水晶クロックとして実装される。ROM54は、PROM、EEPROM及びフラッシュメモリ技術を含む数々の技術にて実装され得る。CPU50は、マイクロプロセッサ、マイクロコントローラ等として実装可能であり、本明細書では広く「デジタルプロセッサ」と称する。デジタル粒子速度センサ33は、音センササブシステム60の一部を構成し得る。
種々の代替となる入力処理システム46の実施形態は、電源サブシステム64と、共処理サブシステム66と、不揮発性記憶装置サブシステム68と、ネットワークインタフェースサブシステム70と、ビジュアル出力サブシステム72と、ユーザインタフェースサブシステム74と、環境センササブシステム76と、全地球測位システムサブシステム78と、補助周辺サブシステム80と、音出力サブシステム82とを含む。
前述のように、入力処理システム46は、デジタルカメラ10の一部として実装されてもよく、スマートフォン又は他のモバイルデバイスにおいてインスタンス生成されてもよい。入力処理システム46を(例えば)スマートフォンに実装する利点としては、電子部品及びファームウェアコンポーネントの多くが既に内蔵されており、及び/又は、周辺機器としてインタフェースを介して追加可能であり、スマートフォン「アプリ」を用いて該システムの機能を実装可能であることが挙げられる。今日のスマートフォンの欠点としては、ハードウェアの制約及び演算能力が挙げられる。
周波数シフトから相対運動を推定するプロセスは、ドップラー撮像として知られている。限定ではなく一例として示された実施形態では、ドップラー撮像は、位置及び速度の音響トラッキングのために使用される。ドップラー撮像から導出されるローカルモーション信号は、専用のモーションセンサと組み合わせて使用されてもよく、専用のモーションセンサを用いずに使用されてもよい。
ストラクチャーフロムモーション(SfM)プロセスは、典型的には、ローカルモーション信号と結合され得る二次元画像シーケンスから三次元構造を推定するための写真測量レンジ撮像技術である。モーションから構造を見出すことには、ステレオビジョンから構造を見出すことと同様の問題がある。いずれの場合も、画像と3Dオブジェクトの再構成との間の対応関係は、アルゴリズム的に導出される。しかしながら、非限定的な例としての特定の実施形態では、SfMプロセスは、代わりに及び/又は追加的に音センサデータを使用して、例えば低光条件下における周囲環境の3Dモデルを構築することができる。すなわち、特定の非限定的な例では、画像センサデータは、SfMプロセスには必要とされない。
自動マッピングでは、同時局在化及びマッピング(SLAM)は、未知の環境のマップ又はモデルを構築又は更新しつつ、その中のエージェントの位置を同時に追跡し続ける、演算問題である。ロボットマッピングシステムにて使用されるいくつかのSLAMアルゴリズムがあり、そのようなSLAMアルゴリズムには、粒子フィルタアルゴリズム及び拡張カルマンフィルタアルゴリズムが含まれる。粒子フィルタ法には、信号処理及びベイズ統計的干渉において生じるフィルタリング問題を解決するための、一連の遺伝型粒子モンテカルロ法が含まれる。フィルタリング問題には、観測が部分的にしか行われなかった場合、及び、センサ入力にランダムな摂動(perturbation)が存在する場合において、動力学系の内部状態を推定することが含まれる。SLAMアルゴリズムは複雑であるため、通常はカメラ自体とは別のコンピューティングシステムにて実行される。
図4は、図3の例示的な撮像センササブシステム58のブロック図である。撮像センササブシステム58は、高精度クロック62と、システムバス48とに結合されている。この非限定的な例では、撮像センササブシステム58は、センササブシステムコントローラ84に接続された複数のデジタル光撮像センサ30を含むと共に、それぞれ同じくセンササブシステムコントローラ84に接続された、複数のデジタルレンジ撮像センサ86と、デジタルサーモグラフィセンサ88と、発光ダイオード(LED)90と、構造化光プロジェクタ92と、無線周波数(RF)変調された発光器94とを含む。この非限定的な例では、撮像センサ(30,86,88)は、発光コンポーネント(90,92,94)と併せて使用して、広い範囲の照明条件においてロバストな動作をサポートし得る。発光コンポーネントは、複数の構成で実装することができ、非限定的な例として、デジタルカメラ10のフラッシュ集合体24の一部として実装され得る。
図5は、図3の例示的なモーションセンササブシステム56のブロック図である。この非限定的な例では、モーションセンササブシステム56は、高精度クロック62及びシステムバス48に結合されたセンササブシステムコントローラ96を含むと共に、それぞれ同じくセンササブシステムコントローラ96に接続された、デジタル3軸加速度計98と、デジタル3軸ジャイロメータ100と、デジタル磁力計102とを含む。モーションセンササブシステムのデータは、例えば、相対慣性運動及び傾斜を測定するために使用され得る。
図6は、図3の例示的な音センササブシステム60のブロック図である。この非限定的な例では、音センササブシステム60は、センササブシステムコントローラ104と、Bフォーマットマイクカプセルアレイ106と、多チャンネルアナログ信号プリアンプ108と、多チャンネルアナログ−デジタル(A/D)オーディオ変換器110と、デジタル粒子速度感知パッケージ112とを含む。この非限定的な例では、Bフォーマットマイクカプセルアレイ106は、多チャンネルアナログオーディオ信号プリアンプ108を介して多チャンネルA/D変換器110に接続される。Bフォーマットマイクカプセルアレイ106は、とりわけ、三次元音場をキャプチャするために使用され得る。デジタル粒子速度感知パッケージ112は、とりわけ、表面の音響散乱及び吸収特性を測定するために使用され得る。デジタル粒子速度感知パッケージ112はまた、Bフォーマットマイクカプセルアレイ106と併せて、例えば音響源方向ベクトルを計算するためにも使用され得る。デジタル粒子速度感知パッケージ112によって生成された音インパルスに対する音響応答は、Bフォーマットマイクカプセルアレイ106を使用して、例えば環境残響特性の分析を支援するためにもキャプチャされ得る。
図7は、図3の例示的な環境センササブシステム76のブロック図である。任意選択である環境センササブシステム76は、数多くの環境特性をキャプチャするために使用され得る。この非限定的な例では、環境センササブシステム76は、高精度クロック62及びシステムバス48に結合されたセンササブシステムコントローラ114を含むと共に、デジタル加速度計116と、デジタル気圧計118と、デジタル電磁放射線センサ120と、デジタル微気圧計122と、デジタル湿度計124と、デジタル温度計126とを含む。
図8は、図3の例示的な全地球測位システム(GPS)サブシステム78のブロック図である。この非限定的な例では、GPSサブシステム78は、高精度クロック62及びシステムバス48に結合されたセンササブシステムコントローラ128を含むと共に、GPSアンテナ130と、GPS衛星受信器132とを含む。
図9は、図3の例示的な補助周辺サブシステム80のブロック図である。この非限定的な例では、周辺インタフェースコントローラ134は、システムバス48に結合されており、USBコネクタ136及びGPIOコネクタ138等のI/Oポートは、周辺インタフェースコントローラ134に結合されている。任意には、補助周辺サブシステム80は、図3に示すように、高精度クロック62に結合される。
図10は、図3の例示的な共処理サブシステム66のブロック図である。この非限定的な例では、任意選択であるオーディオコプロセッサ140と、グラフィックスコプロセッサ142と、モーションコプロセッサ144と、物理コプロセッサ146とが、システムバス48に結合されている。
図11は、図3の例示的な不揮発性記憶装置サブシステム68のブロック図である。この非限定的な例では、不揮発性記憶装置サブシステム68は、固定記憶装置150とリムーバブル記憶装置152とをシステムバス48に結合する周辺インタフェースコントローラ148を含む。
図12は、図3の例示的なネットワークインタフェースサブシステム70のブロック図である。この非限定的な例では、ネットワークインタフェースコントローラ(NIC)154は、システムバス48に結合されており、イーサネットトランシーバ156は、イーサネットコネクタ158をネットワークインタフェースコントローラ154に結合しており、Wi−Fiトランシーバ160は、Wi−Fiアンテナ162をネットワークインタフェースコントローラ154に結合しており、セルネットワークトランシーバ164は、セルネットワークアンテナ166をネットワークインタフェースコントローラ154に結合しており、Bluetoothトランシーバ168は、Bluetoothアンテナ170をネットワークインタフェースコントローラ154に結合している。ネットワークインタフェースサブシステム70からのデータ(例えば、受信信号の強度であるが、これに限定されない)は、局在化及びマッピングの向上のために、SLAMモジュール(後で説明する)によって使用されてもよく、例えば質量減衰係数を推定するために、物理特性モジュール(これも後で説明する)によって使用されてもよい。
図13は、図3の例示的なユーザインタフェースサブシステム74のブロック図である。この非限定的な例では、センササブシステムコントローラ172は、システムバス48に結合されている。任意選択であるユーザインタフェースは、センササブシステムコントローラ172に結合されている。そのようなユーザインタフェースには、キーボード174と、XYタッチパッド176と、タッチデジタイザ178と、物理スイッチ180と、リニアエンコーダ182と、ロータリエンコーダ184とが含まれる。
図14は、図3の例示的なビジュアル出力サブシステム72のブロック図である。この非限定的な例では、ビジュアル出力サブシステム72は、ディスプレイ制御ユニット186を含み、ディスプレイ制御ユニット186は、システムバス48をディスプレイアダプタコネクタ188に結合している。
図15は、図3の例示的な音出力サブシステム82のブロック図である。この非限定的な例では、音出力サブシステム82は、システムバス48に結合されたオーディオ出力コントローラ190と、デジタルオーディオ出力194をオーディオ出力コントローラ190に結合しているデジタルオーディオ信号フォーマットコンバータ192と、アナログオーディオ出力198をオーディオ出力コントローラ190に結合しているデジタル−アナログオーディオコンバータ196とを含む。
図16は、図3の例示的な電源サブシステム64のブロック図である。この非限定的な例では、電源サブシステム64は、システムバス48に結合された電力入力スイッチ200と、電力入力スイッチ200に結合されたバッテリ202と、電力入力スイッチ200及びバッテリ202に結合されたバッテリ充電コントローラ204と、電力入力スイッチ200に結合された外部電力入力206とを含む。
図17は、デジタルカメラ10用の例示的なルート動作プロセス208のフロー図である。このルート動作プロセス208は、例えば、図3のCPU50上で実行され得る。最初にカメラの電源を投入すると、動作210は周辺機器を数え上げ、動作212はコードセグメントをロードし、動作214はユーザインタフェースを開始する。コードセグメントは、好ましくは、図3のメモリ54のような不揮発性の読み出し専用メモリ内に記憶されるが、EEPROMS、フラッシュメモリ等を含む他の形態の不揮発性メモリが使用されてもよい。これらの初期化ステップの後、ルート動作プロセス208は、メインループ216に入る。割り込みハンドラ218は、イベントドリブン処理のためにメインループ216を中断し得る。データのタイムスタンプ付きフレームがセンササブシステムから利用可能になると、該フレームは処理のためにコードセグメントモジュールに渡される。
図18は、図17の例示的なメインループプロセス216のフロー図である。メインループプロセス216は、220にて開始し、動作222において任意の利用可能な新規データフレームがあるかどうかを決定する。ある場合には、動作224はモジュールに通知する。利用可能な新しいデータフレームがない場合又は動作224の後には、動作226は、データの後処理が必要であるかどうかを決定する。ある場合には、動作228はモジュールに通知する。データ後処理が必要でない場合又は動作228の後には、動作230は、デジタルカメラ10を低電力「スリープ」モードに入らせ、プロセス制御は、動作222に戻される。
図19は、図17の例示的な開始ユーザインタフェースプロセス214のフロー図である。開始ユーザインタフェースプロセス214は、232にて開始し、動作234はユーザ入力(UI)が受信されたかどうかを決定する。受信された場合には、動作236はUI入力に従う。受信されていない場合又は動作236の後には、動作238は、UI更新が必要かどうかを決定する。必要である場合には、動作240はUIを更新し、必要でない場合又は動作240の後には、スリープ動作242が実行される。プロセス制御は、その後、連続ループにおいて動作234に戻される。
デジタルカメラ10の動作を制御するハードウェア及びコードセグメント(典型的には、ファームウェア)は、スチルカメラからビデオカメラに至るまで、また、環境をモデル化してリアルタイムの複合現実音及び画像を生成可能である高度な「スマート」カメラに至るまでの、多くのモードにおいてデジタルカメラを動作させることができるようにすることが理解されよう。後者は、仮想化モードに入り、環境の複数のセンサにより該環境を「スキャン」することによって、環境の物理現象をリアルタイム又は準リアルタイムで仮想化することにより達成される。例えば、環境は、デジタルカメラ10を部屋の中心から円形パターンでパンすることによりスキャンされ得る。この例では、デジタルカメラ10は、合成された特性、コンポーネント及び材料を環境に適用して、予想される現実世界の結果と繋ぎ合わせるシミュレーションを生成するために、環境の物理特性の測定値をキャプチャし得る。
非限定的な例では、デジタルカメラ10は、拡張現実/複合現実アプリケーション用のリアルタイムのオーディオ向上を提供するために使用され得る。この例では、デジタルカメラ10は、(例えば、部屋をスキャンすることによって)環境をアクティブに監視し、最適な没入品質のためのシミュレーション設定を連続的に調整する。複数のセンサ間の相関は、環境測定値に順応可能であり、システムにシミュレーション結果のための信頼水準を提供する。
音は時間に依存するため、音響モデリングでは、予測可能な変数及び周期的な特性が識別、分析及び解明され得る。この非限定的な例では、デジタルカメラ10は、計算ソルバモジュール280を事前調整するために(過去に収集されたデータに加えて)環境についての現在の状態を使用し、それによって収束がより速くなり、リアルタイム又は準リアルタイムの正確な結果シミュレーションが可能になる。センササブシステムの少なくとも1つからのデータを用いて計算ソルバモジュール280を事前調整することにより、AR画像及び/又はAR音を構築して周囲環境に重ね合わせるための演算プロセスが加速される。
非限定的な例では、デジタルカメラ10は、盲人のための予測モデリングの基礎を提供し得る。このデバイスの構成は、視覚障害者にフィードバックを提供するのに使用可能な予測モデルを構築するために使用され得る。環境の物理形状をその特性と共にデバイスの様々なセンサを使用してリアルタイムでキャプチャすることによって、デバイスはそのような環境のコンポーネントの理解を表すモデルを構築し得る。このモデルは、コンテキスト認識となるように処理可能であり、該コンテキスト認識は、後ほど盲人に予測応答を提供するために使用され得る。
非限定的な例では、デジタルカメラ10は、環境をスキャンして、カメラを保持する人が通りの角に立っていることを識別し、音センサを介して遠方の車の音を識別してもよい。その人が向いている方向及び対向車の音のような情報を通じて、デジタルカメラ10は、この道路を通過するのに最適な時間であり得る時、又は、その人がその道路を横切るのを避けるべき時について、その人に通知し得る。
デジタルカメラ10の高度なモデリング及び予測モデリングは、3つの基本ステップ又はステージにて達成され得る。この例では、ステージ1は、生の入力データを収集することであり、これについては図20に関してより詳細に説明する。ステージ2は、ステージ1によって収集された生の入力からメタデータを導出することであり、図21に関してより詳細に説明する。ステージ3は、該メタデータ及び生の入力データを総合して環境のモデルを作成することであり、図22に関してより詳細に説明する。例えば、音響モデリングを用いて、新たな音がモデリングされた環境においてどのようにユーザに聞かれるかが予測され得る。
図20は、例示的なデータ取得プロセス244を示す図であり、データ取得プロセス244は、任意選択である環境センササブシステム76、音センササブシステム60、モーションセンササブシステム56及び撮像センササブシステム58からの入力によって開始する。これらのセンササブシステムの出力は、物理特性データベース254、物理特性モジュール256、特徴ベクトルデータベース258、SLAMモジュール260、画像分類データベース262及びコンピュータビジョンモジュール264を使用して処理される。物理特性モジュール256、SLAMモジュール260及びコンピュータビジョンモジュール264の出力は、データ作成モジュール266に入力され、データ作成モジュール266は、データ作成データベース268に結合される。
同時局在化及びマッピング(SLAM)モジュール260は、モーションセンササブシステム56からのデータを、撮像センササブシステム58及び音センササブシステム60等(これらに限定されない)の他のセンササブシステムからのデータと併せて処理し、それによって環境の三次元幾何形状モデルを構築し得る。データのフレームが、特徴抽出技術を使用して変換され得ると共に、結果として得られる局所化された特徴ベクトルは、運動中の装置の追跡された位置及び向きについての補正を支援するために、データベース258内に記憶され得る。
物理特性モジュール256は、音センササブシステム60からのデータを処理し、それによって材料吸収及び散乱係数等(これらに限定されない)の環境内の物理特性、並びに、残響特性を評価し得る。物理特性モジュール256は、風速、空気圧、湿度及び温度等(これらに限定されない)の環境センササブシステム76からのデータを処理し、それによって、例えば減衰及び音速を計算する際のシミュレーションモデルを改善し得ることが理解されよう。
物理特性モジュール256は、物理特性データベース254と協働することができる。そのような物理特性データベースとしては、以下に限定されないが、既定の質量減衰係数及び局所的な音響インパルス応答が挙げられる。コンピュータビジョンモジュール264は、撮像センササブシステム58からのデータを、エッジ検出等(これに限定されない)の技術を使用して処理し得る。コンピュータビジョンモジュール264はまた、イメージセンササブシステム58からのデータをオブジェクト画像の画像分類データベース262と併せて処理し、それによってスピーカ及びマイク等(これらに限定されない)の画像フレーム内における視覚的に認識可能なオブジェクトを分類して、環境内におけるそれらのポーズを推定し得る。コンピュータビジョンモジュール264はまた、撮像センササブシステム58からのデータを材料画像の画像分類データベース262と併せて処理し、それによってレンガ及び木材等(これらに限定されない)の画像フレーム内における視覚的に認識可能な材料を分類し得る。データ作成モジュール266は、センササブシステムから出力されたデータのタイムスタンプ付きフレームを結合し、それによって計算ソルバモジュール280のためのシミュレーションモデルを作成する。計算ソルバモジュール280については、後に説明する。
シミュレーションモデルには、以下に限定されないが、幾何形状、材料特性、境界条件、並びに、スピーカ、トランスデューサ及びマイク等の発音器及び受音器の位置及び向き等のデータが含まれる。シミュレーションモデルは、スピーカ、音響処理材、家具等(これらに限定されない)の仮想コンテンツによって拡張され得る。データ作成モジュール266は、実際のセンサデータフレームを使用して、かつ、解決結果履歴等(これに限定されない)のデータセットを用いて訓練されたニューラルネットワークによって生成された合成データを使用して、センサ及びデータの融合を行い得る。データ作成モジュール266は、例えばセンササブシステムにおけるバイアスを補償することによってシミュレーションモデルを改善するために、電磁場強度及び超低ノイズ等(これらに限定されない)の環境センササブシステム76からのデータを処理し得る。
図20のデータ取得プロセス244は、各センサを通じてそれらの能力で世界に関する情報を収集する。非限定的な例では、撮像センサによってRGB−Dデータがキャプチャ可能であり、音センサによって聴覚データがキャプチャ可能であり、以下同様にキャプチャが行われ得る。センサ入力は、キャプチャされた情報に関する追加のメタデータを推測する様々なモジュールに送られる。例えば、壁は、音センサによって観察されて材料データベースからの過去の読取値と比較された後に、煉瓦から作られたものと識別され得る。さらに、「テクスチャ」等の視覚的特徴をコンピュータビジョンデータベースに対して処理し、それによって表面から表面均一性(例えば、煉瓦パターン)のような追加のメタデータを導出し得る。その後、データベース処理モジュールから生成されたメタデータを統合し、それによってスキャンされた環境のモデルを構築し得る。
図21は、データ処理プロセス270の例を示す図である。データ処理プロセス270は、スピーカ指定データベース272と、スピーカモデリングモジュール274と、データ作成データベース268と、データ作成モジュール266と、計算ソルバモジュール280と、解法結果データベース282と、処理提案モジュール284と、処理モジュールデータベース286とを含む。
計算ソルバモジュール280は、データ作成モジュール266によって作成されたシミュレーションモデルを数多くの数値解法と併せて使用して、数値解を計算し得る。そのような数値解法としては、以下に限定されないが、レイトレーシングソルバ、境界要素法ソルバ及び有限要素法ソルバ等が挙げられる。計算ソルバモジュール280は、数値解の収束を加速するために、センササブシステム及びデジタルニューラルネットワークからの融合データを用いて事前調整し得る。
処理提案モジュール284は、データ作成モジュール266及び計算ソルバモジュール280と併せて使用して、音響処理装置の幾何学的特性及び材料的特性を計算し得る。処理提案モジュール284は、音響処理装置モデルのデータベース286を使用して、現場での(in situ)該装置のシミュレーション及び分析を支援し得る。
スピーカモデリングモジュール274は、データ作成モジュール266からの出力を、計算ソルバモジュール280からの出力と併せて使用して、任意の位置にある数多くのスピーカをシミュレートし得る。スピーカのモデリングモジュール274は、スピーカ指定データベース272を使用して、スピーカのシミュレーション及び分析を支援し得る。
データ作成モジュール266は、環境から収集されたデータを、示唆される音響修正に関するデータと共に統合する。示唆される音響修正としては、例えば、既存の又は潜在的なスピーカや、室内に存在し得る又は提案され得る任意の音響処理材が挙げられる。この情報は、計算ソルバモジュール280へと供給することができ、計算ソルバモジュール280は、その構成に起因する音響場の3D表現を提供し得る。この情報は、現実を修正することに対して時間、労力又は金銭を費やす前に、部屋の設定にて問題のある領域を特定するのに役立つ。したがって、このプロセスは、仮想スピーカ及び音響処理構成(例えば、低周波数を吸収するための壁の詰め物)があると仮定した場合に、部屋では音がどのように聞こえるかを予測することができる。
図22は、例示的なデータレンダリングプロセス288の説明図である。データ作成モジュール266は、オーディオ触覚(audio tactile)レンダリングモジュール292、計算ソルバモジュール280、グラフィックレンダリングモジュール296及びデータエクスポータモジュール298に結合される。オーディオ触覚レンダリングモジュール292は、オーディオ畳み込みモジュール300に供給される。頭部関連伝達関数(HRTF)データベース302及びHRTFレンダリングモジュール304は、オーディオ畳み込みモジュール300の出力に結合される。幾何形状マッピングモジュール306及び両眼(binocular)レンダリングモジュール308は、グラフィックレンダリングモジュール296の出力に結合され、有限インパルス応答(FIR)フィルタ生成モジュール310は、データエクスポータモジュール298の出力に結合される。出力は、ヘッドホン312と、スピーカ314と、トランスデューサ316と、プリンタ318と、スクリーンディスプレイ320と、2D/3Dプロジェクタ322と、複合現実ヘッドアップディスプレイ324と、仮想現実ヘッドアップディスプレイ326と、アウトボード信号プロセッサ328とを含む。
データエクスポータモジュール298は、以下に限定されないが、FIRフィルタ係数等の数多くのフォーマットについてのデータエクスポート機能を提供し得る。この非限定的な例では、FIRフィルタ生成モジュール310は、外部信号プロセッサ328と共に使用するためのFIRフィルタ係数を生成し得る。
オーディオ触覚レンダリングモジュール292は、データ処理モジュール266からの出力を、演算ソルバモジュール280からの出力と併せて使用し、それによって、ヘッドホン312、スピーカ314及びトランスデューサ316等(これらの限定されない)の音響再生デバイスを介して配信するための空間的かつ触覚的なオーディオをレンダリングし得る。
この非限定的な例では、オーディオ畳み込みモジュール300は、オーディオ触覚レンダリングモジュール292と協働して、シミュレートされた音響環境特性を実際の音響環境特性に畳み込み得る。
この非限定的な例では、頭部関連伝達関数は、両耳送達(binaural delivery)のための合成音の空間領域畳み込みに使用される。HRTFレンダリングモジュール304は、この非限定的な例では、オーディオ触覚レンダリングモジュール292及びオーディオ畳み込みモジュール300と協働して、両耳送達のための局在化されたオーディオ信号を畳み込み得る。HRTFレンダリングモジュール304は、この非限定的な例では、個別化された両耳用畳み込みのために、HRTFデータベース302を利用し得る。
この非限定的な例では、グラフィックレンダリングモジュール296は、データ作成モジュール266からの出力を計算ソルバモジュール280からの出力と併せて使用し、それによってプリンタ318又はスクリーンディスプレイ320に出力するためのグラフィック表示をレンダリングし得る。グラフィックレンダリングモジュール296はまた、この非限定的な例では、幾何形状マッピングモジュール306と協働し、それによって、2D又は3Dプロジェクタ322を介して出力するためにグラフィック出力を環境の幾何形状に畳み込み得る。この非限定的な例ではまた、グラフィックレンダリングモジュール296は、両眼レンダリングモジュール308と協働し、それによってヘッドアップディスプレイ324及び326等(これらに限定されない)の両眼ディスプレイ用のグラフィック出力をレンダリングし得る。
代替の非限定的な例では、シミュレーションモデルは、コンピュータ支援設計又は建物情報モデルのデータ等(これらに限定されない)の既存のデータを使用して構築され得る。代替の非限定的な例では、光検出及び測距(LIDAR)等(これらに限定されない)の静的に位置決めされたレンジ撮像センサが、三次元幾何形状の再構築に使用され得る。代替の非限定的な例では、物質特性は、既定の質量減衰、吸収及び散乱係数データセットから割り当てられ得る。代替の非限定的な例では、音センササブシステム60は、Bフォーマットアレイの代わりに、Aフォーマットマイクカプセルアレイを使用し得る。代替の非限定的な例では、音センササブシステム60は、Bフォーマットアレイの代わりに、単一のマイクカプセルを使用し得る。
前述の音響モデリングの例を続けると、カメラ10は、統合された環境特性、既存のスピーカ及び仮想スピーカの特性、部屋の処理、並びに、種々の目的のための演算結果を活用する能力を有することが理解されよう。1つの例示的な目的は、現在の利用可能な環境の構成において、仮想環境を高精度でシミュレートすること(例えば、スピーカ位置を使用し、それによって位置的に正確な空間撮像を用いて自然音をシミュレートすること)である。別の例では、ユーザは、部屋に対する潜在的な変化の影響を、それらの変更がヘッドホンを介して適用される前に体験するために、拡張現実に入り得る。さらに別の使用場面では、既存の装置構成を使用して聴取体験を向上させるために、有限インパルス応答オーディオフィルタ係数が計算ソルバから導出されて既存の信号プロセッサ構成に適用され得る。
要約すると、デジタルカメラ10は、例えば、室内において物理スピーカがある場所等の環境に関する多くの情報を知得しており、それによって以下を含む多くの有用なサービスを提供する。
・既存の物理スピーカを使用して、新たな3D位置環境をシミュレートする(それによって、例えば、音楽ホールのようなホームシアター音を作成する)
・ユーザに対して部屋を歩き回っている際のARプレビューを提供することにより、部屋に対する任意の変化がその結果生じるオーディオに対して及ぼす影響をシミュレートする(例えば、新たなソファが部屋の音響に及ぼす影響をシミュレートする)。
・既存のシステム(例えば、サラウンド音システム)における問題点を決定して、その既存のシステムに適用するための矯正用オーディオカーブ(設定)を提供する。
部屋の音響モデリング
図23を参照して、部屋を音響的にモデリングするためのプロセス330は、音響属性について部屋をスキャンする動作332から開始する。非限定的な例では、デジタルカメラ10を保持するユーザは、カメラを部屋の周りにパンし、それによって対象の壁、床、天井及びオブジェクトをスキャンし得る。次に、動作334では、部屋の音響属性を診断及び処理する。最後に、動作336では、部屋の音響を改善するための提案をする。
さらなる非限定的な例としては、ユーザは歩いて部屋の中に入り、部屋のスキャンを開始する。センサ、例えば、1つ以上の構造化光プロジェクタ、デジタルレンジ撮像センサ、デジタル光撮像センサ、デジタル加速度計、デジタル気圧計、デジタル電磁放射線センサ、デジタル微気圧計、デジタル湿度計、デジタル温度計、Bフォーマットマイクカプセルアレイ、多チャンネルアナログ信号プリアンプ、多チャンネルアナログ−デジタルオーディオ変換器及びデジタル粒子速度感知パッケージは、SLAMモジュールと共に、材料の吸収特性、材料の反射特性、音速等のような構築された三次元モデルの音響特性に関する情報を、ユーザに提供する。この情報によって、該情報が処理及び診断された後に、部屋の物理的特徴に重ね合わされたAR映像がユーザに提供され得る。加えて、この処理された診断に基づいて、空間に追加可能な音響処理材等(これに限定されない)の空間の音響効果を改善するために実行可能な修正に関する提案が行われ得る。
図24では、プロセス338は、動作340において最初にHVACシステム属性をスキャンすることによって、HVACシステムの音響モデルを構築する。次に、動作342では、HVACシステムを診断及び処理する。次に、動作344では、HVACシステムを改善するための提案を行い得る。
非限定的な例では、プロセス338では、ユーザは部屋に入ってデジタルカメラ10により部屋をスキャン開始し得る。デジタル気圧計、デジタル電磁放射線センサ、デジタル微気圧計、デジタル湿度計、デジタル温度計及びデジタルサーモグラフィセンサのうち1つ以上を含むセンサは、SLAMモジュールと共に、HVACシステムに関する情報をユーザに提供する。そのような情報としては、例えば、気流、及び、熱気流と冷気流との比が挙げられる。この情報によって、該情報がカメラ画面上で処理及び診断された後に、空間に重ね合わされたAR視覚化がユーザに提供され得る。加えて、この処理された診断に基づいて、HVACシステムを改善するために実行可能な修正に関する提案が行われ得る。そのような修正には、例えば、気流の最適化と音響の最適化(例えば、HVACシステムによって生成された部屋の騒音レベル)との両方が含まれる。
前述より、限定ではなく例として示される、デジタルカメラを用いて周囲環境をモデリングする方法は、以下のステップを含むことが理解されよう。
・撮像センサと、音センサと、モーションセンサとを少なくとも含む複数のセンサから、生の入力データを収集するステップ、
・生の入力データからメタデータを導出するステップ、及び、
・デジタルカメラの周囲環境のモデルを構築するために、メタデータ及び生の入力データを処理するステップ。
例えば、メタデータは、前述の同時局在化及びマッピング(SLAM)プロセス及び/又はストラクチャーフロムモーション(SfM)プロセスを使用して導出され得る。SLAMプロセス及び/又はSfMプロセスのコードセグメントは、非限定的な例では、不揮発性の読み出し専用メモリ54等の非一時的コンピュータ可読媒体内に記憶され得る。特定の実施形態では、生の入力データは、撮像センサデータ及び音センサデータのうち1つのみを含む。
前述より、限定ではなく例として示される、拡張現実(AR)表示をデジタルカメラ上に提供する方法は、以下のステップを含むことが理解されよう。
・撮像センサと、音センサと、モーションセンサとを少なくとも含むデジタルカメラを用いて、周囲環境を走査するステップ、
・デジタルカメラのデジタルプロセッサを用いて、撮像センサ、音センサ及びモーションセンサから導出されたデータから、複数の物理オブジェクト及びそれらの特性を含む周囲環境のモデルを構築するステップ、及び、
・周囲環境を重ね合わせる拡張現実(AR)を構築するステップ。
周囲環境のスキャンは、デジタルカメラをパンすることによって行われてもよい。このモデルは、前述の同時局在化及びマッピング(SLAM)プロセス及び/又はストラクチャーフロムモーション(SfM)プロセスを使用して構築され得る。仮想オブジェクト及び仮想特性は、1つ以上のデータベース内に記憶され得る。SLAMプロセス及び/又はSfMプロセスのコードセグメントは、非限定的な例では、1つ以上のデータベースにおける仮想オブジェクト及び仮想特性と同様に、不揮発性の読み出し専用メモリ54等の非一時的コンピュータ可読媒体内に記憶され得る。一実施形態では、ARを構築するステップは、周囲環境の画像の上にAR画像を重ね合わせるステップを備えており、AR画像は、周囲環境の複数の物理特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含む。別の実施形態では、ARを構築するステップは、周囲環境の音の上にAR音を重ね合わせるステップを備えており、AR音は、周囲環境の複数の物理特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含む。後者の実施形態は、視覚障害者にとって特に有用であり、またエンターテイメント体験の現実感を高めるためにも使用され得る。
種々の例について特定の用語及びデバイスを使用して説明したが、そのような説明は、単に例示のみを目的としている。使用される言葉は、限定ではなく説明の言葉である。当業者であれば、本明細書に記載された実施例の趣旨又は範囲から逸脱することなく、変更及び変形が可能であることが理解されよう。加えて、種々の他の例についての態様は、その全部または一部において置換可能であることを理解されたい。したがって、本明細書及び以下に示される特許請求の範囲は、それらの真の趣旨及び範囲に従って、限定及び禁反言されることなく解釈されることが意図される。

Claims (25)

  1. カメラ本体と、
    前記カメラ本体によって支持されているレンズと、
    前記カメラ本体によって、前記レンズと並んで支持されている撮像センサと、
    前記カメラ本体によって支持されている音センサと、
    前記カメラ本体によって支持されている入力処理システムであって、
    (a)システムバス、
    (b)前記バスに結合されたデジタルプロセッサ、
    (c)前記音センサの出力を前記バスに結合する音センササブシステム、
    (d)前記音センササブシステムに対して同期クロック信号を供給するための、システムクロックから分離された高精度クロック、並びに、
    (e)前記バスに結合された非一時的デジタルメモリであって、リアルタイムでのオーディオ、ビジュアル及びモーション分析のために、前記音センササブシステムから導出されるデータから、デジタルカメラの周囲環境のデジタルモデルを構築するよう、デジタルプロセッサによって実行可能なコードセグメントを含む、非一時的デジタルメモリ
    を含んでいる、入力処理システムと、
    を備えている、オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  2. 前記撮像センサの出力を前記バスに結合する撮像センササブシステムと、前記カメラ本体によって支持されているモーションセンサと、前記モーションセンサの出力を前記バスに結合するモーションセンササブシステムとをさらに備えており、前記周囲環境の前記デジタルモデルは、前記撮像センササブシステム及び前記モーションセンササブシステムのうち少なくとも1つからのデータからも導出される、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  3. 全地球測位センサ及び前記全地球測位センサを前記システムバスに結合する全地球測位センササブシステム、並びに、環境センサ及び前記環境センサを前記システムバスに結合する環境センササブシステムをさらに備えており、前記周囲環境の前記デジタルモデルは、前記地球測位センササブシステム及び前記環境センササブシステムのうち少なくとも1つからのデータからも導出される、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  4. ストラクチャーフロムモーション(SfM)プロセスを実装する複数のコードセグメントをさらに備えている、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  5. 同時局在化及びマッピング(SLAM)プロセスを実装する複数のコードセグメントをさらに備えている、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  6. 複数のセンサからの生の入力データから、前記周囲環境の前記デジタルモデルを構築するために使用されるメタデータを導出する複数のコードセグメントをさらに備えている、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  7. 前記カメラ本体によって支持されている、前記周囲環境の画像を表示可能なディスプレイをさらに備えている、請求項1に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  8. 前記周囲環境の画像の上に拡張現実(AR)画像を重ね合わせる複数のコードセグメントをさらに備えている、請求項7に記載のオーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ。
  9. デジタルカメラの撮像センサから、生の画像データを収集するステップと、
    デジタルカメラの音センサから、生の音データを収集するステップと、
    前記生の画像データ及び前記生の音データから、モーション信号と撮像信号との両方の合成を含むメタデータを導出するステップと、
    ストラクチャーフロムモーション(SfM)プロセスと同時局在化及びマッピング(SLAM)プロセスとのうち少なくとも1つを実施することによって前記デジタルカメラの周囲環境のモデルを構築するために、前記メタデータ及び前記生の音データを処理するステップと、
    を備えている、デジタルカメラを用いて周囲環境をモデリングする方法。
  10. ストラクチャーフロムモーション(SfM)プロセスと同時局在化及びマッピング(SLAM)プロセスとのうち少なくとも1つを実施している間に、前記生の画像データを処理するステップをさらに備えている、請求項9に記載のデジタルカメラを用いて周囲環境をモデリングする方法。
  11. ストラクチャーフロムモーション(SfM)プロセスと同時局在化及びマッピング(SLAM)プロセスとのうち少なくとも1つを実施している間に、生のモーションデータを収集し、前記生のモーションデータを処理するステップをさらに備えている、請求項9に記載のデジタルカメラを用いて周囲環境をモデリングする方法。
  12. 前記モデルは、モーション信号と前記音データのみからの撮像信号との両方の合成を含んでいる、請求項9に記載のデジタルカメラを用いて周囲環境をモデリングする方法。
  13. 音センサを含むデジタルカメラを用いて、周囲環境を走査するステップと、
    前記デジタルカメラのデジタルプロセッサを用いて、前記音センサから導出されたデータから、複数の物理オブジェクト及びそれらの特性を含む周囲環境のモデルを構築するステップと、
    前記周囲環境を重ね合わせる拡張現実(AR)を構築するステップと、
    を備えている、デジタルカメラを用いて拡張現実を提供する方法。
  14. ARを構築する前記ステップは、前記周囲環境の画像の上にAR画像を重ね合わせるステップを備えており、前記AR画像は、前記周囲環境の複数の物理的特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含んでいる、請求項13に記載のデジタルカメラを用いて拡張現実を提供する方法。
  15. ARを構築する前記ステップは、前記周囲環境の音の上にAR音を重ね合わせるステップを備えており、前記AR音は、前記周囲環境の複数の物理的特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含んでいる、請求項13に記載のデジタルカメラを用いて拡張現実を提供する方法。
  16. ストラクチャーフロムモーション(SfM)プロセスを実装するステップをさらに備えている、請求項13に記載のデジタルカメラを用いて拡張現実を提供する方法。
  17. 同時局在化及びマッピング(SLAM)プロセスを実装するステップをさらに備えている、請求項13に記載のデジタルカメラを用いて拡張現実を提供する方法。
  18. 仮想特性を備えた仮想オブジェクト及び物理特性を備えた物理オブジェクトのうち少なくとも1つを含むデータベースをさらに備えている、請求項13に記載のデジタルカメラを用いて拡張現実を提供する方法。
  19. 音センサを含むデジタルカメラを用いて、周囲環境を走査するステップと、
    前記デジタルカメラのデジタルプロセッサを用いて、前記音センサから導出されたデータから、複数の物理オブジェクト及びそれらの特性を含む周囲環境のモデルを構築するステップと、
    前記周囲環境を重ね合わせる拡張現実(AR)を構築するステップと
    を行うための、デジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  20. ARを構築する前記ステップは、前記周囲環境の画像の上にAR画像を重ね合わせるステップを備えており、前記AR画像は、前記周囲環境の複数の物理的特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含んでいる、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  21. ARを構築する前記ステップは、前記周囲環境の音の上にAR音を重ね合わせるステップを備えており、前記AR音は、前記周囲環境の複数の物理的特性に関連する複数の仮想特性を備えた複数の仮想オブジェクトを含んでいる、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  22. ストラクチャーフロムモーション(SfM)プロセスを実装するステップをさらに備えている、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  23. 同時局在化及びマッピング(SLAM)プロセスを実装するステップをさらに備えている、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  24. 仮想特性を備えた仮想オブジェクト及び物理特性を備えた物理オブジェクトのうち少なくとも1つを含むデータベースをさらに備えている、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
  25. 前記周囲環境を重ね合わせるARを構築する前記ステップは、センサ入力又はニューラルネットワークのうち少なくとも1つを使用して、AR計算プロセスを加速することを含んでいる、請求項19に記載のデジタルカメラのデジタルプロセッサ上で実行可能な複数のコードセグメントを備えた非一時的コンピュータ可読媒体。
JP2018568745A 2016-05-28 2017-05-30 オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ Active JP6609383B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662342916P 2016-05-28 2016-05-28
US62/342,916 2016-05-28
PCT/US2017/035076 WO2017210228A1 (en) 2016-05-28 2017-05-30 Digital camera with audio, visual and motion analysis

Publications (2)

Publication Number Publication Date
JP2019526956A JP2019526956A (ja) 2019-09-19
JP6609383B2 true JP6609383B2 (ja) 2019-11-20

Family

ID=60418203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568745A Active JP6609383B2 (ja) 2016-05-28 2017-05-30 オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ

Country Status (10)

Country Link
US (3) US9959682B2 (ja)
EP (1) EP3465391B1 (ja)
JP (1) JP6609383B2 (ja)
KR (1) KR102036545B1 (ja)
CN (1) CN109564467B (ja)
AU (2) AU2017273462A1 (ja)
CA (1) CA3025525C (ja)
IL (1) IL263302B (ja)
NZ (1) NZ748891A (ja)
WO (1) WO2017210228A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109564467B (zh) 2016-05-28 2022-04-15 声学知识有限责任公司 具有音频、视觉和运动分析的数码相机
US10586379B2 (en) 2017-03-08 2020-03-10 Ebay Inc. Integration of 3D models
US10306212B2 (en) * 2017-03-31 2019-05-28 Verizon Patent And Licensing Inc. Methods and systems for capturing a plurality of three-dimensional sub-frames for use in forming a volumetric frame of a real-world scene
CA3096877A1 (en) * 2018-04-11 2019-10-17 Bongiovi Acoustics Llc Audio enhanced hearing protection system
US11727656B2 (en) * 2018-06-12 2023-08-15 Ebay Inc. Reconstruction of 3D model with immersive experience
CN110377776B (zh) * 2018-07-23 2022-06-07 北京京东尚科信息技术有限公司 生成点云数据的方法和装置
EP3942261B1 (en) * 2019-03-22 2024-05-29 Signify Holding B.V. Augmented reality-based acoustic performance analysis
KR102247557B1 (ko) 2019-04-01 2021-05-03 숭실대학교산학협력단 인-아웃 판정 방법, 이를 수행하기 위한 기록 매체 및 장치
KR102387501B1 (ko) 2020-03-03 2022-04-19 주식회사 코아소프트 증강현실 제공장치 및 제공방법
US11830119B1 (en) * 2020-05-29 2023-11-28 Apple Inc. Modifying an environment based on sound

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
KR101285391B1 (ko) 2010-07-28 2013-07-10 주식회사 팬택 음향 객체 정보 융합 장치 및 방법
US9563265B2 (en) * 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis
US20130235223A1 (en) * 2012-03-09 2013-09-12 Minwoo Park Composite video sequence with inserted facial region
EP2688318B1 (en) * 2012-07-17 2018-12-12 Alcatel Lucent Conditional interaction control for a virtual object
GB201216210D0 (en) 2012-09-12 2012-10-24 Appeartome Ltd Augmented reality apparatus and method
CA2896985A1 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US10031490B2 (en) * 2013-03-15 2018-07-24 Fisher-Rosemount Systems, Inc. Mobile analysis of physical phenomena in a process plant
WO2014169238A1 (en) * 2013-04-11 2014-10-16 Digimarc Corporation Methods for object recognition and related arrangements
US20140313303A1 (en) * 2013-04-18 2014-10-23 Digimarc Corporation Longitudinal dermoscopic study employing smartphone-based image registration
US9645652B2 (en) * 2013-05-28 2017-05-09 The Boeing Company Ubiquitous natural user system for human-machine interaction
US10295338B2 (en) * 2013-07-12 2019-05-21 Magic Leap, Inc. Method and system for generating map data from an image
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
KR102273027B1 (ko) * 2014-06-09 2021-07-05 삼성전자주식회사 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치
KR102297148B1 (ko) 2014-10-31 2021-09-03 삼성메디슨 주식회사 3차원 영상을 표시하는 초음파 시스템 및 그 방법
CN109564467B (zh) 2016-05-28 2022-04-15 声学知识有限责任公司 具有音频、视觉和运动分析的数码相机

Also Published As

Publication number Publication date
JP2019526956A (ja) 2019-09-19
KR102036545B1 (ko) 2019-10-25
EP3465391B1 (en) 2021-10-20
US20180247461A1 (en) 2018-08-30
KR20190004809A (ko) 2019-01-14
US10204457B2 (en) 2019-02-12
NZ748891A (en) 2019-12-20
AU2017273462A1 (en) 2019-01-03
AU2019279990B2 (en) 2020-10-01
CN109564467A (zh) 2019-04-02
EP3465391A1 (en) 2019-04-10
EP3465391A4 (en) 2020-01-01
AU2019279990A1 (en) 2020-01-23
CA3025525A1 (en) 2017-12-07
WO2017210228A1 (en) 2017-12-07
US10477117B2 (en) 2019-11-12
IL263302A (en) 2018-12-31
CA3025525C (en) 2020-07-14
IL263302B (en) 2019-07-31
US20170345216A1 (en) 2017-11-30
CN109564467B (zh) 2022-04-15
US20190089911A1 (en) 2019-03-21
US9959682B2 (en) 2018-05-01

Similar Documents

Publication Publication Date Title
JP6609383B2 (ja) オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ
US11080937B2 (en) Wearable augmented reality devices with object detection and tracking
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP4926916B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
KR102197732B1 (ko) 실내공간의 3차원 지도 생성 방법 및 장치
WO2018113759A1 (zh) 基于定位***和ar/mr的探测***及探测方法
US12067157B2 (en) Drift cancelation for portable object detection and tracking
KR20210086837A (ko) 증강현실을 이용한 실내 인테리어 시뮬레이션 방법
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Afif et al. Orientation control for indoor virtual landmarks based on hybrid-based markerless augmented reality
US11385856B2 (en) Synchronizing positioning systems and content sharing between multiple devices
JP7405083B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114026527A (zh) 可穿戴装置的空间音频
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
WO2023179369A1 (zh) 控制装置的定位方法、装置、设备、存储介质及计算机程序产品
JP2020071394A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20181227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181227

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6609383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250