JP5127972B1 - 電子機器、電子機器の制御方法 - Google Patents
電子機器、電子機器の制御方法 Download PDFInfo
- Publication number
- JP5127972B1 JP5127972B1 JP2011216839A JP2011216839A JP5127972B1 JP 5127972 B1 JP5127972 B1 JP 5127972B1 JP 2011216839 A JP2011216839 A JP 2011216839A JP 2011216839 A JP2011216839 A JP 2011216839A JP 5127972 B1 JP5127972 B1 JP 5127972B1
- Authority
- JP
- Japan
- Prior art keywords
- face
- viewing zone
- excluded
- detected
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/146—Aligning or centring of the image pick-up or image-field
- G06V30/1473—Recognising objects as potential recognition candidates based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】視聴者に対して視域を形成することができる立体映像処理装置及び立体映像処理方法を提供すること。
【解決手段】立体映像を表示するディスプレイの前方を含む領域を撮像する撮像モジュールと、撮像モジュールで撮像される映像から顔を検出する検出モジュールと、検出モジュールで検出された顔を、立体映像を立体として認識できる領域である視域の形成対象から除外するコントローラと、を備える。
【選択図】図1
【解決手段】立体映像を表示するディスプレイの前方を含む領域を撮像する撮像モジュールと、撮像モジュールで撮像される映像から顔を検出する検出モジュールと、検出モジュールで検出された顔を、立体映像を立体として認識できる領域である視域の形成対象から除外するコントローラと、を備える。
【選択図】図1
Description
本発明の実施形態は、立体映像処理装置、立体映像処理方法に関する。
近年、立体映像を視聴可能な映像処理装置(以下、立体映像処理装置と記載する)が開発され、発売されている。この立体映像処理装置には、視差を有する複数枚の画像(多視点画像)の各画素を1つの画像(以下、合成画像と記載する)に離散的に配置し、この合成画像を構成する各画素からの光線の軌道をレンチキュラーレンズなどにより制御して、観察者に立体映像を知覚させるインテグラルイメージング方式(インテグラルフォトグラフィ方式とも呼ばれる)や、一枚の板にスリットを形成して映像の見え方を制限するパララックスバリア方式等がある。
インテグラルイメージング方式やパララックスバリア方式では、光線の軌道を制御することにより、映像を立体として認識できる領域(以下、視域と記載する)の位置を移動させることができる。このため、従来の映像処理装置では、カメラを備え、該カメラで撮像した画像から顔を検出し、該検出した顔の位置に視域が形成されるよう光線の軌道を制御することが提案されている(例えば、特許文献1参照)。
インテグラルイメージング方式やパララックスバリア方式等を採用した従来の立体映像処理装置では、検出した顔の位置に合わせて視域全体を前後左右に動かす程度の調整しかできず、検出した複数の顔の位置に合わせて個別に視域を形成することができない。このため、複数の顔を検出した場合、検出した全ての顔が視域内となるように、視域を形成できない虞がある。しかしながら、カメラで撮像した画像から顔を検出する従来の方法では、視聴者(以下、ユーザ)以外の顔、例えば、ポスターや壁の模様、動物の顔等を誤って検出することがある。この場合、本来視域を形成すべきユーザに対して視域が形成されずに、誤って検出したポスターや壁の模様、動物等に対して視域が形成されるという問題がある。また、検出した顔の人物が立体画像を視聴していない場合にも、ユーザに対して視域が形成されずに、立体画像を視聴していない人物に対して視域が形成される虞がある。
本実施形態は、視聴者に対して視域を形成することができる立体映像処理装置及び立体映像処理方法を提供することを目的とする。
本実施形態は、視聴者に対して視域を形成することができる立体映像処理装置及び立体映像処理方法を提供することを目的とする。
実施形態に係る立体映像処理装置は、立体映像を表示するディスプレイの前方を含む領域を撮像する撮像モジュールと、撮像モジュールで撮像される映像から顔を検出する検出モジュールと、検出モジュールで検出された顔を、立体映像を立体として認識できる領域である視域の形成対象から除外するコントローラと、を備える。
を備える。
を備える。
以下、図面を参照して、実施形態を詳細に説明する。
(実施形態)
(実施形態)
(立体映像処理装置100の構成)
図1は、実施形態に係る立体映像処理装置100の構成図である。実施形態に係る立体映像処理装置100は、チューナ101、チューナ102、チューナ103、PSK(Phase Shift Keying)復調器104、OFDM(Orthogonal Frequency Division Multiplexing)復調器105、アナログ復調器106、信号処理部107、グラフィック処理部108、OSD(On Screen Display)信号生成部109、音声処理部110、スピーカ111、映像処理部112、映像表示部113(ディスプレイ)、制御部114(コントローラ)、操作部115(操作受付モジュール)、受光部116(操作受付モジュール、)、端子117、通信I/F(Inter Face)118、カメラモジュール119(撮像モジュール、顔検出モジュール、位置算出モジュール)を備える。
図1は、実施形態に係る立体映像処理装置100の構成図である。実施形態に係る立体映像処理装置100は、チューナ101、チューナ102、チューナ103、PSK(Phase Shift Keying)復調器104、OFDM(Orthogonal Frequency Division Multiplexing)復調器105、アナログ復調器106、信号処理部107、グラフィック処理部108、OSD(On Screen Display)信号生成部109、音声処理部110、スピーカ111、映像処理部112、映像表示部113(ディスプレイ)、制御部114(コントローラ)、操作部115(操作受付モジュール)、受光部116(操作受付モジュール、)、端子117、通信I/F(Inter Face)118、カメラモジュール119(撮像モジュール、顔検出モジュール、位置算出モジュール)を備える。
初めに、立体映像処理装置100の概要について説明する。
図2は、立体映像処理装置100のディスプレイに表示される映像を立体として認識できる領域(以下、視域と記載する)を示した図である。なお、図2の破線Lは、カメラ119aの撮像範囲の境界を表している。立体映像処理装置100は、例えば、デジタルテレビであり、視差を有する複数枚の画像(多視点画像)の各画素を1つの画像(以下、合成画像と記載する)に離散的に配置し、この合成画像を構成する各画素からの光線の軌道をレンチキュラーレンズなどにより制御して観察者に立体映像を知覚させるインテグラルイメージング方式により、視聴者(以下、ユーザと記載する)に立体映像を提示する。
図2は、立体映像処理装置100のディスプレイに表示される映像を立体として認識できる領域(以下、視域と記載する)を示した図である。なお、図2の破線Lは、カメラ119aの撮像範囲の境界を表している。立体映像処理装置100は、例えば、デジタルテレビであり、視差を有する複数枚の画像(多視点画像)の各画素を1つの画像(以下、合成画像と記載する)に離散的に配置し、この合成画像を構成する各画素からの光線の軌道をレンチキュラーレンズなどにより制御して観察者に立体映像を知覚させるインテグラルイメージング方式により、視聴者(以下、ユーザと記載する)に立体映像を提示する。
図2に示すように、立体映像処理装置100では、複数の視域304a〜304eが形成される。インテグラルイメージング方式では、レンチキュラーレンズにより光線の軌道を制御することで、この視域304a〜304eの位置を、立体映像処理装置100に対して前後左右に移動することができる。しかしながら、複数の視域304a〜304eの位置を独立して動かすことはできない。なお、図2では、視域の数が5つの場合を示したが、視域の数は5つに限られない。
このため、後述するカメラモジュール119において、ユーザ以外の顔(特定の顔)、例えば、ポスター等の顔写真、壁の模様、動物の顔などが誤って検出された場合、この誤って検出された顔の位置に合わせて視域が形成され、本来視域を形成すべきユーザに対して視域が形成されない虞が生じる。
そこで、この実施形態に係る立体映像処理装置100は、後述のカメラモジュールで検出された顔を視域形成の対象から除外するか否かをユーザが設定できるように構成されている。また、一定時間(例えば、数時間)位置が変わらない顔についても、ポスター等の顔写真等を誤って検出した可能性が高いため視域形成の対象からの除外を推奨する。さらに、立体映像処理装置100は、予め登録された動物等の顔の特徴を記憶しておき、検出された顔の特徴点を比較することでより詳細な顔認識を行い、比較結果が一定の閾値を超えた場合、視域形成の対象からの除外を推奨する。
(各構成の詳細)
チューナ101は、制御部114からの制御信号により、BS/CSデジタル放送受信用のアンテナ1で受信した衛星デジタルテレビジョン放送から所望のチャンネルの放送信号を選局し、この選局した放送信号をPSK復調器104に出力する。PSK復調器104は、制御部114からの制御信号により、チューナ101から入力される放送信号を復調して信号処理部107へ出力する。
チューナ101は、制御部114からの制御信号により、BS/CSデジタル放送受信用のアンテナ1で受信した衛星デジタルテレビジョン放送から所望のチャンネルの放送信号を選局し、この選局した放送信号をPSK復調器104に出力する。PSK復調器104は、制御部114からの制御信号により、チューナ101から入力される放送信号を復調して信号処理部107へ出力する。
チューナ102は、制御部114からの制御信号により、地上波放送受信用のアンテナ2で受信した地上デジタルテレビジョン放送信号から所望のチャンネルのデジタル放送信号を選局し、この選局したデジタル放送信号をOFDM復調器105に出力する。OFDM復調器105は、制御部114からの制御信号により、チューナ102から入力されるデジタル放送信号を復調して信号処理部107へ出力する。
チューナ103は、制御部114からの制御信号により、地上波放送受信用のアンテナ2で受信した地上アナログテレビジョン放送信号から所望のチャンネルのアナログ放送信号を選局し、この選局したアナログ放送信号をアナログ復調器106に出力する。アナログ復調器106は、制御部114からの制御信号により、チューナ102から入力されるアナログ放送信号を復調して信号処理部107へ出力する。
信号処理部107は、PSK復調器104、OFDM復調器105及びアナログ復調器106から入力される復調後の放送信号から、映像信号及び音声信号を生成する。信号処理部107は、映像信号をグラフィック処理部108に出力し、音声信号を音声処理部110に出力する。
OSD信号生成部109は、制御部114からの制御信号に基づいてOSD信号を生成しグラフィック処理部108へ出力する。
グラフィック処理部108は、制御部114からの制御信号に基づいて、信号処理部107から出力される映像信号から2視差又は9視差に対応する複数枚の画像データ(多視点画像データ)を生成する。グラフィック処理部108は、生成した多視点画像の各画素を1つの画像に離散的に配置して2視差又は9視差を有する合成画像に変換する。また、グラフィック処理部108は、OSD信号生成部109で生成されるOSD信号を映像処理部112へ出力する。
映像処理部112は、グラフィック処理部108で変換された合成画像を映像表示部113で表示可能なフォーマットに変換した後、映像表示部113に出力して立体映像表示させる。映像処理部112は、入力されるOSD信号を映像表示部113で表示可能なフォーマットに変換した後、映像表示部113に出力してOSD信号に対応する映像を表示させる。
映像表示部113は、各画素からの光線の軌道を制御するためのレンチキュラーレンズを備えたインテグラルイメージング方式の立体映像表示用のディスプレイである。
音声処理部110は、入力される音声信号をスピーカ111で再生可能なフォーマットに変換した後、スピーカ111に出力して音声再生させる。
操作部115には、立体映像処理装置100を操作するための複数の操作キー(例えば、カーソルキー、決定キー、BACK(戻る)キー、カラーキー(赤、緑、黄、青)等)が配列されている。ユーザが、上記操作キーを押し下げすることで、押し下げられた操作キーに対応する操作信号が制御部114へ出力される。
受光部116は、リモートコントローラ3(以下、リモコン3と記載する)から送信される赤外線信号を受信する。リモコン3には、立体映像処理装置100を操作するための複数の操作キー(例えば、カーソルキー、決定キー、BACK(戻る)キー、カラーキー(赤、緑、黄、青)等)が配列されている。ユーザが、上記操作キーを押し下げすることで、押し下げられた操作キーに対応した赤外線信号が発光される。受光部116は、リモコン3が発光した赤外線信号を受信する。受光部116は、受信した赤外線信号に対応する操作信号を制御部114へ出力する。
ユーザは、上記操作部115もしくはリモコン3を操作して、立体映像処理装置100の種々の動作を行わせたり、立体映像処理装置100の機能を設定することができる。例えば、ユーザは、立体映像処理装置100の視差数、オートトラッキング、除外登録・解除、自動除外等を設定することができる。
(視差数の設定)
視差数の設定では、ユーザは、2視差又は9視差のいずれで立体映像を視聴するかを選択することができる。ユーザにより選択された視差数の設定は、後述する制御部114の不揮発性メモリ114cに記憶される。なお、上記視差数(2視差又は9視差)は、例示であり、他の視差数(例えば、4視差、6視差)であってもよい。
視差数の設定では、ユーザは、2視差又は9視差のいずれで立体映像を視聴するかを選択することができる。ユーザにより選択された視差数の設定は、後述する制御部114の不揮発性メモリ114cに記憶される。なお、上記視差数(2視差又は9視差)は、例示であり、他の視差数(例えば、4視差、6視差)であってもよい。
(オートトラッキングの設定)
オートトラッキングの設定では、ユーザは、オートトラッキングをONするかOFFするかを設定することができる。オートトラッキングの設定がONの場合、カメラモジュール119で検出した顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に自動で視域(映像を立体として認識できる領域)が形成される。オートトラッキングの設定がONの場合、所定の時間(例えば、数十秒〜数分)ごとにカメラモジュール119で顔が検出され、この検出した顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に視域が形成される。また、オートトラッキングの設定がOFFの場合、ユーザが操作部115又はリモコン3を操作して、視域の形成を指示したときにカメラモジュール119で検出された顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に視域が形成される。
オートトラッキングの設定では、ユーザは、オートトラッキングをONするかOFFするかを設定することができる。オートトラッキングの設定がONの場合、カメラモジュール119で検出した顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に自動で視域(映像を立体として認識できる領域)が形成される。オートトラッキングの設定がONの場合、所定の時間(例えば、数十秒〜数分)ごとにカメラモジュール119で顔が検出され、この検出した顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に視域が形成される。また、オートトラッキングの設定がOFFの場合、ユーザが操作部115又はリモコン3を操作して、視域の形成を指示したときにカメラモジュール119で検出された顔(但し、後述の視域形成の対象から除外されている顔を除く)の位置に視域が形成される。
なお、視域の形成は、以下のようにして行う。例えば、視域を映像表示部113の前後方向に動かしたい場合は、表示画像とレンチキュラーレンズの開口部の隙間を広くしたり、狭くすることで、視域を映像表示部113の前後方向に移動させる。レンチキュラーレンズの開口部の隙間を広くすると、視域が映像表示部113の後方に移動する。また、レンチキュラーレンズの開口部の隙間を狭くすると、視域が映像表示部113の前方に移動する。
視域を映像表示部113の左右方向に動かしたい場合は、表示画像を左右にシフトさせることで、視域を映像表示部113の左右方向に移動させる。表示画像を左にシフトさせることで、視域が映像表示部113の左側に移動する。また、表示画像を右にシフトさせることで、視域が映像表示部113の右側に移動する。
(除外登録・解除の設定)
除外登録・解除の設定では、後述のカメラモジュール119で検出された顔を視域形成の対象から除外するか否かを設定することができる。除外対象として登録されると、オートトラッキングの設定がONの場合やユーザが視域の形成を指示した時に、視域を形成する対象から除外される。また、登録した除外対象は、解除することが可能である。解除された場合は、視域形成の対象から除外されない。すなわち、視域の対象となる。この除外登録・解除の操作については、図3を参照して後述する。
除外登録・解除の設定では、後述のカメラモジュール119で検出された顔を視域形成の対象から除外するか否かを設定することができる。除外対象として登録されると、オートトラッキングの設定がONの場合やユーザが視域の形成を指示した時に、視域を形成する対象から除外される。また、登録した除外対象は、解除することが可能である。解除された場合は、視域形成の対象から除外されない。すなわち、視域の対象となる。この除外登録・解除の操作については、図3を参照して後述する。
(自動除外の設定)
自動除外の設定では、制御部114で除外推奨とされた顔を、視域形成の対象から自動で除外するか否かを設定することができる。自動除外の設定がONの場合、後述の制御部114で除外推奨とされた顔が視域形成の対象から自動で除外される。除外推奨の顔を視域形成の対象から自動で除外した場合は、除外した旨がユーザに通知される。また、自動除外の設定がOFFの場合、後述の制御部114で除外推奨とされた顔を視域形成の対象から除外するか否かがユーザに通知される。ユーザは、操作部115もしくはリモコン3を操作して、除外推奨とされた顔を視域形成の対象から除外するか否かを決定する。
自動除外の設定では、制御部114で除外推奨とされた顔を、視域形成の対象から自動で除外するか否かを設定することができる。自動除外の設定がONの場合、後述の制御部114で除外推奨とされた顔が視域形成の対象から自動で除外される。除外推奨の顔を視域形成の対象から自動で除外した場合は、除外した旨がユーザに通知される。また、自動除外の設定がOFFの場合、後述の制御部114で除外推奨とされた顔を視域形成の対象から除外するか否かがユーザに通知される。ユーザは、操作部115もしくはリモコン3を操作して、除外推奨とされた顔を視域形成の対象から除外するか否かを決定する。
端子117は、外部端末(例えば、USBメモリ、DVD記憶再生装置、インターネットサーバ、PC等)を接続するためのUSB端子、LAN端子、HDMI端子、iLINK端子などである。
通信I/F118は、端子117に接続された上記外部端末との通信インターフェースであり、制御部114と上記外部端末との間で制御信号及びデータ等のフォーマットに変換を行う。
カメラモジュール119は、立体映像処理装置100の正面下側もしくは正面上側に設けられる。カメラモジュール119は、カメラ119aと、顔検出部119b(顔検出モジュール)と、不揮発性メモリ119cと、位置算出部119dとを備える。カメラ119aは、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device Image Sensor)イメージセンサである。カメラ119aは、立体映像処理装置100の前方を含む領域を撮像する。
顔検出部119bは、カメラ119aで撮像される映像から顔を検出する。顔検出部119bは、検出した顔に固有の番号(ID)を付与する。この顔検出には既知の手法を用いることができる。例えば、顔認識のアルゴリズムは、見た目の特徴を直接幾何学的に比較する方法と、画像を統計的に数値化してその数値をテンプレートと比較する方法との大別できるが、この実施形態では、どちらのアルゴリズムを用いて顔を検出してもよい。
位置算出部119dは、顔検出部119bで検出した顔の位置座標を算出する。このユーザの位置座標の算出には既知の手法を用いることができる。例えば、顔検出部119bで検出した顔の右目から左目の距離と、撮像した映像の中心から顔中心(右目と左目の中央)の座標とに基づいて顔を検出したユーザの位置座標を算出するようにしてもよい。
顔の右目から左目の距離からは、カメラ119aからユーザまでの距離を算出できる。通常、人間の右目と左目との距離は65mm程度であることから、右目と左目との距離がわかればカメラ119aから検出した顔までの距離を算出することができる。また、撮像した映像における顔の位置と前記算出した距離から、検出した顔の上下及び左右方向(x−y平面)における位置がわかる。
また、位置算出部119dは、顔検出部119bで付与したIDと同じIDを算出した位置座標のデータに付与する。なお、位置座標は、3次元の座標データとして認識できればよく、一般的に知られている座標系(例えば、直交座標系、極座標系、球座標系)のいずれで表現してもよい。
顔が検出された場合、位置算出部119dで算出した位置座標を、顔検出部119bで付与したIDと共に出力する。なお、顔の検出及び検出した顔の位置座標の算出は、制御部114で行うようにしてもよい。
制御部114は、ROM(Read Only Memory)114a、RAM(Random Access Memory)114b、不揮発性メモリ114c、CPU114dを備える。ROM114aには、CPU114dが実行する制御プログラムが格納されている。RAM114bは、CPU114dは作業エリアとして機能する。不揮発性メモリ114cには、各種の設定情報(例えば、上述の視差数、トラッキング、除外登録・解除、自動除外等の設定)、視域情報や動物の顔の特徴等が格納されている。視域情報は、実空間における視域の分布を3次元の座標データとしたものである。視域情報は、2視差と9視差のそれぞれが不揮発性メモリ114cに記憶されている。
制御部114は、立体映像処理装置100全体を制御する。具体的には、制御部114は、操作部115及び受光部116から入力される操作信号や不揮発性メモリ114cに記憶されている設定情報に基づいて立体映像処理装置100全体の動作を制御する。以下、制御部114の代表的な機能について説明する。
(視差数の制御)
制御部114は、不揮発性メモリ114cに記憶されている視差数が2(視差)であれば、信号処理部107から出力される映像信号から2視差用の画像データを生成するようグラフィック処理部108へ指示する。制御部114は、不揮発性メモリ114cに記憶されている視差数が9(視差)であれば、信号処理部107から出力される映像信号から9視差用の画像データを生成するようグラフィック処理部108へ指示する。
制御部114は、不揮発性メモリ114cに記憶されている視差数が2(視差)であれば、信号処理部107から出力される映像信号から2視差用の画像データを生成するようグラフィック処理部108へ指示する。制御部114は、不揮発性メモリ114cに記憶されている視差数が9(視差)であれば、信号処理部107から出力される映像信号から9視差用の画像データを生成するようグラフィック処理部108へ指示する。
(トラッキングの制御)
制御部114は、不揮発性メモリ114cに記憶されているオートトラッキングがONの場合、所定の時間(例えば、数十秒〜数分)ごとに、カメラモジュール119で検出した顔(但し、視域形成の対象から除外されている顔を除く)の位置に視域が形成されるように映像表示部113の各画素からの光線の軌道を制御する。また、制御部114は、不揮発性メモリ114cに記憶されているオートトラッキングがOFFの場合、ユーザが操作部115又はリモコン3を操作して、視域の形成を指示したときにカメラモジュール119で検出した顔(但し、視域形成の対象から除外されている顔を除く)の位置に視域が形成されるように映像表示部113の各画素からの光線の軌道を制御する。
制御部114は、不揮発性メモリ114cに記憶されているオートトラッキングがONの場合、所定の時間(例えば、数十秒〜数分)ごとに、カメラモジュール119で検出した顔(但し、視域形成の対象から除外されている顔を除く)の位置に視域が形成されるように映像表示部113の各画素からの光線の軌道を制御する。また、制御部114は、不揮発性メモリ114cに記憶されているオートトラッキングがOFFの場合、ユーザが操作部115又はリモコン3を操作して、視域の形成を指示したときにカメラモジュール119で検出した顔(但し、視域形成の対象から除外されている顔を除く)の位置に視域が形成されるように映像表示部113の各画素からの光線の軌道を制御する。
制御部114は、視域形成の対象となる全ての顔が視域内に入るようにレンチキュラーレンズを制御する。しかしながら、視域形成の対象である顔が全て入りきらない場合は、制御部114は、視域内に入りきらない顔の数が最少となるようにレンチキュラーレンズを制御する。なお、制御部114は、視域内に入りきらない顔がある場合、その旨を映像表示部113に表示してユーザに通知する。
(除外推奨の検出)
制御部114は、カメラモジュール119で検出された顔から、視域形成の対象から除外したほうがよいと思われる顔を検出する。ここで、制御部114は、一定時間(例えば、数時間)位置が変わらない顔、及び予めに不揮発性メモリ114cに記憶されている動物の顔の特徴との比較結果から人間の顔でないと判定された顔を、視域形成の除外推奨として検出する。なお、時間は、制御部114が備えるタイマ114eを使用して計測する。
制御部114は、カメラモジュール119で検出された顔から、視域形成の対象から除外したほうがよいと思われる顔を検出する。ここで、制御部114は、一定時間(例えば、数時間)位置が変わらない顔、及び予めに不揮発性メモリ114cに記憶されている動物の顔の特徴との比較結果から人間の顔でないと判定された顔を、視域形成の除外推奨として検出する。なお、時間は、制御部114が備えるタイマ114eを使用して計測する。
なお、制御部114により、除外推奨として検出された顔は、自動除外がON設定の場合、自動で視域形成の対象から除外される。また、自動除外がOFF設定の場合、視域形成の対象から除外するか否かがユーザに通知される。ユーザは、操作部115もしくはリモコン3を操作して、除外推奨とされた顔を視域形成の対象から除外するか否かを決定する。
(除外登録・解除画面の表示)
制御部114により、除外推奨が検出された場合、又は、ユーザにより操作部115又はリモコン3の青色のカラーキーが押下げされると、制御部114は、図3に示す画像を表示するOSD信号を生成するようOSD信号生成部109に指示する。OSD信号生成部109で生成されたOSD信号は、映像表示部113で図3に示す画像として表示される。なお、この実施形態では、図3に示す画像の表示操作に青色のカラーキーを割り当てているが、他の操作キーを割り当てるようにしてもよい。また、メニュー画面を映像表示部113に表示し、このメニュー画面から除外登録・解除画面を選択した後、決定キーを押下げすることにより図3に示す画像を映像表示部113に表示するようにしてもよい。
制御部114により、除外推奨が検出された場合、又は、ユーザにより操作部115又はリモコン3の青色のカラーキーが押下げされると、制御部114は、図3に示す画像を表示するOSD信号を生成するようOSD信号生成部109に指示する。OSD信号生成部109で生成されたOSD信号は、映像表示部113で図3に示す画像として表示される。なお、この実施形態では、図3に示す画像の表示操作に青色のカラーキーを割り当てているが、他の操作キーを割り当てるようにしてもよい。また、メニュー画面を映像表示部113に表示し、このメニュー画面から除外登録・解除画面を選択した後、決定キーを押下げすることにより図3に示す画像を映像表示部113に表示するようにしてもよい。
図3は、映像表示部113に表示される画像図である。図3に示すように、映像表示部113には、表示枠301〜304が表示される。以下、各表示枠301〜304内に表示される画像について説明する。
(表示枠301)
表示枠301内には、除外登録の指示や、ユーザが映像を立体として認識できる領域、すなわち視域内で立体画像を視聴するために必要な事項が表示される。
表示枠301内には、除外登録の指示や、ユーザが映像を立体として認識できる領域、すなわち視域内で立体画像を視聴するために必要な事項が表示される。
(表示枠302)
表示枠302内には、カメラモジュール119のカメラ119aで撮像される映像が表示される。ユーザは、表示枠302内に表示される映像により、顔の向きや位置、実際に顔が検出されているか否か等を確認することができる。検出された顔は、枠により囲まれる。枠の上部には、カメラモジュール119の顔検出部119bで付与されたID(この実施形態では、アルファベット)が表示される。
表示枠302内には、カメラモジュール119のカメラ119aで撮像される映像が表示される。ユーザは、表示枠302内に表示される映像により、顔の向きや位置、実際に顔が検出されているか否か等を確認することができる。検出された顔は、枠により囲まれる。枠の上部には、カメラモジュール119の顔検出部119bで付与されたID(この実施形態では、アルファベット)が表示される。
(除外登録・解除の設定)
ユーザは、操作部115又はリモコン3を操作して、検出された顔を視域形成の対象から除外するか否かを設定することができる。ユーザは、カーソルキーを操作して、表示枠302内に表示される映像から除外対象とする顔又は除外対象を解除する顔を選択する。ユーザが、カーソルキーを操作すると、表示枠302内において、現在選択されている顔を囲う枠が強調表示(例えば、枠が点滅して表示される、枠が太く表示される等)される。
ユーザは、操作部115又はリモコン3を操作して、検出された顔を視域形成の対象から除外するか否かを設定することができる。ユーザは、カーソルキーを操作して、表示枠302内に表示される映像から除外対象とする顔又は除外対象を解除する顔を選択する。ユーザが、カーソルキーを操作すると、表示枠302内において、現在選択されている顔を囲う枠が強調表示(例えば、枠が点滅して表示される、枠が太く表示される等)される。
ユーザは、除外対象とする顔又は除外対象を解除する顔を選択した後、決定キーを押し下げする。ユーザが、決定キーを押し下げするたびに、選択した顔の除外登録と除外登録の解除(以下、除外解除と記載)がサイクリックに変化する。つまり、設定が除外登録であれば、決定キーを押し下げにより、設定が除外解除へと変化する。また、設定が除外解除であれば、決定キーを押し下げにより、ステイタスが除外登録へと変化する。
表示枠302内に表示される枠の色は、表1に示すように、該枠に囲まれた顔が、除外登録されているか否か、除外推奨となっているか否かにより変化する。枠が青色の場合、除外登録が解除されており、かつ、除外推奨でもない状態を表している。枠が黄色の場合、除外登録が解除されており、かつ、除外推奨である状態を表している。枠が赤色の場合、除外登録されている状態を表している。
例えば、図3に示す例では、枠「C」内の顔は、ポスター302aに描かれた顔が誤って検出されている。この場合、一定時間顔の位置が変化しないため、制御部114により除外推奨として検出される。このため、ユーザが、枠「C」内の顔を除外登録していれば、枠「C」は赤色で表示され、除外登録が解除されていれば枠「C」は黄色で表示される。
なお、表1に示した各ステイタスへの色の割り当ては、一例であり、適宜変更することが可能である。また、ステイタスを色ではなく、枠の形状(例えば、丸、三角、四角等)で表すようにしてもよい。
また、顔が視域内であるか否か応じて枠の表示態様が異なって表示される。顔が視域内である場合、顔を囲む枠は実線で描画され、顔が視域外である場合、顔を囲む枠は破線で描画される。図3に示す例では、枠「A」,「B」内の顔が視域内であり、枠「C」内の顔が視域外であることがわかる。
顔が視域外にある場合、いわゆる逆視やクロストーク等の発生により、ユーザは映像を立体として認識できないが、この実施形態では、顔が視域内であるか否かに応じて枠の表示態様が異なるため、ユーザは、自分の位置が視域内か視域外かを簡単に確認することができる。なお、図3に示す例では、顔を囲む枠の線の種類(実線、破線)を、顔の位置が視域内か否かに応じて異なるものとしているが、他の表示形態、例えば、枠の形状(四角、三角、円等)、色等を顔の位置が視域内か否かに応じて異なるものとしてもよい。このようにしても、ユーザは、自分の位置が視域内か視域外かを簡単に確認することができる。
なお、顔の位置が視域内であるか否かは、位置算出部119dで算出された顔の位置座標及び不揮発性メモリ114cに記憶されている視域情報に基づいて判定される。この際、制御部114は、視差数の設定が2視差か9視差かに応じて、参照する視域情報を変更する。すなわち、制御部114は、視差数の設定が2視差の場合、2視差用の視域情報を参照する。また、制御部114は、視差数の設定が9視差の場合、9視差用の視域情報を参照する。
表示枠303内には、現在の設定情報が表示される。具体的には、立体映像の視差数が2視差であるか9視差であるか、オートトラッキングがONであるかOFFであるか、及び、自動除外ONであるかOFFであるかが表示される。
表示枠304内には、映像を立体的に視聴可能な領域である視域304a〜304e(斜線部)と、カメラモジュール119の位置算出部119dで算出した顔の位置情報(顔を表すアイコンと、該アイコンを囲む枠)及びID(アルファベット)が俯瞰図として表示される。表示枠304内に表示される俯瞰図は、不揮発性メモリ114cに記憶されている視域情報及び位置算出部119dで算出した顔の位置座標に基づいて表示される。
アイコンを囲む枠の色及び形状は、表示枠302内に表示される枠の色及び形状と連動しており、同一のIDを付与された枠は、表示枠302内と表示枠304内において同一の色と形状で表示される。例えば、表示枠302内の枠「A」が赤色及び実線であれば、表示枠304内の枠「A」も赤色及び実線で表示される。ユーザは、表示枠304内に表示される俯瞰図と位置情報を参照することで、自分の顔が検出されているか否か、検出されている場合、顔のステイタス及び視域内に位置するか否かを容易に理解することができる。なお、図3では、同一のユーザには、同一のアルファベットを表示するようにしているが、他の方法、例えば、枠の色や形状により同一のユーザを表すようにしてもよい。
なお、表示枠304内の破線Lは、カメラ119aの撮像範囲の境界を表している。つまり、カメラ119aで実際に撮像され、表示枠302内に表示される範囲は、破線Lbよりも下側の範囲となる。このため、表示枠304内の破線Lよりも左上及び右上の範囲については、表示枠304内への表示を省略するようにしてもよい。
(視域情報の更新)
制御部114は、オートトラッキングやユーザの操作により視域が変更される度に新たな視域の位置(分布)を再計算し、不揮発性メモリ114cに記憶されている視域情報を更新する。
制御部114は、オートトラッキングやユーザの操作により視域が変更される度に新たな視域の位置(分布)を再計算し、不揮発性メモリ114cに記憶されている視域情報を更新する。
(立体映像処理装置100の動作)
図4,図5は、立体映像処理装置100の動作を示すフローチャートである。図4は、立体映像処理装置100の除外登録・解除画面の表示動作を示すフローチャートである。図5は、立体映像処理装置100の視域の形成動作を示すフローチャートである。以下、図4及び図5を参照して、立体映像処理装置100の動作を説明する。
図4,図5は、立体映像処理装置100の動作を示すフローチャートである。図4は、立体映像処理装置100の除外登録・解除画面の表示動作を示すフローチャートである。図5は、立体映像処理装置100の視域の形成動作を示すフローチャートである。以下、図4及び図5を参照して、立体映像処理装置100の動作を説明する。
(除外登録・解除画面の表示動作)
図4を参照して、除外登録・解除画面の表示動作について説明する。図4(a)は、除外推奨が検出された場合の動作を示すフローチャートである。図4(b)は、ユーザが操作部115又はリモコン3を操作した場合の動作を示すフローチャートである。
図4を参照して、除外登録・解除画面の表示動作について説明する。図4(a)は、除外推奨が検出された場合の動作を示すフローチャートである。図4(b)は、ユーザが操作部115又はリモコン3を操作した場合の動作を示すフローチャートである。
(除外推奨が検出された場合)
初めに、図4(a)を参照して、除外推奨が検出された場合の動作について説明する。
カメラモジュール119は、カメラ119aにて立体映像処理装置100前方を撮像する(ステップS101)。顔検出部119bは、カメラ119aで撮像される映像に対して顔検出を行う(ステップS102)。顔を検出しなかった場合(ステップS102のNo)、立体映像処理装置100は、ステップS101の動作に戻る。
初めに、図4(a)を参照して、除外推奨が検出された場合の動作について説明する。
カメラモジュール119は、カメラ119aにて立体映像処理装置100前方を撮像する(ステップS101)。顔検出部119bは、カメラ119aで撮像される映像に対して顔検出を行う(ステップS102)。顔を検出しなかった場合(ステップS102のNo)、立体映像処理装置100は、ステップS101の動作に戻る。
顔検出部119bで顔が検出された場合(ステップS102のYes)、制御部114は、顔検出部119bで検出された顔が除外推奨の対象となるか否かを判定する(ステップS103)。制御部114は、一定時間(例えば、数時間)位置が変わらない顔や、予めに不揮発性メモリ114cに記憶されている動物の顔の特徴との比較結果から人間の顔でないと判定された顔を除外推奨として検出する。なお、制御部114は、タイマ114eを使用して時間を計測する。
除外推奨となる顔を検出した場合(ステップS103のYes)、制御部114は、図3に示す除外登録・解除画面のOSD信号を生成して出力するように、OSD信号生成部109に指示する。除外推奨となる顔を検出しなかった場合(ステップS103のNo)、立体映像処理装置100は、ステップS101の動作に戻る。
OSD信号生成部109は、制御部114からの指示に基づいて、図3のOSD信号を生成し、グラフィック処理部108を介して映像処理部112へ出力する。映像処理部112は、OSD信号生成部109からのOSD信号を映像表示部113で表示可能なフォーマットに変換して映像表示部113する。映像表示部113では、図3に示す画像が表示される(ステップS104)。
(ユーザ操作による場合)
次に、図4(b)を参照して、ユーザ操作により除外登録・解除の画面の表示が指示された場合の動作について説明する。制御部114は、ユーザが図3に示す除外登録・解除の画面の表示を指示したか否かを判定する(ステップS201)。ユーザが除外登録・解除の画面の表示を指示したか否かは、操作部115又は受光部116からの操作信号で判定することができる。
次に、図4(b)を参照して、ユーザ操作により除外登録・解除の画面の表示が指示された場合の動作について説明する。制御部114は、ユーザが図3に示す除外登録・解除の画面の表示を指示したか否かを判定する(ステップS201)。ユーザが除外登録・解除の画面の表示を指示したか否かは、操作部115又は受光部116からの操作信号で判定することができる。
除外登録・解除の画面の表示が指示された場合(ステップS201のYes)、制御部114は、図3に示す除外登録・解除画面のOSD信号を生成して出力するように、OSD信号生成部109に指示する。除外登録・解除の画面の表示が指示されない場合(ステップS201のNo)、立体映像処理装置100は、ステップS201の動作に戻る。
OSD信号生成部109は、制御部114からの指示に基づいて、図3のOSD信号を生成し、グラフィック処理部108を介して映像処理部112へ出力する。映像処理部112は、OSD信号生成部109からのOSD信号を映像表示部113で表示可能なフォーマットに変換して映像表示部113する。映像表示部113では、図3に示す画像が表示される(ステップS202)。
(視域の形成動作)
図5を参照して、視域の形成動作について説明する。
ユーザが、操作部115又はリモコン3を操作して視域の形成を指示した場合(ステップS301のYes)、又は、オートトラッキングモードの設定がON(ステップS302のYes)で、かつ、所定の時間間隔が経過している場合(ステップS303のYes)、制御部114は、カメラモジュール119で検出された顔に除外対象として登録されているものがあるか否かを検出する(ステップS304)。
図5を参照して、視域の形成動作について説明する。
ユーザが、操作部115又はリモコン3を操作して視域の形成を指示した場合(ステップS301のYes)、又は、オートトラッキングモードの設定がON(ステップS302のYes)で、かつ、所定の時間間隔が経過している場合(ステップS303のYes)、制御部114は、カメラモジュール119で検出された顔に除外対象として登録されているものがあるか否かを検出する(ステップS304)。
除外対象として登録されている顔がある場合(ステップS304のYes)、制御部114は、除外対象として登録されている顔を視域形成の対象から除外する(ステップS305)。また、除外対象として登録されている顔が無い場合(ステップS304のNo)、制御部114は、ステップS306の動作を実施する。
次に、制御部114は、カメラモジュール119で検出された顔から除外推奨に該当するものがあるか否かを検出する(ステップS306)。除外推奨に該当する顔がある場合(ステップS306のYes)、制御部114は、自動除外の設定がONとなっているか否かを確認する(ステップS307)。自動除外の設定がONである場合(ステップS307のYes)、制御部114は、除外推奨に該当する顔を視域形成の対象から除外する(ステップS308)。また、除外推奨に該当する顔がない場合(ステップS306のNo)、制御部114は、ステップS311の動作を実施する。
制御部114は、除外推奨となった顔を視域形成の対象から除外した旨を通知する(ステップS309)。この通知は、例えば、カメラモジュール119で撮像される映像を、映像表示部113に表示し、視域形成の対象から除外した顔を強調表示(例えば、枠で囲む)することで通知する。
また、自動除外の設定がOFFである場合(ステップS307のNo)、制御部114は、ユーザにより、除外推奨とされた顔に視域形成の対象から除外された顔かあるか否かを判定する(ステップS310)。除外された顔がある場合(ステップS310のYes)、制御部114は、ステップS308以降の動作(ステップS308の動作を含む)を実施する。また、除外された顔がない場合(ステップS310のNo)、制御部114は、ステップS311の動作を実施する。
制御部114は、映像表示部113が備えるレンチキュラーレンズを制御し、カメラモジュール119で検出された顔(視域形成の対象から除外された顔を除く)の位置に視域を形成する(ステップS311)。なお、この視域の形成は、視域形成の対象となる全ての顔が視域内に入るようにレンチキュラーレンズが制御されるが、視域形成の対象である顔が全て入りきらない場合は、制御部114は、視域内に入りきらない顔の数が最少となるようにレンチキュラーレンズを制御する。なお、制御部114は、視域内に入りきらない顔がある場合、その旨を映像表示部113に表示してユーザに通知する。
以上のように、実施形態に係る立体映像処理装置100では、除外推奨となる顔を検出した場合、又は、ユーザが操作部115又はリモコン3を操作して除外登録・解除画面の表示を指示した場合、図3に示す除外登録・解除画面が映像表示部113に表示される。ユーザは、図3の表示枠302内に表示された顔を確認しながら、検出された顔を視域形成の対象から除外するか否かを設定することができる。ユーザは、本来視域を形成すべきユーザに対して視域が形成されるように、誤って検出された顔、例えば、ポスターや壁の模様、動物の顔等を視域形成の対象から除外することができる。
また、一定時間(例えば、数時間)位置が変わらない顔や、予めに不揮発性メモリ114cに記憶されている動物の顔の特徴との比較結果から人間の顔でないと判定された顔が除外推奨として検出されるので、ユーザの利便性が向上する。さらに、自動除外をONに設定している場合は、除外推奨として検出された顔を自動的に視域形成の対象から除外するので、ユーザの利便性が向上する。
さらに、聴位置確認画面の表示枠302内には、カメラモジュール119で撮像される映像が表示され、検出したユーザの顔が枠により囲まれる。また、この枠は、顔のステイタス応じて、表示態様(例えば、枠の形状(四角、三角、円等)、色、線の種類(実線、破線等))が異なるため、ユーザは、各顔のステイタスを容易に知ることができる。結果、ユーザの利便性が向上する。
視聴位置確認画面の表示枠303内には、現在の設定情報が表示される。このため、ユーザは、現在の設定状況を容易に知ることができる。
さらに、視聴位置確認画面の表示枠304内には、立体映像を立体的に視聴可能な領域である視域304a(斜線部)と、カメラモジュール119の位置算出部119dで算出したユーザの位置情報(アイコンと、該アイコンを囲む枠)が俯瞰図として表示される。各顔の位置情報には、付与されたIDが上部に表示される。また、顔のステイタス応じて、顔のアイコンを囲む枠の表示態様(例えば、枠の形状(四角、三角、円等)、色、線の種類(実線、破線等))が異なるため、ユーザは、各顔のステイタスを容易に知ることができる。結果、ユーザの利便性が向上する。
さらに、表示枠302内に表示される映像と表示枠304内に表示される俯瞰図では、同一の顔には、同一のIDが表示されるため、ユーザ、すなわち視聴者が複数人いる場合でも、自身がどの位置にいるかを容易に理解することができる。
(その他の実施形態)
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。例えば、上記実施形態では、立体映像処理装置100としてデジタルテレビを例に説明したが、立体映像をユーザに提示する機器(例えば、PC(Personal computer)、携帯電話、タブレットPC、ゲーム機器等)や立体映像を提示するディスプレイに映像信号を出力する信号処理装置(例えば、STB(Set Top Box))であれば本発明を適用することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。例えば、上記実施形態では、立体映像処理装置100としてデジタルテレビを例に説明したが、立体映像をユーザに提示する機器(例えば、PC(Personal computer)、携帯電話、タブレットPC、ゲーム機器等)や立体映像を提示するディスプレイに映像信号を出力する信号処理装置(例えば、STB(Set Top Box))であれば本発明を適用することができる。
また、上記実施形態では、視域とユーザの位置との関係を俯瞰図としてユーザに提示しているが(図3参照)、視域とユーザの位置との位置関係が把握できれば俯瞰図でなくともよい。さらに、上記実施形態では、ユーザの顔を検出して、ユーザの位置情報を算出しているが、他の手法によりユーザを検出するようにしてもよい。この際は、例えば、ユーザの顔以外の部分(例えば、ユーザの肩や上半身等)を検出するようにしてもよい。
1,2…アンテナ、3…リモートコントローラ(リモコン)、100…立体映像処理装置、101〜103…チューナ、104…PSK復調器、105…OFDM復調器、106…アナログ復調器、107…信号処理部、108…グラフィック処理部、109…OSD信号生成部、110…音声処理部、111…スピーカ、112…映像処理部、113…映像表示部(ディスプレイ)、114…制御部(コントローラ)、115…操作部(操作受付モジュール)、116…受光部(操作受付モジュール)、117…端子、118…通信I/F、119…カメラモジュール(撮像モジュール、顔検出モジュール、位置算出モジュール)。
Claims (12)
- 立体映像を表示するディスプレイの前方を含む領域を撮像する撮像モジュールで撮像される映像から顔を検出する検出モジュールと、
前記検出モジュールで検出された顔から、特定の顔を選択する選択操作を受け付ける操作受付モジュールと、
前記操作受付モジュールで受け付けた選択操作で選択された顔を、前記立体映像を立体として認識できる領域である視域の形成対象から除外するコントローラと、
を備える電子機器。 - 前記コントローラは、
前記視域を形成する対象から前記検出モジュールで検出された顔を除外する信号を受信すると、前記除外の対象となった顔を、前記視域を形成する対象から除外する請求項1に記載の電子機器。 - 前記コントローラは、
前記検出モジュールで検出された顔が特定の顔に該当する場合、該特定の顔に該当する顔を、前記視域を形成する対象から除外する請求項1に記載の電子機器。 - 前記コントローラは、
前記除外を解除する信号を受信すると、前記視域を形成する対象から除外された顔を、前記視域を形成する対象とする請求項1乃至請求項3のいずれか1項に記載の電子機器。 - 前記特定の顔の特徴を記憶するメモリをさらに備え、
前記コントローラは、
前記検出モジュールで検出される顔の特徴と前記メモリに記憶された顔の特徴との比較に応じて、前記特定の顔に該当するか否かを判定する請求項2に記載の電子機器。 - 前記コントローラは、
前記検出モジュールで検出される顔の位置が所定時間変化しない顔を、前記特定の顔として前記視域を形成する対象から除外する請求項2に記載の電子機器。 - 前記コントローラは、
前記検出モジュールで検出される顔の位置が所定時間変化しない顔をユーザに通知する請求項1乃至請求項6のいずれか1項に記載の電子機器。 - 前記コントローラは、
前記顔を、前記視域を形成する対象から除外した場合、該除外した旨をユーザに通知する請求項1乃至請求項7のいずれか1項に記載の電子機器。 - 前記検出モジュールで検出した顔の位置を算出する位置算出モジュールをさらに備え、
前記コントローラは、
前記視域の対象から除外したか否かに応じて、前記視域を示す第1の画像上に前記算出した顔の位置を示す位置情報を異なる表示形態で前記ディスプレイに表示するよう制御する請求項1乃至請求項8のいずれか1項に記載の電子機器。 - 前記コントローラは、
前記視域の対象から除外したか否かに応じて、前記撮像モジュールで撮像される映像を異なる表示形態で表示するよう制御する請求項1乃至請求項9のいずれか1項に記載の電子機器。 - 立体映像を表示するディスプレイの前方を含む領域を撮像する撮像モジュールで撮像される映像から顔を検出する検出モジュールと、
前記検出モジュールで検出された顔を、前記立体映像を立体として認識できる領域である視域の形成対象から除外するコントローラとを備え、
前記コントローラは、
前記視域の対象から除外したか否かに応じて、前記撮像モジュールで撮像される映像を異なる表示形態で表示するよう制御する電子機器。 - 映像から顔を検出する検出モジュールと、前記顔の選択操作を受け付ける操作受付モジュールと、前記選択操作に応じて、前記顔を、立体映像を立体として認識できる領域である視域の形成対象から除外する除外するコントローラとを備えた電子機器の制御方法であって、
前記検出モジュールが、立体映像を表示するディスプレイの前方を含む領域を撮像した映像から顔を検出し、
前記操作受付モジュールが、前記検出された顔から、特定の顔を選択する選択操作を受け付け、
前記コントローラが、前記選択操作で選択された顔を、前記視域の形成対象から除外する電子機器の制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011216839A JP5127972B1 (ja) | 2011-09-30 | 2011-09-30 | 電子機器、電子機器の制御方法 |
US13/442,556 US20130083010A1 (en) | 2011-09-30 | 2012-04-09 | Three-dimensional image processing apparatus and three-dimensional image processing method |
CN2012101172754A CN103037230A (zh) | 2011-09-30 | 2012-04-19 | 三维图像处理装置和三维图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011216839A JP5127972B1 (ja) | 2011-09-30 | 2011-09-30 | 電子機器、電子機器の制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012230762A Division JP2013081177A (ja) | 2012-10-18 | 2012-10-18 | 電子機器、電子機器の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5127972B1 true JP5127972B1 (ja) | 2013-01-23 |
JP2013077993A JP2013077993A (ja) | 2013-04-25 |
Family
ID=47692949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011216839A Expired - Fee Related JP5127972B1 (ja) | 2011-09-30 | 2011-09-30 | 電子機器、電子機器の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130083010A1 (ja) |
JP (1) | JP5127972B1 (ja) |
CN (1) | CN103037230A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5925068B2 (ja) * | 2012-06-22 | 2016-05-25 | キヤノン株式会社 | 映像処理装置、映像処理方法、およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11164329A (ja) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | 立体映像表示装置 |
GB2333590A (en) * | 1998-01-23 | 1999-07-28 | Sharp Kk | Detecting a face-like region |
EP1708010A1 (en) * | 2005-03-28 | 2006-10-04 | Kabushiki Kaisha Toshiba | Image display apparatus |
JP4513645B2 (ja) * | 2005-05-13 | 2010-07-28 | 日本ビクター株式会社 | 複数視点映像表示方法及び複数視点映像表示装置並びに複数視点映像表示プログラム |
JP4830650B2 (ja) * | 2005-07-05 | 2011-12-07 | オムロン株式会社 | 追跡装置 |
JP2007081562A (ja) * | 2005-09-12 | 2007-03-29 | Toshiba Corp | 立体画像表示装置、立体画像表示プログラムおよび立体画像表示方法 |
JP4521342B2 (ja) * | 2005-09-29 | 2010-08-11 | 株式会社東芝 | 三次元画像表示装置、三次元画像表示方法および三次元画像表示プログラム |
JP4697279B2 (ja) * | 2008-09-12 | 2011-06-08 | ソニー株式会社 | 画像表示装置および検出方法 |
US20100110069A1 (en) * | 2008-10-31 | 2010-05-06 | Sharp Laboratories Of America, Inc. | System for rendering virtual see-through scenes |
JP5356952B2 (ja) * | 2009-08-31 | 2013-12-04 | レムセン イノベーション、リミティッド ライアビリティー カンパニー | 表示装置 |
KR101629479B1 (ko) * | 2009-11-04 | 2016-06-10 | 삼성전자주식회사 | 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법 |
KR101680771B1 (ko) * | 2010-02-04 | 2016-11-30 | 삼성전자주식회사 | 입체 영상 디스플레이 장치 및 방법 |
-
2011
- 2011-09-30 JP JP2011216839A patent/JP5127972B1/ja not_active Expired - Fee Related
-
2012
- 2012-04-09 US US13/442,556 patent/US20130083010A1/en not_active Abandoned
- 2012-04-19 CN CN2012101172754A patent/CN103037230A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20130083010A1 (en) | 2013-04-04 |
JP2013077993A (ja) | 2013-04-25 |
CN103037230A (zh) | 2013-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5197816B2 (ja) | 電子機器、電子機器の制御方法 | |
EP3097689B1 (en) | Multi-view display control for channel selection | |
US9414041B2 (en) | Method for changing play mode, method for changing display mode, and display apparatus and 3D image providing system using the same | |
JP5833667B2 (ja) | マルチビューシステムにおいてモノビジョンを提供する方法および装置 | |
CN103096103A (zh) | 视频处理装置和视频处理方法 | |
US20120007799A1 (en) | Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus | |
US20120002010A1 (en) | Image processing apparatus, image processing program, and image processing method | |
US20180338093A1 (en) | Eye-tracking-based image transmission method, device and system | |
CN103517056A (zh) | 检测器、检测方法和视频显示装置 | |
JP2013051618A (ja) | 映像処理装置および映像処理方法 | |
JP5156116B1 (ja) | 映像処理装置および映像処理方法 | |
CN102970567B (zh) | 视频处理装置以及视频处理方法 | |
JP5095851B1 (ja) | 映像処理装置および映像処理方法 | |
US20130328864A1 (en) | Image display apparatus and method for operating the same | |
JP5127972B1 (ja) | 電子機器、電子機器の制御方法 | |
WO2012120880A1 (ja) | 立体画像出力装置及び立体画像出力方法 | |
JP5156117B1 (ja) | 映像処理装置および映像処理方法 | |
JP5025786B2 (ja) | 画像処理装置、及び画像処理方法 | |
US20130050442A1 (en) | Video processing apparatus, video processing method and remote controller | |
JP2013081177A (ja) | 電子機器、電子機器の制御方法 | |
JP5568116B2 (ja) | 映像処理装置および映像処理方法 | |
JP5143262B1 (ja) | 立体映像処理装置、立体映像処理方法 | |
JP5603911B2 (ja) | 映像処理装置、映像処理方法および遠隔制御装置 | |
JP2013055681A (ja) | 映像処理装置および映像処理方法 | |
JP2013059094A (ja) | 立体映像処理装置、立体映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121030 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |