JP2017028375A - 映像処理装置、及びプログラム - Google Patents

映像処理装置、及びプログラム Download PDF

Info

Publication number
JP2017028375A
JP2017028375A JP2015142504A JP2015142504A JP2017028375A JP 2017028375 A JP2017028375 A JP 2017028375A JP 2015142504 A JP2015142504 A JP 2015142504A JP 2015142504 A JP2015142504 A JP 2015142504A JP 2017028375 A JP2017028375 A JP 2017028375A
Authority
JP
Japan
Prior art keywords
video
frame
range
video frame
dptz
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015142504A
Other languages
English (en)
Inventor
耕司 桑田
Koji Kuwata
耕司 桑田
智幸 後藤
Tomoyuki Goto
智幸 後藤
内山 裕章
Hiroaki Uchiyama
裕章 内山
清人 五十嵐
Kiyoto Igarashi
清人 五十嵐
和紀 北澤
Kazuki Kitazawa
和紀 北澤
高橋 仁人
Masahito Takahashi
仁人 高橋
宣正 銀川
Nobumasa Gingawa
宣正 銀川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015142504A priority Critical patent/JP2017028375A/ja
Priority to US15/196,221 priority patent/US9565395B1/en
Publication of JP2017028375A publication Critical patent/JP2017028375A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】出力に用いる映像の範囲が変更される時の映像の符号化処理の効率化を図りつつ、出力の映像の伝送効率の低下を抑える。
【解決手段】カメラで撮影された映像の使用する範囲から、映像のフレームを生成する生成部であって、前記使用する範囲は前記映像の空間的範囲を定める前記生成部と、前記映像のフレームを、フレーム間予測を用いて符号化される第1の映像のフレーム、又はフレーム内予測を用いて符号化される第2の映像のフレームのいずれかの映像のフレームの種類に応じて符号化する符号化部と、前記使用する範囲の変更に用いるトリガを検知し、前記生成部に通知する検知部と、を有し、前記符号化部は、前記映像のフレームに設定される前記映像のフレームの種類を予め前記生成部に通知し、前記トリガの受信に応じて、前記生成部は、通知された前記映像のフレームの種類に基づいて、前記使用する範囲を変更する。
【選択図】図3

Description

本発明は、映像処理装置、及びプログラムに関する。
テレビ会議システム等で用いられるカメラに、広角レンズを用いて広い範囲の映像を撮影し、撮影された映像から出力に用いる映像を生成する方法が普及しつつある。
かかる方法によれば、出力の対象物が変更されたことを検知したことに応じて、出力の対象物が含まれるように出力に用いる映像の範囲を変更する。
出力の対象物は、テレビ会議の状況等により、現在の出力に用いる映像の範囲と関わりなく変更される。テレビ会議システム等では、フレーム間予測により符号化処理を行っているため、出力に用いる映像の範囲が変更される時には符号化処理が非効率なものとなる。
上述した問題を解決するために、出力の対象物が変更される時には、フレーム間予測による符号化処理を行うのをやめ、フレーム内予測により符号化処理を行う方式が提案されている(例えば、特許文献1)。しかしながら、フレーム内予測により符号化処理を行うと、出力の映像の伝送効率が悪化する。
本発明は上記の点を鑑みてなされたものであり、出力に用いる映像の範囲が変更される時の映像の符号化処理の効率化を図りつつ、出力の映像の伝送効率の低下を抑えることを目的とする。
本実施形態に係る映像処理装置は、カメラで撮影された映像の使用する範囲から、映像のフレームを生成する生成部であって、前記使用する範囲は前記映像の空間的範囲を定める前記生成部と、前記映像のフレームを、フレーム間予測を用いて符号化される第1の映像のフレーム、又はフレーム内予測を用いて符号化される第2の映像のフレームのいずれかの映像のフレームの種類に応じて符号化する符号化部と、前記使用する範囲の変更に用いるトリガを検知し、前記生成部に通知する検知部と、を有し、前記符号化部は、前記映像のフレームに設定される前記映像のフレームの種類を予め前記生成部に通知し、前記トリガの受信に応じて、前記生成部は、通知された前記映像のフレームの種類に基づいて、前記使用する範囲を変更する。
本実施形態によれば、出力に用いる映像の範囲が変更される時の映像の符号化処理の効率化を図りつつ、出力の映像の伝送効率の低下を抑える映像処理装置、及びプログラムを提供することが可能となる。
一実施形態に係る映像処理システムの一例を示す図である。 一実施形態に係る映像の使用する範囲の設定に係る各機能の連携動作の一例を示す図である。 一実施形態に係る映像の使用する範囲の変更タイミングの一例を示す図である。 一実施形態に係る画像処理部の処理内容の一例を示す図である。 一実施形態に係る映像処理装置のハードウェア構成の一例を示す図である。 一実施形態に係る動作手順の一例を示す図である。 一実施形態に係る動作手順の一例を示す図である。
[第1実施形態]
<システム構成、及び機能構成>
(1)システム全体構成
図1を用いて、本実施形態に係る映像処理システム100について説明する。
図1では、2台の映像処理装置1が、ネットワーク40とサーバ30とを介して接続されている構成を示している。図1では、2つの映像処理装置1が接続されている様子を示しているが、3台以上の映像処理装置1が、ネットワーク40とサーバ30とを介して接続されてもよい。
映像処理装置1Aを送信側、映像処理装置1Bを受信側とした場合、映像処理装置1Aで撮影された映像、及び受信した音声が、ネットワーク40とサーバ30とを介して、映像処理装置1Bに送信される。
(2)映像処理装置の機能構成 (全体)
図1を用いて、映像処理装置1の機能構成について説明する。
映像処理装置1は、カメラ10、ディスプレイ12、スピーカ13、マイクアレイ26、DPTZ(Digital Pan Tilt Zoom)制御部50、端末装置14、及び全体制御部(システム制御)28を有する。
端末装置14は、画像処理部15、エンコーダ16、ネットワーク処理部17、デコーダ18、ネットワーク状態検知部20、相手局機能判別部22、音声判別部24、及び検知部60を有する。
カメラ10は映像を撮影し、撮影した映像をDPTZ制御部50に送信する。DPTZ制御部50は、カメラ10で撮影された映像の使用する範囲から、映像のフレームを生成し、端末装置14に送信する。
マイクアレイ26は、音の入力を受け付け、入力された音のデータを端末装置14に送信する。
端末装置14は、受信した映像のフレームと、音のデータとを符号化し、通信相手の映像処理装置1に送信する。
端末装置14は、通信相手の映像処理装置1から符号化された映像のフレームと、符号化された音のデータとを受信し、復号化の処理を行う。復号化処理された映像のフレームと、音のデータとは、それぞれディスプレイ12と、スピーカ13とに出力される。
ディスプレイ12は、端末装置14から受信した映像のフレームを出力する。スピーカ13は、端末装置14から受信した音のデータを出力する。
以下、DPTZ制御部50と、エンコーダ16との関係を中心に映像処理装置1の機能構成について詳細に説明する。なお、DPTZ制御部50は生成部の一例である。
DPTZ制御部50は、カメラ10で撮影された映像の使用する範囲から、映像のフレームを生成する。ここで、映像の使用する範囲は映像の空間的範囲を定めるものである。
エンコーダ16は、DPTZ制御部50から、映像のフレームを、画像処理部15を介して受信する。エンコーダ16は、かかる映像のフレームを、フレーム間予測を用いて符号化される第1の映像のフレーム、又はフレーム内予測を用いて符号化される第2の映像のフレームのいずれかの映像のフレームの種類に符号化を行う。
ここで第1の映像のフレームは、前方向予測を用いて符号化されるフレームであるPフレーム(Predicted Frame)でもよいし、前方向予測、及び後方向予測を用いて符号化されるフレームであるBフレーム(Bi−directional Predicted Frame)でもよい。なお、Bフレームは、符号化の遅延が大きいため、リアルタイム性の要求が高いテレビ会議等で利用されることは少ない。
第2の映像のフレームは、フレーム間予測を用いずに符号化されるフレームであるIフレーム(Intra−coded Frame)である。
検知部60は、映像の使用する範囲の変更に用いるトリガを検知し、DPTZ制御部50に通知する。
トリガとは、音の発生、及び人間の出現等である。例えば、テレビ会議中に発言者が変わった場合、検知部60は発言者の変更を検知する。発言者の変更を検知した場合、映像の使用する範囲は、発言者を含むように決定される。また、映像処理装置1が監視用に用いられている場合、検知部60は監視範囲に人間の出現を検知する。人間の出現を検知した場合、映像の使用する範囲は、人間を含むように決定される。
エンコーダ16は、映像のフレームに設定される映像のフレームの種類を予めDPTZ制御部50に通知する。
トリガを受信することに応じて、DPTZ制御部50は、通知された映像のフレームの種類に基づいて、映像の使用する範囲を変更する。
DPTZ制御部50は、第2の映像のフレームで、映像の使用する範囲を変更することが望ましい。
つまり、DPTZ制御部50は、エンコーダ16から予め通知される映像のフレームの種類を確認し、エンコーダ16に入力される第2の映像のフレームに対して、映像の使用する範囲を変更することが望ましい。
第2の映像のフレームで、映像の使用する範囲が変更されるため、符号化の効率が悪化しない。また、第2の映像のフレームの数は増加しない。このため、第2の映像のフレームが増加することによる伝送効率の低下を回避することができる。
DPTZ制御部50は、トリガを受信することに応じて、映像の使用する範囲を変更してもよい。この場合、DPTZ制御部50は、エンコーダ16に映像の使用する範囲が変更されたことを示す変更の通知を送信する。
エンコーダ16は、かかる変更の通知の受信に応じて、映像の使用する範囲が変更された最初の映像のフレームに対して、第2の映像のフレームを用いることが望ましい。
また、DPTZ制御部50は、かかる最初の映像のフレームに後続するN個の映像のフレームを、同一の映像のフレームとしてもよい。なお、Nは1以上の任意の自然数である。
エンコーダ16は、後続のN個の同一の映像のフレームに対する符号化をフレーム間予測により実行するため、N個の映像の符号化の効率は悪化しない。第2の映像のフレームが設定される映像のフレームの数が1つ増加するが、後続するN個の同一の映像のフレームが生成されるため伝送効率の低下を抑えることができる。
なお、映像処理装置1から、通信相手の映像処理装置1に、N個の同一の映像のフレームが連続する旨を通知すれば、N個の同一の映像のフレーム自体が、通信相手の映像処理装置1に送信される必要はない。
全体制御部28は、映像処理装置1のユーザの指示に従って各機能部の設定、及びステータス管理等を行う。
マイクアレイ26は、音を収集し、収集した音を検知部60と、音声判別部24に伝える。なお、マイクアレイ26は、複数のマイク素子により実現されてもよい。
ディスプレイ12は、通信相手の映像処理装置1から送信された映像のフレームの出力を行う。
スピーカ13は、通信相手の映像処理装置1から送信された音のデータの出力を行う。
画像処理部15は、DPTZ制御部50から受信した映像のフレームに対して、画像処理を行う。具体的な画像処理の内容については後述する。
音声判別部24は、マイクアレイ26から受信した音のデータをエンコーダ16に転送する。音声判別部24は、かかる音のデータのうち音声のデータを抽出し、エンコーダ16に送信してもよい。エンコーダ16は、受信した音のデータの符号化処理を行う。
ネットワーク状態検知部20は、ネットワーク40の状態を検知し、エンコーダ16に通知する。ネットワーク40の状態とは、例えば混雑状況等である。
相手局機能判別部22は、通信相手の映像処理装置1の復号化の機能等に関する情報を取得し、エンコーダ16に通知する。
エンコーダ16は、ネットワーク状態検知部20、相手局機能判別部22、及び音声判別部24から取得した情報を基に送信モードを決定し、符号化した映像のフレーム、及び音のデータをネットワーク処理部17に送信する。
ネットワーク処理部17は、エンコーダ16から受信した符号化された映像のフレーム、及び音のデータを通信相手の映像処理装置1に送信する。
デコーダ18は、通信相手の映像処理装置1から受信した、映像のフレームと、音のデータとを復号し、復号された映像のフレームをディスプレイ12に送信し、復号された音のデータをスピーカ13に送信する。
なお、カメラ10とDPTZ制御部50とが統合された機能は、カメラモジュールと呼ばれてもよい。エンコーダ16は符号化部の一例である。
(3)映像処理装置の機能構成 (映像の使用する範囲の設定)
図2を用いて、映像の使用する範囲の設定に係る各機能の連携動作について詳細に説明する。
カメラ10は、広角レンズ10Aと、撮像部10Bと、DSP(Digital Signal Processor)10Cとを有する。
まず、カメラ10の内部構成について説明する。撮像部10Bは、広角レンズ10Aを用いて、通常のレンズよりも広い範囲の映像を撮像し、撮像したデータをDSP10Cに送信する。DSP10Cは撮像したデータに対してディジタル信号処理を行い、ディジタル信号処理の結果、生成された映像をDPTZ制御部50に送信する。
次に、DPTZ制御部50の構成について説明する。DPTZ制御部50は、シーンチェンジ検知部51と、使用範囲設定部52とを有する。
使用範囲設定部52は、カメラ10から受け取った映像の使用する範囲のみを選択し、画像処理部15に送信する。映像の使用する範囲は、フレーム毎に、動的に設定可能である。映像の使用する範囲は、全体制御部28からの指示に基づいて設定される。
映像の使用する範囲の変更は、ユーザからカメラ10が動的に上下、左右に移動して撮影対象を変更しているように体感される。かかる映像の使用する範囲の変更は、「デジタル・パンチチルト」と呼ばれてもよい。
映像の使用する範囲の大きさについては、ズーム倍率の設定、及び通信相手の映像処理装置1に送信する映像の解像度等に基づいて決定される。
シーンチェンジ検知部51は、カメラ10から受信した映像を分析し、カメラ10による撮影対象の変更を検知する。シーンチェンジ検知部51は、例えば、カメラ10から受信した各映像のフレームについてヒストグラムを作成し、かかるヒストグラムの変化の度合いからシーンチェンジのトリガを検知し、使用範囲設定部52に通知してもよい。
なお、シーンチェンジ検知部51と、検知部60とを合せて検知部を構成してもよい。
全体制御部28は、映像の使用する範囲の座標情報を、使用範囲設定部52に通知する。なお、映像の使用する範囲の変更の操作は、映像処理装置1のユーザの操作に加えて、通信相手の映像処理装置1からの入力により実行されてもよい。
全体制御部28は、検知部60から、音声の検知に係る報告を受信した時に、現在の映像の使用する範囲に、音声の発生元の位置が含まれるか否かを確認する。
現在の映像の使用する範囲に、音声の発生元の位置が含まれない場合、DPTZ制御部50に、映像の使用する範囲の変更を指示する。
検知部60は、マイクアレイ26から入力される音声の情報から、音声の発生元の位置と方向とを検知する。検知部60は、検知された位置と方向とを全体制御部28に通知する。
なお、適用する音声の発生元の検知の方法に、特に限定はない。一般的に用いられている検知の方法を適用することが可能である。検知部60は、適用された検知の方法の処理を行うDSP等により実現される。音声の発生元の検知については、例えば、マイクロフォンアレイ(マイクアレイ26)装置の動作の概念を示す。まず、マイクロフォンを8個1列に並べたマイクロフォンアレイを例にして説明する。マイクロフォンアレイ装置では、各マイクロフォンから出力される音響信号に対して遅延器(遅延器は、各マイクロフォンに対して複数個設けられる)により遅延を付加した後に、この遅延を付加した音響信号を加算器で加算することにより、指向性を制御することが可能である。Spot1は、音源からの音響信号を集音するために設定される空間上の位置である主焦点、Spot2(主焦点の左側),Spot3(主焦点の右側)は音源の位置を探知するために設定される空間上の位置である探知用焦点である。
各マイクロフォンから出力される音響信号は、それぞれアンプで増幅され、A番目の各遅延器により遅延が付加される。そして、それらの遅延器により遅延が付加された音響信号は、加算器で加算され、主信号となる。
A番目の遅延器に設定される遅延量は、主焦点Spot1から各マイクロフォンに到達して集音される音響信号が加算器Xによる加算時点で同相となるように設定される。これにより、主焦点Spot1から各マイクロフォンに到達する音響信号が強調される。
一方、主焦点Spot1とは異なる方向から到来する音響信号は、主焦点Spot1から到来する音響信号とは異なる時間差で集音されるので、各マイクロフォンで集音された後に加算されても同相化されず、主焦点Spot1から到来する音響信号に比べて強調効果が小さい。以上の結果、主焦点Spot1の方向に対して感度が高い指向性が形成される。
次に、B番目の各遅延器により遅延が付加された音響信号は、加算器Yで加算され、探知信号Out2となる。B番目の各遅延器に設定される遅延量は、探知用焦点Spot2から各マイクロフォンに到達して集音される音響信号が先の他の加算器による加算時点で同相となるように設定される。例えば、探知用焦点Spot2の位置は、マイクロフォンアレイから主焦点Spot1に向かって右側に設定される。
一方、C番目の遅延器により遅延が付加された音響信号は、加算器Zで加算され、探知信号Out3となる。C番目の遅延器に設定される遅延量は、探知用焦点Spot3から各マイクロフォンに到達して集音される音響信号が加算器Zによる加算時点で同相となるように設定される。探知用焦点Spot3の位置は、マイクロフォンアレイから主焦点Spot1に向かって左側に設定される。また、探知用焦点Spot2とSpot3は、マイクロフォンアレイの中点Cと主焦点Spot1とを結ぶ線分L1に対して線対称となるように設定される。すなわち、中点Cと探知用焦点Spot2とを結ぶ線分L2が線分L1となす角、及び中点Cと探知用焦点Spot3とを結ぶ線分L3が線分L1となす角は、共にθである。
例えば、音源が主焦点Spot1の方向にあるときに主信号は最も大きくなり、音源が左右どちらかに移動すると、主信号Out1のレベルは減少する。これに対して、探知信号Out2,Out3は、音源が主焦点Spot1の方向にあるときは同レベルとなり、音源が負の方向(Spot2の方向)に移動すると、探知信号Out3が減少して探知信号Out2が増大し、音源が正の方向(Spot3の方向)に移動すると、探知信号Out2が減少して探知信号Out3が増大する。したがって、探知信号Out2とOut3のレベル差を検出することにより、音源の方向、つまり音声の発生元を検出することができる。
このように、探知信号Out2のレベルと探知信号Out3のレベルとの差に基づいて音源の方向を検出して、この音源の方向に集音用の第1の指向性を持たせるようにしたので、音源が移動したとしても、音源から集音することができる。また、音源の方向に応じて第1の指向性(主焦点Spot1)の方向を変更すると同時に、音源探知用の第2の指向性(探知用焦点Spot2)及び第3の指向性(探知用焦点Spot3)の方向も変更するため、音源の方向、つまり音声の発生元に応じた音源位置検出感度の最適化が可能である。
エンコーダ16は、各映像のフレームに対して、いずれの映像のフレームの種類を適用するかDPTZ制御部50に、通知する。また、DPTZ制御部50から映像の使用する範囲の変更の通知を受けた場合、エンコーダ16は、通知を受けた後の最初の映像のフレームを、第2の映像のフレームとしてもよい。
(3)映像の使用する範囲の変更のタイミング
図3を用いて映像の使用する範囲の変更のタイミングについて説明する。
図3の(1)は、エンコーダ16がDPTZ制御部50から受信する映像のフレームに対して第1の映像のフレーム、又は第2の映像のフレームのいずれかの符号化を適用して、通信相手の映像処理装置1に送信する様子を示している。F1は第1の映像のフレームの符号化が適用された映像のフレームを表し、F2は第2の映像のフレームの符号化が適用された映像のフレームを表す。また、「A」は、カメラ10から受信した映像のフレームの映像の使用する範囲を表している。
図3の(1)は、第1の映像のフレームと第2の映像のフレームが所定の順番で繰り返し設定される様子を表している。
図3の(2)は、映像の使用する範囲が「A」から、「B」に変更された場合のフレームの種別の設定の様子を表している。
この場合、「#n」のタイミングで、検知部60が、現在の映像の使用する範囲「A」とは異なる、「B」からの音声を検知し、DPTZ制御部50に報告する。かかる報告は、全体制御部28を介して送信される。或いは、シーンチェンジ検知部51が、映像の使用する範囲「B」に人間が出現したことを検知し、DPTZ制御部50に報告する。DPTZ制御部50は、映像の使用する範囲を「A」から「B」に変更することを決定する。
DPTZ制御部50は、第2の映像のフレームに設定される映像のフレームまで待ち、映像の使用する範囲を「A」から「B」に変更する。
具体的には、DPTZ制御部50は、映像の使用する範囲を「A」から「B」に変更した「第2の映像のフレーム」を生成する。そして、DPTZ制御部50は、生成された第2の映像のフレームを、画像処理部15を介して、エンコーダ16に送信する。
図3の(2)の例では、#n+3のタイミングで通信相手の映像処理装置1に「第2の映像のフレーム(F2)」が送信されるため、DPTZ制御部50は、かかる映像のフレームの映像の使用する範囲を「B」とする。なお、監視の用途等で、映像の使用する範囲を変更する時に、ライトを点灯する場合には、映像の使用する範囲が変更されたタイミング、でライトを点灯してもよい。
上述した動作手順によれば、エンコーダ16は映像のフレームをフレーム内予測により符号化するフレームで映像の使用する範囲を変更するため、符号化の効率が悪化しない。すなわち、予め第2の映像のフレームに設定することが通知されている映像のフレームで、映像の使用する範囲が変更されるため、第2の映像のフレームの数は増加しない。このため、第2の映像のフレームが増加することによる伝送効率の悪化を回避することができる。
図3の(3)も、図3の(2)と同様に、映像の使用する範囲が、「A」から、「B」に変更された場合の映像のフレーム種別の設定の様子を示している。
図3の(3)では、「DPTZ制御部50で制御できない映像の使用する範囲の変更」が発生した場合のフレームの種別の設定の様子を示している。
「DPTZ制御部50で制御できない映像の使用する範囲の変更」とは、例えばカメラ10が物理的に移動された場合、又は人間を検知したタイミングでライトが点灯される場合等である。
図3の(3)では、「#3」の映像フレームで映像の使用する範囲が「A」から「B」に変更されている。この場合、DPTZ制御部50は、「#3」の映像のフレームと、同一の映像のフレームを所定の期間、生成する。図3の(3)の例では、「#3」から「#n」までの映像のフレームは、同一の映像のフレームである。このように、DPTZ制御部50で同一の映像のフレームが生成されるため、通信相手の映像処理装置1に出力される映像は所定の期間、静止画像となる。
なお、DPTZ制御部50、又は全体制御部28は、「#3」の映像のフレームを第2の映像のフレームとして扱うことを、エンコーダ16に指示することが望ましい。
上述した動作手順によれば、「DPTZ制御部50で制御できない映像の使用する範囲の変更」が発生した場合でも、DPTZ制御部50は、所定の期間同一の映像のフレームを送信する。エンコーダ16は、同一の映像フレームに対する符号化を実行するため、符号化の効率の低下を抑制することができる。同一の映像フレームの先頭のフレーム(すなわち「#3」のフレーム)には、第2の映像のフレームの符号化が実行されるが、DPTZ制御部50で「#4」のフレーム以降の所定の期間、同一の映像のフレームが生成されるため、伝送効率の低下は抑えることができる。
(4)出力映像の生成
図4を用いてカメラ10で撮影した映像から、エンコーダ16に入力される映像のフレームを生成する手順について説明する。
本実施形態では、カメラ10が映像を生成し、DPTZ制御部50は、映像の使用する範囲から、映像のフレームを生成する。かかる映像のフレームが符号化される。
カメラ10は、広角レンズ10Aを用いて広い範囲の映像を撮影しているため、映像にひずみが生じる場合がある。かかるひずみを補正するために、画像処理部15は、DPTZ制御部50で生成された映像のフレームに対して、ひずみの補正処理を行う。かかる補正処理はAFFINE変換と呼ばれる。
画像処理部15は、ひずみの補正処理を行うために用いるAFFINE変換マップを保持している。かかるAFFINE変換マップは、AFFINE変換を実行する時に広角レンズで撮影された映像の各画素に対して用いる処理内容を記憶している。かかる処理内容を各画素に対して用いることにより、ひずみは補正される。
映像のフレームのサイズ、及び映像中の話者の位置等から、映像の使用する範囲は決定される。
図4(a)に示すように、DPTZ制御部50は、撮影された映像と、全体制御部28により指定された映像の使用する範囲とから映像のフレームを生成する。具体的には、DPTZ制御部50は、撮影された映像のうち、指定された映像の使用する範囲に含まれる映像を抜き取り映像のフレームを生成する。DPTZ制御部50は、生成した映像のフレームを画像処理部15に送信する。なお、DPTZ制御部50は、画像処理部15から映像の使用する範囲の座標情報を取得してもよい。かかる座標情報は、画像処理部15により、映像の使用する範囲、及び映像フレームの出力サイズ等から決定される。
図4(b)に示すように、DPTZ制御部50により生成された映像のフレームは、ひずんでいる。ひずみを補正するために、画像処理部15は、AFFINE変換マップを用いて、映像のフレームに対してAFFINE変換処理を実行する(図4の(b)、(c)、及び(d))。
AFFINE変換処理の結果、ひずみが補正された映像のフレームが生成される(図4(e))。ひずみが補正された映像のフレームは、エンコーダ16に送信され符号化の処理が実行される。
<ハードウェア構成>
映像処理装置1は、例えば図5に示すようなハードウェア構成により実現される。
映像処理装置1は入出力装置101、DPTZ制御装置102、外部I/F103、RAM104、ROM105、CPU106、通信I/F107、DMAC(Direct Memory Access Controler)108、HDD109、カメラモジュール110、送信データ処理装置111、音声処理装置112、マイク113、受信データ処理装置114、及び調停装置115を備え、それぞれがバスBで相互に接続されている。
入出力装置101は、LED等を利用して、通信相手の映像処理装置1から送信された映像のフレームを表示する。入出力装置101は、スピーカを利用して、通信相手の映像処理装置1から送信された音声を出力する。入出力装置101は、外部のモニタ、及びスピーカと接続するためのインタフェースを有し、かかるインタフェースを用いて、外部のモニタ、及びスピーカに映像のデータと、音のデータを出力することができる。また、入出力装置101は、映像処理装置1の状態などを表示する。
入出力装置101は、映像処理装置1のユーザからの映像処理装置1に対する各種設定、及び操作等を受け付ける。
通信I/F107は、通信相手の映像処理装置1、及びサーバ30等と、有線、又は無線のネットワーク40を介して通信を行う。通信I/F107は、ネットワーク40の状態を検知し、ネットワーク40が使用可能な状態であるか確認する。また、通信I/F107は、通信相手の映像処理装置1の情報を取得する。
また、HDD109はプログラムやデータを格納している不揮発性の記憶装置の一例である。格納されるプログラムやデータには映像処理装置1全体を制御する基本ソフトウェアであるOS、OS上において各種機能を提供するアプリケーションソフトウェア(以下、アプリケーションと呼ぶ)などがある。なお、映像処理装置1はHDD109に替え、記憶媒体としてフラッシュメモリを用いるドライブ装置(例えばソリッドステートドライブ:SSD)を利用するものであってもよい。
外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。これにより、映像処理装置1は外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aにはフレキシブルディスク、CD、DVD、SDメモリカード、USBメモリなどがある。
ROM105は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM105には映像処理装置1の起動時に実行されるBIOS、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。
カメラモジュール110は、広角レンズ10Aを有し、CPU106からの指示に基づいて撮影を行う。DPTZ制御装置102は、カメラモジュール110で撮影された映像の使用する範囲を抜き取る処理を行い、かかる処理が完了した後に、映像の使用する範囲をRAM104に送信する。DPTZ制御装置102は、検知装置112bから音声を検知した旨の通知を受け、映像の使用する範囲を変更する処理を行う。また、DPTZ制御装置102は、カメラモジュール110で撮影した映像の変化から、映像の使用する範囲を変更する処理を行う。
マイク113は、音のデータを収集し、収集した音のデータを音声処理装置112に送信する。
音声処理装置112は、音声判別装置112aと、検知装置112bとを有する。音声判別装置112aは、マイク113により収集された音のデータに含まれる人間の声のデータを判別し、検知装置112bに通知する。検知装置112bは、人間の声の発生元の場所が変更されているか判断し、変更されている場合は、DPTZ制御装置102に通知する。
送信データ処理装置111は、エンコーダ111aと、画像処理装置111bとを有する。画像処理装置111bは、DPTZ制御装置102で生成された映像の使用する範囲に対してAFFINE変換等の画像処理を行い、エンコーダ111aは画像処理された映像の使用する範囲と、音声のデータに対してエンコードの処理を行う。送信データ処理装置111は、エンコードされた映像のデータと音声のデータとを通信I/F107に送信する。
受信データ処理装置114は、デコーダ114aを有する。デコーダ114aは、通信I/F107が通信相手の映像処理装置1から受信したデータに対して、デコードの処理を行う。受信データ処理装置114は、デコードされた映像のデータと音声のデータとを入出力装置101に送信する。
DMAC108は、映像処理装置1を構成する各装置間で、CPU106を介さずに直接データを送受信するための機能を提供する。例えば、DPTZ制御装置102で処理された映像の使用する範囲は、RAM104に格納され、その後、送信データ処理装置111によりRAM104から取得される。送信データ処理装置111は、エンコードの処理と、画像処理を、RAM104を用いて行う。通信I/F107は、送信データ処理装置111で処理された音声のデータと映像のデータとを、エンコーダ111aから取得し、通信相手の映像処理装置1に送信する。また、通信I/F107で受信した通信相手の映像処理装置1からの受信データは、受信データ処理装置114に取得される。受信データ処理装置114はデコードの処理を、RAM104を用いて行う。デコード処理された映像のデータと音声のデータとは、デコーダ114aから入出力装置101により取得される。入出力装置101は、映像のデータと音声のデータとを出力する。
なお、DMAC108は、映像処理装置1を構成する各装置に個別に設けられてもよい。
調停装置115は、CPU106、及びDMAC108等の映像処理装置1内でマスターの役割を有する装置間の動作を調整する。例えば、調停装置115は、RAM104のアクセス権、バスBの使用権を映像処理装置1全体のパフォーマンスを考慮して調整する。 RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)の一例である。RAM104は、カメラモジュール110で撮影された後、DPTZ制御装置102で抜き取り処理された映像の使用する範囲を格納する。RAM104は、CPU106、送信データ処理装置111(エンコーダ111a、画像処理装置111b)、及び受信データ処理装置114(デコーダ114a)にワークメモリを提供する。RAM104は、音声処理装置112にワークメモリを提供してもよい。
CPU106は、ROM105やHDD109などの記憶装置からプログラムやデータをRAM104上に読み出し、処理を実行することで、映像処理装置1全体の制御や機能を実現する演算装置である。
図1に示す映像処理装置1の各機能は、図5に示す映像処理装置1のハードウェアが以下のように動作することにより実現される。
DPTZ制御部50は、ROM105等に格納されたプログラムに従ってCPU106とDPTZ制御装置102が動作することにより実現される。
画像処理部15は、ROM105等に格納されたプログラムに従ってCPU106と画像処理装置111bが動作することにより実現される。
エンコーダ16は、ROM105等に格納されたプログラムに従ってCPU106とエンコーダ111aが動作することにより実現される。
ネットワーク処理部17、ネットワーク状態検知部20、及び相手局機能判別部22は、ROM105等に格納されたプログラムに従って、CPU106と通信I/F107が動作することにより実現される。
音声判別部24は、ROM105等に格納されたプログラムに従って、CPU106と音声判別装置112aが動作することにより実現される。
検知部60は、ROM105等に格納されたプログラムに従って、CPU106と検知装置112bが動作することにより実現される。
デコーダ18は、ROM105等に格納されたプログラムに従ってCPU106とデコーダ114aが動作することにより実現される。
全体制御部28は、ROM105等に格納されたプログラムに従ってCPU106が動作することにより実現される。
カメラ10は、カメラモジュール110が動作することにより実現される。マイクアレイ26は、マイク113が動作することにより実現される。ディスプレイ12、及びスピーカ13は、入出力装置101が動作することにより実現される。
上述した、映像処理装置1の各機能と実現するための対応関係は一例であり、一部の機能はROM等に格納されたプログラムを実行することにより実現されてもよい。また、一部の機能はプログラムではなく、専用のハードウェアにより実現されてもよい。
<動作手順>
(1)動作手順(その1)
図6を用いて本実施形態に係る動作手順について説明する。図6は、第2の映像フレームにおいて映像の使用する範囲が変更される場合の実施形態の動作の一例を示す図である。
ステップS601で、映像処理装置1のユーザは、映像処理装置1に対して初期設定を行う。これにより、カメラ10での撮影が可能な状態になる。
ステップS602で、映像処理装置1のユーザは、カメラ10の撮影モードの設定を行う。例えば、ユーザは、テレビ会議の環境に合わせて、測光条件等のカメラ10の撮影モードの設定を行う。
ステップS603で、映像処理装置1は、通信相手の映像処理装置1に対して接続要求を送信し、テレビ会議の開始に係る処理を行う。映像処理装置1は、通信相手の映像処理装置1から接続要求を受信したことに応じて、テレビ会議の開始に係る処理を始めてもよい。
ステップS604で、映像処理装置1は、方向固定タイマを起動する。かかるタイマは、カメラ10で撮影された映像の使用する範囲が頻繁に変わるのを抑制するために設けられている。多人数でテレビ会議を行う時に、映像処理装置1で話者追従機能を起動している場合、映像の使用する範囲が頻繁に変わることが想定される。映像の使用する範囲が頻繁に変更され過ぎると、テレビ会議の参加者に不快な印象を与えるおそれがある。
このため、方向固定タイマを起動し、映像の使用する範囲の変更の頻度を抑制する。方向固定タイマの長さは、映像処理装置1のユーザ、又は通信相手の映像処理装置1から設定可能である。
ステップS605で、検知部60が、人間の声を検知した場合、ステップS606に進み(ステップS605 Yes)、人間の声を検知しない場合、ステップS605に戻る(ステップS605 No)。
ステップS606で、検知部60は、全体制御部28に、人間の声を検知した旨を通知する。かかる通知には、声の発生元である人間の映像内での位置を特定する情報が含まれる。全体制御部28は、声の発生元である人間が、現在の映像の使用する範囲に含まれるか確認する。現在の映像の使用する範囲に含まれる場合(ステップS606 Yes)、ステップS605に戻る。一方、現在の映像の使用する範囲に含まれない場合(ステップS606 No)、全体制御部28は、DPTZ制御部50に、映像の使用する範囲の変更を指示し、DPTZ制御部50は、ステップS607の処理を実行する。
なお、検知部60は、DPTZ制御部50に、人間の声を検知した旨を通知し、DPTZ制御部50が、映像の使用する範囲の変更の要否を判断してもよい。
ステップS607で、DPTZ制御部50は、生成する映像のフレームの種類が第2の映像のフレームであるか否かの判断を行う。
次に生成される映像のフレームが第2の映像のフレームである場合(ステップS607 Yes)、ステップS608に進む。一方、次に生成される映像のフレームが第2の映像のフレームでない場合(ステップS607 No)、ステップS605に戻る。
ステップS608で、DPTZ制御部50は、方向固定タイマがタイムアウトしているか確認する。タイムアウトしている場合(ステップS608 Yes)、ステップS609に進む。一方、タイムアウトしていない場合、ステップS605に戻る。
ステップS609で、DPTZ制御部50は、検知部60が検知した情報を基に、映像の使用する範囲を変更する。映像の使用する範囲を変更後、ステップS604に戻る。
(2)動作手順(その2)
図7を用いて、本実施形態に係る動作手順について説明する。図7は、カメラ10の向きの変更、及び照明の点灯等により、カメラ10で撮影される映像が変化する場合等の実施形態の動作の一例を示す図である。
ステップS701乃至ステップS703については、ステップS601乃至ステップS603と同じため説明を省略する。
ステップS704で、シーンチェンジ検知部51は、カメラ10で撮影した映像の変化を検知する。映像の変化を検知した場合(ステップS704 Yes)、ステップS705に進む。一方、映像の変化を検知しない場合、ステップS704に戻り、再度、映像の変更を検知監視する。かかる確認の処理は繰り返し実行される。
ステップS705で、DPTZ制御部50は、エンコーダ16に向けて送信する映像のフレームを第2の映像フレームであることを、エンコーダ16に通知する。
ステップS706で、DPTZ制御部50は、映像の変化が検知されたフレームを含め、N個の同一の映像のフレームを生成する。同一の映像のフレームが生成されるため、出力の映像はNフレームの間、静止画像となる。「N個」の設定については、通信相手の映像処理装置1との間のネットワークの帯域を考慮して決定されてもよい。
なお、ステップS706の処理と並行して、映像処理装置1は、映像の変更後の環境に合わせて、測光の条件等、カメラ10の撮影モードを調整してもよい。
上記の動作手順では、第2の映像フレームが1つ増加する場合があり、予め定められているネットワークの帯域を、一時的に上回るおそれがある。しかし、ネットワークの帯域を考慮して「N個」の同一の映像のフレームが生成されるため、伝送効率の悪化は抑えられる。通信相手の映像処理装置1に送信される映像のフレームの占める帯域が、予め定められている帯域を上回る場合があっても、短期間であるため、帯域の容量オーバによるテレビ会議中の回線切断を回避することができる。
なお、上述した動作手順は、監視の用途にも適用できることは勿論である。監視の用途に適用する場合、人間の声に加えて、人間の出現を検知して、映像の使用する範囲の変更の処理が実行される。
[その他]
上述した実施形態では、映像処理装置1をテレビ会議、及び監視に用いる場合を例に、説明したが、他の用途に用いてもよいことは勿論である。映像が変化する時に、実施形態で説明した映像処理装置1を用いることにより、映像のフレームの符号化処理を効率化することで、伝送効率を維持することができる。
上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、映像処理装置1に供給してもよい。そして、映像処理装置1が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、上述の実施形態が、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、いずれかの実施の形態を構成することになる。ここで、記憶媒体は、記録媒体または非一時的な記憶媒体である。
また、コンピュータ装置が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に従って、コンピュータ装置上で動作しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行ってもよい。さらに、その処理によって前述した実施形態の機能が実現されてもよいことは言うまでもない。
以上、本発明の好ましい実施形態について説明したが、本発明はこうした実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1 映像処理装置
10 カメラ
15 画像処理部
16 エンコーダ
50 DPTZ制御部
60 検知部
特開2002−305733号公報

Claims (7)

  1. カメラで撮影された映像の使用する範囲から、映像のフレームを生成する生成部であって、前記使用する範囲は前記映像の空間的範囲を定める前記生成部と、
    前記映像のフレームを、フレーム間予測を用いて符号化される第1の映像のフレーム、又はフレーム内予測を用いて符号化される第2の映像のフレームのいずれかの映像のフレームの種類に応じて符号化する符号化部と、
    前記使用する範囲の変更に用いるトリガを検知し、前記生成部に通知する検知部と、を有し、
    前記符号化部は、前記映像のフレームに設定される前記映像のフレームの種類を予め前記生成部に通知し、
    前記トリガの受信に応じて、前記生成部は、通知された前記映像のフレームの種類に基づいて、前記使用する範囲を変更する映像処理装置。
  2. 前記生成部は、前記第2の映像のフレームで、前記使用する範囲を変更する、請求項1に記載の映像処理装置。
  3. 前記生成部は、前記トリガの受信に応じて、前記使用する範囲を変更すると共に、前記符号化部に前記使用する範囲が変更されたことを示す変更の通知を、前記符号化部に送信し、
    前記符号化部は、前記変更の通知の受信に応じて、前記使用する範囲が変更された最初の映像のフレームを、前記第2の映像のフレームとする、請求項1に記載の映像処理装置。
  4. 前記生成部は、前記最初の映像のフレームに後続する所定の数の映像のフレームを、前記最初の映像のフレームと同一の映像のフレームとする、請求項3に記載の映像処理装置。
  5. 前記トリガは、音の発生である請求項1乃至3のいずれか一項に記載の映像処理装置。
  6. 前記トリガは、人間の出現である請求項1乃至3のいずれか一項に記載の映像処理装置。
  7. カメラで撮影された映像の使用する範囲から、映像のフレームを生成するステップであって、前記使用する範囲は前記映像の空間的範囲を定めるステップと、
    前記映像のフレームを、フレーム間予測を用いて符号化される第1の映像のフレームと、フレーム内予測を用いて符号化される第2の映像のフレームとのいずれかの映像のフレームの種類に応じて符号化するステップであって、前記映像のフレームに設定される前記映像のフレームの種類を予め通知するステップと、
    前記使用する範囲の変更に用いるトリガを検知し、通知するステップと、
    前記トリガの通知に応じて、通知された前記映像のフレームの種類に基づいて、前記使用する範囲を変更するステップとを、映像処理装置に実行させるプログラム。
JP2015142504A 2015-07-16 2015-07-16 映像処理装置、及びプログラム Pending JP2017028375A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015142504A JP2017028375A (ja) 2015-07-16 2015-07-16 映像処理装置、及びプログラム
US15/196,221 US9565395B1 (en) 2015-07-16 2016-06-29 Video image processing apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015142504A JP2017028375A (ja) 2015-07-16 2015-07-16 映像処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2017028375A true JP2017028375A (ja) 2017-02-02

Family

ID=57776518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015142504A Pending JP2017028375A (ja) 2015-07-16 2015-07-16 映像処理装置、及びプログラム

Country Status (2)

Country Link
US (1) US9565395B1 (ja)
JP (1) JP2017028375A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088610A (ja) * 2018-11-26 2020-06-04 キヤノン株式会社 画像処理装置およびその制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010439A (ja) 2016-07-13 2018-01-18 株式会社リコー 座標検出装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998426A (ja) * 1995-10-02 1997-04-08 Dainippon Printing Co Ltd デジタル動画エンコーダ
JP2004013550A (ja) * 2002-06-07 2004-01-15 Pro Saido Kk デジタル映像制御システム
JP2006262359A (ja) * 2005-03-18 2006-09-28 Matsushita Electric Works Ltd 画像センサ装置
JP2007053447A (ja) * 2005-08-15 2007-03-01 Canon Inc 撮像装置及び撮像方法
US8903130B1 (en) * 2011-05-09 2014-12-02 Google Inc. Virtual camera operator

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3173257B2 (ja) 1993-11-09 2001-06-04 松下電器産業株式会社 符号化方法と符号化装置
US5959667A (en) 1996-05-09 1999-09-28 Vtel Corporation Voice activated camera preset selection system and method of operation
US6618073B1 (en) 1998-11-06 2003-09-09 Vtel Corporation Apparatus and method for avoiding invalid camera positioning in a video conference
US7117157B1 (en) 1999-03-26 2006-10-03 Canon Kabushiki Kaisha Processing apparatus for determining which person in a group is speaking
GB9908545D0 (en) 1999-04-14 1999-06-09 Canon Kk Image processing apparatus
JP2002305733A (ja) 2001-04-06 2002-10-18 Matsushita Electric Ind Co Ltd マルチキャスト会議装置、及びマルチキャスト会議プログラム
US7428000B2 (en) 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
JP4770178B2 (ja) 2005-01-17 2011-09-14 ソニー株式会社 カメラ制御装置、カメラシステム、電子会議システムおよびカメラ制御方法
JP4356663B2 (ja) 2005-08-17 2009-11-04 ソニー株式会社 カメラ制御装置および電子会議システム
US8024189B2 (en) 2006-06-22 2011-09-20 Microsoft Corporation Identification of people using multiple types of input
JP2008259000A (ja) 2007-04-06 2008-10-23 Sony Corp テレビ会議装置、制御方法、およびプログラム
US8330787B2 (en) 2007-06-29 2012-12-11 Microsoft Corporation Capture device movement compensation for speaker indexing
US8433061B2 (en) 2007-12-10 2013-04-30 Microsoft Corporation Reducing echo
US8314829B2 (en) 2008-08-12 2012-11-20 Microsoft Corporation Satellite microphones for improved speaker detection and zoom
US8358328B2 (en) 2008-11-20 2013-01-22 Cisco Technology, Inc. Multiple video camera processing for teleconferencing
US8395653B2 (en) 2010-05-18 2013-03-12 Polycom, Inc. Videoconferencing endpoint having multiple voice-tracking cameras
US8248448B2 (en) 2010-05-18 2012-08-21 Polycom, Inc. Automatic camera framing for videoconferencing
US9723260B2 (en) 2010-05-18 2017-08-01 Polycom, Inc. Voice tracking camera with speaker identification
US8842161B2 (en) * 2010-05-18 2014-09-23 Polycom, Inc. Videoconferencing system having adjunct camera for auto-framing and tracking
US9084068B2 (en) 2011-05-30 2015-07-14 Sony Corporation Sensor-based placement of sound in video recording
US9030520B2 (en) 2011-06-20 2015-05-12 Polycom, Inc. Automatic camera selection for videoconferencing
JP2014200076A (ja) 2013-03-15 2014-10-23 株式会社リコー 配信制御システム、配信制御方法、及びプログラム
JP5958833B2 (ja) 2013-06-24 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム
JP5958717B2 (ja) 2013-07-19 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム、指向性制御方法、収音システム及び収音制御方法
JP6221489B2 (ja) 2013-08-09 2017-11-01 株式会社リコー 通信システム、管理装置、通信方法およびプログラム
JP6303324B2 (ja) 2013-08-09 2018-04-04 株式会社リコー 通信システム、管理装置、通信方法およびプログラム
JP6326750B2 (ja) 2013-09-11 2018-05-23 株式会社リコー 通信端末、通信管理システム、通信システム、発信履歴の管理方法、及びプログラム
JP2015082149A (ja) 2013-10-21 2015-04-27 株式会社リコー 通信システム、通信方法及び通信プログラム
JP6432127B2 (ja) 2013-11-12 2018-12-05 株式会社リコー 通信装置、通信システム、通信方法及び通信プログラム
JP2015103105A (ja) 2013-11-26 2015-06-04 株式会社リコー 通信装置、通信システム、及び通信プログラム
JP2015103106A (ja) 2013-11-26 2015-06-04 株式会社リコー 通信装置、及び通信プログラム
US20150146078A1 (en) 2013-11-27 2015-05-28 Cisco Technology, Inc. Shift camera focus based on speaker position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998426A (ja) * 1995-10-02 1997-04-08 Dainippon Printing Co Ltd デジタル動画エンコーダ
JP2004013550A (ja) * 2002-06-07 2004-01-15 Pro Saido Kk デジタル映像制御システム
JP2006262359A (ja) * 2005-03-18 2006-09-28 Matsushita Electric Works Ltd 画像センサ装置
JP2007053447A (ja) * 2005-08-15 2007-03-01 Canon Inc 撮像装置及び撮像方法
US8903130B1 (en) * 2011-05-09 2014-12-02 Google Inc. Virtual camera operator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088610A (ja) * 2018-11-26 2020-06-04 キヤノン株式会社 画像処理装置およびその制御方法

Also Published As

Publication number Publication date
US20170019635A1 (en) 2017-01-19
US9565395B1 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
KR101532861B1 (ko) 줌 이미지의 생성
US9699414B2 (en) Information processing apparatus, information processing method, and computer program product
US20170034480A1 (en) Communication device, communication system, and computer-readable recording medium
JP2017028375A (ja) 映像処理装置、及びプログラム
US10447969B2 (en) Image processing device, image processing method, and picture transmission and reception system
JP5899918B2 (ja) 画像処理装置、画像処理方法
JP6474042B2 (ja) 撮影システム
JP2015130632A (ja) 画像処理装置、送受信システム、画像処理方法、およびプログラム
US9392169B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
US11528400B2 (en) Image-processing microprocessor for supporting an application processor and multiple cameras
JP7182893B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP6656605B2 (ja) 撮影システム
KR102393336B1 (ko) 감시 시스템 및 그 동작 방법
JP6776741B2 (ja) 処理装置、処理方法及びプログラム
JP6651984B2 (ja) 情報処理装置、会議システムおよび情報処理装置の制御方法
JP2012124769A (ja) 被写体検出手段を有する撮像装置
JP6627459B2 (ja) 情報送信装置、情報処理システム、送信方法およびプログラム
JP5446942B2 (ja) 情報処理装置及び方法、撮像装置及び制御方法、プログラム、並びに情報処理システム
JP2014127914A (ja) 撮像装置、その制御方法、プログラム
JP2021013177A (ja) 撮像装置、制御方法、及び、プログラム
CN115499537A (zh) 麦克风的控制方法、装置、移动终端以及存储介质
JP2005124049A (ja) 画像データ処理装置および画像データ処理方法
JP2018056779A (ja) 撮像装置、撮影システム、撮影制御方法及びプログラム
JP2017135453A (ja) 撮像装置、処理実行方法及びプログラム
JP2010034765A (ja) 記録再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191217