JP2019180080A - 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム - Google Patents

映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム Download PDF

Info

Publication number
JP2019180080A
JP2019180080A JP2018070390A JP2018070390A JP2019180080A JP 2019180080 A JP2019180080 A JP 2019180080A JP 2018070390 A JP2018070390 A JP 2018070390A JP 2018070390 A JP2018070390 A JP 2018070390A JP 2019180080 A JP2019180080 A JP 2019180080A
Authority
JP
Japan
Prior art keywords
video
image quality
area
specific area
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018070390A
Other languages
English (en)
Inventor
耕司 桑田
Koji Kuwata
耕司 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018070390A priority Critical patent/JP2019180080A/ja
Priority to EP19155728.9A priority patent/EP3547673A1/en
Priority to US16/270,688 priority patent/US20190306462A1/en
Publication of JP2019180080A publication Critical patent/JP2019180080A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Telephonic Communication Services (AREA)
  • Studio Devices (AREA)

Abstract

【課題】映像データのデータ量を軽減するとともに、複数の領域間における画質の違いを目立ち難くすることができるようにすること。【解決手段】映像処理装置は、映像を取得する映像取得部と、映像における特定領域を検出する特定領域検出部と、映像における特定領域以外の他の領域の画質を、特定領域の画質よりも低くする映像処理部とを備え、映像処理部は、映像における特定領域と他の領域との境界部の画質を、特定領域よりも低く、且つ、他の領域よりも高くする。【選択図】図4

Description

本発明は、映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラムに関する。
下記特許文献1には、監視カメラによって撮像された撮像画像に対し、動きが検出されていない静止領域の画像を低画質化し、動きが検出された動き領域(例えば、人物の移動が検出された領域)の画像を、静止領域の画像に比べて高画質化する技術が開示されている。この技術によれば、撮像画像の符号化データサイズを小さくして、ネットワークにおける伝送路の負担を軽減することができるとともに、動き領域の画像の視認性を良くすることができるとされている。
しかしながら、従来技術では、上記したように、映像における一部の領域を低画質化して、映像に低画質の領域と高画質の領域とを設けた場合、双方の領域の画質の違いが目立ってしまい、視聴者に対して違和感を与えてしまうといった課題がある。
本発明は、上述した従来技術の課題を解決するため、映像データのデータ量を軽減するとともに、複数の領域間における画質の違いを目立ち難くすることができるようにすることを目的とする。
上述した課題を解決するために、本発明の映像処理装置は、映像を取得する映像取得部と、映像における特定領域を検出する特定領域検出部と、映像における特定領域以外の他の領域の画質を、特定領域の画質よりも低くする映像処理部とを備え、映像処理部は、映像における特定領域と他の領域との境界部の画質を、特定領域よりも低く、且つ、他の領域よりも高くする。
本発明によれば、映像データのデータ量を軽減するとともに、複数の領域間における画質の違いを目立ち難くすることができる。
本発明の一実施形態に係るテレビ会議システムのシステム構成を示す図である。 本発明の一実施形態に係るIWBの外観を示す図である。 本発明の一実施形態に係るIWBのハードウェア構成を示す図である。 本発明の一実施形態に係るIWBの機能構成を示す図である。 本発明の一実施形態に係るIWBによるテレビ会議実行制御処理の手順を示すフローチャートである。 本発明の一実施形態に係る映像処理部による映像処理の手順を示すフローチャートである。 本発明の一実施形態に係る動き領域検出部による動き検出処理の手順を示すフローチャートである。 本発明の一実施形態に係る動き領域検出部による動き検出処理の一具体例を示す図である。 本発明の一実施形態に係る映像処理部による映像処理の一具体例を示す図である。
〔一実施形態〕
以下、図面を参照して、本発明の一実施形態について説明する。
(テレビ会議システム10のシステム構成)
図1は、本発明の一実施形態に係るテレビ会議システム10のシステム構成を示す図である。図1に示すように、テレビ会議システム10は、会議サーバ12、会議予約サーバ14、および複数のIWB(Interactive White Board)100を備えており、これら複数の装置が、インターネット、イントラネット、LAN(Local Area Network)等のネットワーク16に接続されて構成されている。テレビ会議システム10は、これら複数の装置により、複数の拠点間でいわゆるテレビ会議を行うことができるようになっている。
会議サーバ12は、「サーバ装置」の一例である。会議サーバ12は、複数のIWB100によるテレビ会議に関する各種制御を行う。例えば、会議サーバ12は、テレビ会議の開始時においては、各IWB100と会議サーバ12との通信接続状態の監視、各IWB100に対する呼び出し等を行う。また、会議サーバ12は、テレビ会議中においては、複数のIWB100の間における各種データ(例えば、映像データ、音声データ、描画データ等)の転送処理等を行う。
会議予約サーバ14は、テレビ会議の予約状況を管理する。具体的には、会議予約サーバ14は、外部の情報処理装置(例えば、PC(Personal Computer)等)からネットワーク16を介して入力された会議情報を管理する。会議情報には、例えば、開催日時、開催場所、参加者、役割、使用端末等が含まれている。テレビ会議システム10は、会議予約サーバ14によって管理されている会議情報に基づいて、テレビ会議を行う。
IWB100は、「映像処理装置」および「通信端末」の一例である。IWB100は、テレビ会議が行われる各拠点に設置され、テレビ会議の参加者によって使用される通信端末である。例えば、IWB100は、テレビ会議の参加者から入力された各種データ(例えば、映像データ、音声データ、描画データ等)を、ネットワーク16および会議サーバ12を介して、他のIWB100へ送信することができる。また、例えば、IWB100は、他のIWB100から送信されてきた各種データを、データの種類に応じた出力方法(例えば、表示、音声出力等)によって出力することにより、テレビ会議の参加者へ呈示することができる。
(IWB100の構成)
図2は、本発明の一実施形態に係るIWB100の外観を示す図である。図2に示すように、IWB100は、本体100Aの前面に、カメラ101、タッチパネル・ディスプレイ102、マイク103、およびスピーカ104を備えている。
カメラ101は、当該IWB100の前方の映像を撮像する。カメラ101は、例えば、レンズと、イメージセンサと、DSP(Digital Signal Processor)等の映像処理回路とを備えて構成されている。イメージセンサは、レンズによって集光された光を光電変換することにより、映像データ(RAWデータ)を生成する。イメージセンサとしては、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等が用いられる。映像処理回路は、イメージセンサによって生成された映像データ(RAWデータ)に対して、ベイヤー変換、3A制御(AE(自動露出制御)、AF(オートフォーカス)、およびAWB(オートホワイトバランス))等の一般的な映像処理を行うことにより、映像データ(YUVデータ)を生成する。そして、映像処理回路は、生成された映像データ(YUVデータ)を出力する。YUVデータは、色情報を、輝度信号(Y)と、輝度信号と青色成分との差(U)と、輝度信号と赤色成分との差(V)との組み合わせで表したものである。
タッチパネル・ディスプレイ102は、ディスプレイとタッチパネルとを備えた装置である。タッチパネル・ディスプレイ102は、ディスプレイにより、各種情報(例えば、映像データ、描画データ等)を表示することができる。また、タッチパネル・ディスプレイ102は、タッチパネルにより、操作体150(例えば、指、ペン等)の接触操作による、各種情報(例えば、文字、図形、画像等)の入力を行うことができる。ディスプレイとしては、例えば、液晶ディスプレイ、有機ELディスプレイ、電子ペーパー等を用いることができる。タッチパネルとしては、例えば、静電容量方式のタッチパネルを用いることができる。
マイク103は、IWB100の周囲の音声を集音し、当該音声に対応する音声データ(アナログデータ)を生成した後、当該音声データ(アナログデータ)をアナログ−デジタル変換することによって、集音された音声に対応する音声データ(デジタルデータ)を出力する。
スピーカ104は、音声データ(アナログデータ)によって駆動されることにより、当該音声データに対応する音声を出力する。例えば、スピーカ104は、他拠点のIWB100から送信された音声データによって駆動されることにより、他拠点のIWB100において集音された音声を出力する。
このように構成されたIWB100は、カメラ101から取得された映像データに対して、後述する映像処理および符号化処理を行うことによってデータ量の削減を行った後、当該映像データとともに、タッチパネル・ディスプレイ102から取得された各種表示データ(例えば、映像データ、描画データ等)、および、マイク103から取得された音声データを、会議サーバ12を介して他のIWB100へ送信することにより、これらのデータを他のIWB100と共有することができる。また、IWB100は、他のIWB100から送信された各種表示データ(例えば、映像データ、描画データ等)に基づく表示内容を、タッチパネル・ディスプレイ102によって表示するとともに、他のIWB100から送信された音声データに基づく音声を、スピーカ104によって音声出力することにより、これらの情報を他のIWB100と共有することができる。
例えば、図2に示す例では、タッチパネル・ディスプレイ102において、複数の表示領域102A,102Bを有する表示レイアウトが表示されている。表示領域102Aは、描画領域であり、操作体150によって描画された描画データが表示される。表示領域102Bは、カメラ101によって撮像された自拠点の映像が表示される。なお、タッチパネル・ディスプレイ102は、他のIWB100で描画された描画データ、他のIWB100で撮像された他拠点の映像等を、表示することも可能である。
(IWB100のハードウェア構成)
図3は、本発明の一実施形態に係るIWB100のハードウェア構成を示す図である。図3に示すように、IWB100は、図2で説明したカメラ101、タッチパネル・ディスプレイ102、マイク103、およびスピーカ104に加えて、CPU(Central Processing Unit)を備えたシステムコントロール部105、補助記憶装置106、メモリ107、通信I/F(Inter Face)108、操作部109、および録画装置110を備える。
システムコントロール部105は、補助記憶装置106またはメモリ107に記憶されている各種プログラムを実行することにより、IWB100の各種制御を行う。例えば、システムコントロール部105は、CPU、周辺ユニットとのインタフェース、データアクセス調停機能等を備え、IWB100が備える各種ハードウェアの制御、IWB100が備えるテレビ会議に関する各種機能(図4参照)の実行制御を行う。
例えば、システムコントロール部105は、テレビ会議に関する基本的な機能として、カメラ101から取得した映像データ、タッチパネル・ディスプレイ102から取得した描画データ、および、マイク103から取得した音声データを、通信I/F108を介して、他のIWB100へ送信する。
また、例えば、システムコントロール部105は、カメラ101から取得された映像データに基づく映像、および、タッチパネル・ディスプレイ102から取得された描画データ(すなわち、自拠点の映像データおよび描画データ)に基づく描画内容を、タッチパネル・ディスプレイ102に表示させる。
また、例えば、システムコントロール部105は、他拠点のIWB100から送信された映像データ、描画データ、および音声データを、通信I/F108を介して取得する。そして、システムコントロール部105は、映像データに基づく映像、および、描画データに基づく描画内容を、タッチパネル・ディスプレイ102に表示させるとともに、音声データに基づく音声を、スピーカ104から音声出力させる。
補助記憶装置106は、システムコントロール部105により実行される各種プログラム、システムコントロール部105が各種プログラムを実行するために必要なデータ等を記憶する。補助記憶装置106としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)等の、不揮発性の記憶装置が用いられる。
メモリ107は、システムコントロール部105が各種プログラムを実行する際に利用する一時記憶領域として機能する。メモリ107としては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の、揮発性の記憶装置が用いられる。
通信I/F108は、ネットワーク16に接続し、ネットワーク16を介して他のIWB100との間で各種データの送受信を行うためのインタフェースである。通信I/F108としては、例えば、10Base−T,100Base−TX,1000Base−T等に対応した有線LANインタフェース、IEEE802.11a/b/g/n等に対応した無線LANインタフェース等、を用いることができる。
操作部109は、各種入力を行うためにユーザによって操作される。操作部109としては、例えば、キーボード、マウス、スイッチ等が用いられる。
録画装置110は、テレビ会議における映像データおよび音声データを、メモリ107に録画記録する。また、録画装置110は、メモリ107に録画記録された映像データおよび音声データを再生する。
(IWB100の機能構成)
図4は、本発明の一実施形態に係るIWB100の機能構成を示す図である。図4に示すように、IWB100は、主制御部120、映像取得部122、映像処理部124、特定領域検出部126、符号化部128、送信部130、受信部132、復号化部134、表示制御部136、音声取得部138、音声処理部140、および、音声出力部142を備えている。
映像取得部122は、カメラ101から取得された映像データ(YUVデータ)を取得する。映像取得部122によって取得される映像データは、複数のフレーム画像が組み合わされて構成されたものである。
映像処理部124は、映像取得部122によって取得された映像データに対する各種映像処理を行う。例えば、映像処理部124は、特定領域検出部126を有する。特定領域検出部126は、映像取得部122によって取得された映像データ(フレーム画像)における特定領域を検出する。具体的には、特定領域検出部126は、動き領域検出部126Aおよび顔領域検出部126Bを有する。動き領域検出部126Aは、映像取得部122によって取得された映像データ(フレーム画像)において、被写体の動きが検出される領域である動き領域を、特定領域として検出する。動き領域の検出方法としては、公知の如何なる方法を用いてもよいが、動き領域検出部126Aによる動き検出処理の詳細について、図7および図8を用いて後述する。顔領域検出部126Bは、映像取得部122によって取得された映像データ(フレーム画像)において、被写体の顔が検出される領域である顔領域を、特定領域として検出する。顔領域の検出方法としては、公知の如何なる方法を用いてもよいが、例えば、目、鼻、口などの特徴点を抽出して顔領域を検出する方法等が挙げられる。
映像処理部124は、特定領域検出部126によって特定領域が特定されると、映像取得部122によって取得された映像データ(フレーム画像)における特定領域以外の他の領域の画質を、特定領域の画質よりも低くする。具体的には、映像処理部124は、映像取得部122によって取得された映像データ(フレーム画像)における特定領域を「高画質領域」に設定し、当該領域の画質を高画質化する。一方、映像処理部124は、映像取得部122によって取得された映像データ(フレーム画像)における特定領域以外の他の領域を「低画質領域」に設定し、当該領域の画質を低画質化する。さらに、映像処理部124は、映像取得部122によって取得された映像データ(フレーム画像)における、上記特定領域と上記他の領域との境界部を「中画質領域」に設定し、当該境界部の画質を、中画質化する。特に、映像処理部124は、当該境界部の画質が、上記他の領域に近づくにつれて段階的に低くなるように、中画質化する。映像処理部124は、画質の調整方法として、公知の如何なる方法を用いてもよい。例えば、映像処理部124は、映像データに対して、解像度調整、コントラスト調整、ローパスフィルタ適用、フレームレート調整等を行うことにより、画質の調整を行うことができる。なお、本実施形態における「高画質領域」、「中画質領域」、および「低画質領域」は、相対的な画質の違いを意味するものである。すなわち、「高画質領域」は、「中画質領域」および「低画質領域」よりも画質が高い領域を意味する。また、「中画質領域」は、「低画質領域」よりも画質が高い領域を意味する。
符号化部128は、映像処理部124による映像処理後の映像データを符号化する。符号化部128によって使用される符号化方式としては、例えば、H.264/AVC、H.264/SVC、H.265等が挙げられる。
送信部130は、符号化部128によって符号化された映像データを、マイク103から取得された音声データ(音声処理部140による音声処理後の音声データ)とともに、ネットワーク16を介して、他のIWB100へ送信する。
受信部132は、他のIWB100から送信された映像データおよび音声データを、ネットワーク16を介して受信する。復号化部134は、所定の復号化方式により、受信部132によって受信された映像データを復号化する。復号化部134が用いる復号化方式は、符号化部128による符号化方式に対応する復号化方式(例えば、H.264/AVC、H.264/SVC、H.265等)である。
表示制御部136は、復号化部134によって復号化された映像データを再生することにより、当該映像データに基づく映像(すなわち、他拠点の映像)を、タッチパネル・ディスプレイ102に表示させる。また、表示制御部136は、カメラ101から取得された映像データを再生することにより、当該映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル・ディスプレイ102に表示させる。なお、表示制御部136は、IWB100に設定されているレイアウト設定情報に基づいて、複数種類の映像を、複数の表示領域を有する表示レイアウトで表示することができる。例えば、表示制御部136は、自拠点の映像と他拠点の映像とを同時に表示することができる。
主制御部120は、IWB100の全体の制御を行う。例えば、主制御部120は、各モジュールの初期設定、カメラ101の撮影モードの設定、他のIWB100に対する通信開始要求、テレビ会議の開始、テレビ会議の終了、録画装置110による録画等の制御を行う。
音声取得部138は、マイク103から音声データを取得する。音声処理部140は、音声取得部138によって取得された音声データ、および、受信部132によって受信された音声データに対して、各種音声処理を行う。例えば、音声処理部140は、受信部132によって受信された音声データに対し、コーデック処理、ノイズキャンセル(NC)処理等、一般的な音声処理を行う。また、例えば、音声処理部140は、音声取得部138によって取得された音声データに対し、コーデック処理、エコーキャンセル(EC)処理等、一般的な音声処理を行う。
音声出力部142は、受信部132によって受信された音声データ(音声処理部140による音声処理後の音声データ)をアナログ信号に変換して再生することにより、当該音声データに基づく音声(すなわち、他拠点の音声)を、スピーカ104から出力させる。
上記したIWB100の各機能は、例えば、IWB100において、補助記憶装置106に記憶されたプログラムを、システムコントロール部105のCPUが実行することにより実現される。このプログラムは、予めIWB100に導入された状態で提供されてもよく、外部から提供されてIWB100に導入されるようにしてもよい。後者の場合、このプログラムは、外部記憶媒体(例えば、USBメモリ、メモリカード、CD−ROM等)によって提供されてもよく、ネットワーク(例えば、インターネット等)上のサーバからダウンロードすることによって提供されるようにしてもよい。なお、上記したIWB100の各機能のうち、一部の機能(例えば、符号化部128、復号化部134等)については、システムコントロール部105とは別に設けられた専用の処理回路によって実現されてもよい。
(IWB100によるテレビ会議実行制御処理の手順)
図5は、本発明の一実施形態に係るIWB100によるテレビ会議実行制御処理の手順を示すフローチャートである。
まず、主制御部120が、各モジュールの初期設定を行い、カメラ101による撮像が可能な状態とする(ステップS501)。次に、主制御部120が、カメラ101の撮影モードの設定を行う(ステップS502)。主制御部120による撮影モードの設定は、各種センサの出力に基づいて自動的に行われるものと、オペレータの操作入力により手動的に行われるものとを含み得る。そして、主制御部120が、他拠点のIWB100に対して、通信開始を要求し、テレビ会議を開始する(ステップS503)。なお、主制御部120は、他のIWB100からの通信開始要求を受けたことをもって、テレビ会議を開始してもよい。また、主制御部120は、テレビ会議が開始されると同時に、録画装置110による映像および音声の録画を開始してもよい。
テレビ会議が開始されると、映像取得部122が、カメラ101から映像データ(YUVデータ)を取得するとともに、音声取得部138が、マイク103から音声データを取得する(ステップS504)。そして、映像処理部124が、ステップS504で取得された映像データに対する映像処理を行うとともに、音声処理部140が、ステップS504で取得された音声データに対する各種音声処理を行う(ステップS505)。さらに、符号化部128が、ステップS505による映像処理後の映像データを符号化する(ステップS506)。そして、送信部130が、ステップS506で符号化された映像データを、ステップS504で取得された音声データとともに、ネットワーク16を介して、他のIWB100へ送信する(ステップS507)。
ステップS504〜S507と並行して、受信部132が、他のIWB100から送信された映像データおよび音声データを、ネットワーク16を介して受信する(ステップS509)。そして、復号化部134が、ステップS508で受信された映像データを復号化する。また、音声処理部140が、ステップS508で受信された音声データに対して、各種音声処理を行う(ステップS510)。さらに、表示制御部136が、ステップS509で復号化された映像データに基づく映像を、タッチパネル・ディスプレイ102に表示させるとともに、音声出力部142が、ステップS510による音声処理後の音声データに基づく音声を、スピーカ104から出力させる(ステップS511)。なお、ステップS511では、さらに、表示制御部136が、ステップS504で取得された映像データに基づく映像(すなわち、自拠点の映像)を、タッチパネル・ディスプレイ102に表示させることもできる。
続いて、主制御部120が、テレビ会議が終了したか否かを判断する(ステップS512)。ステップS512において、テレビ会議が終了していないと判断された場合(ステップS512:No)、IWB100は、ステップS504へ処理を戻す。一方、ステップS512において、テレビ会議が終了したと判断された場合(ステップS512:Yes)、IWB100は、図5に示す一連の処理を終了する。
(映像処理部124による映像処理の手順)
図6は、本発明の一実施形態に係る映像処理部124による映像処理の手順を示すフローチャートである。
まず、映像処理部124が、映像データを構成する複数のフレーム画像のうち、古いフレーム画像から順に、一のフレーム画像を選択する(ステップS601)。次に、動き領域検出部126Aが、ステップS601で選択された一のフレーム画像に対し、被写体の動きが検出される領域である動き領域を検出する(ステップS602)。また、顔領域検出部126Bは、映像取得部122によって取得された一の映像データに対し、被写体の顔が検出される領域である顔領域を検出する(ステップS603)。ここで、顔領域検出部126Bは、誤検知を防ぐことを目的として、連続する所定数のフレーム画像において顔が検出された場合、当該領域を顔領域として判定してもよい。
そして、映像処理部124が、ステップS603による顔領域の検出結果に基づいて、ステップS601で選択された一のフレーム画像に対し、低画質領域、中画質領域、および高画質領域を、それぞれ設定する(ステップS604)。具体的には、映像処理部124は、顔領域を、高画質領域に設定する。また、映像処理部124は、顔領域以外の他の領域を、低画質領域に設定する。さらに、映像処理部124は、高画質領域と低画質領域との境界部を、中画質領域に設定する。
続いて、映像処理部124は、ステップS604で設定された低画質領域(すなわち、顔検出されなかった領域)のうち、直前まで顔領域であった領域が存在するか否かを判断する(ステップS605)。例えば、映像処理部124は、一つ前のフレーム画像における顔領域の検出結果をメモリ107に記憶させておき、当該検出結果を参照することで、直前まで顔領域であったか否かを判断することができる。
ステップS605において、直前まで顔領域であった領域が存在しないと判断された場合(ステップS605:No)、映像処理部124は、ステップS608へ処理を進める。一方、ステップS605において、直前まで顔領域であった領域が存在すると判断された場合(ステップS605:Yes)、映像処理部124は、直前まで顔領域であった領域がステップS602で検出された動き領域であるか否かを判断する(ステップS606)。
ステップS606において、直前まで顔領域であった領域がステップS602で検出された動き領域ではないと判断された場合(ステップS606:No)、映像処理部124は、ステップS608へ処理を進める。一方、ステップS606において、直前まで顔領域であった領域がステップS602で検出された動き領域であると判断された場合(ステップS606:Yes)、映像処理部124は、当該領域を、高画質領域に再設定する(ステップS607)。当該領域は、顔が存在するにも関わらず、顔の向きが変わった等の理由により、顔検出できなかった領域である可能性が高いからである。同時に、映像処理部124は、当該領域と低画質領域との境界部を、中画質領域に再設定する。そして、映像処理部124は、ステップS608へ処理を進める。
ステップS608では、映像処理部124は、ステップS604,S607で設定された、低画質領域、中画質領域、および高画質領域の各々について、対応する画質となるように、画質調整を行う。例えば、映像処理部124は、高画質領域については、元の画質を維持する。また、映像処理部124は、中画質領域および低画質領域については、公知の何らかの画質調整方法(例えば、解像度調整、コントラスト調整、ローパスフィルタ適用、フレームレート調整等)を用いて、元の画質から画質を低下させることにより、中画質化および低画質化する。この際、映像処理部124は、中画質領域については、当該境界部の画質が、上記低画質領域に近づくにつれて段階的に低くなるように、中画質化する。これにより、高画質領域と低画質領域との間における画質の違いを目立ち難くすることができる。
その後、映像処理部124は、映像データを構成する全てのフレーム画像に対して、上記の映像処理を行ったか否かを判断する(ステップS609)。ステップS609において、全てのフレーム画像に対して映像処理を行っていないと判断された場合(ステップS609:No)、映像処理部124は、ステップS601へ処理を戻す。一方、ステップS609において、全てのフレーム画像に対して映像処理を行ったと判断された場合(ステップS609:Yes)、映像処理部124は、図6に示す一連の処理を終了する。
なお、映像処理部124は、ステップS605の前に、顔検出できた領域の数に変化(特に、人数の減少)があったか否かを判断し、顔検出できた領域の数に変化があった場合には、ステップS605へ処理を進め、顔検出できた領域の数に変化がなかった場合には、ステップS608へ処理を進めるようにしてもよい。顔検出できた領域の数に変化があった場合には、「顔検出できなかった領域であるが、直前まで顔領域であった領域」が存在する可能性が高いからである。
(動き領域検出部126Aによる動き検出処理の手順)
図7は、本発明の一実施形態に係る動き領域検出部126Aによる動き検出処理の手順を示すフローチャートである。図7に示す処理は、動き領域検出部126Aが、フレーム画像毎に実行する動き検出処理である。なお、図7に示す処理は、過去のフレーム画像を参照するものであるから、図7に示す処理において、過去のフレーム画像は、メモリ107に記憶されているものとする。
まず、動き領域検出部126Aは、フレーム画像をブロック単位に分割する(ステップS701)。ブロックのサイズは、如何なるものであってもよいが、例えば、動き領域検出部126Aは、フレーム画像を8×8画素のブロック単位に分割する。これにより、フレーム画像は、低解像度化されることとなる。なお、動き領域検出部126Aは、各ブロックに対し、動き検出を容易化するために、各種変換処理(例えば、ガンマ変換処理、FFT(Fast Fourier Transform)等の周波数変換処理等)を施すようにしてもよい。
次に、動き領域検出部126Aは、複数のブロックの中から、一のブロックを、注目ブロックとして選択する(ステップS702)。そして、動き領域検出部126Aは、ステップS702で選択された注目ブロックの周囲のブロックを、参照ブロックとして設定する(ステップS703)。なお、参照ブロックの設定範囲は、予め定められているが、1フレーム毎の人物の動きを検出することを目的とするものであるため、比較的狭い範囲で十分である。
次に、動き領域検出部126Aは、注目ブロックの現在の画素値と、当該注目ブロックの過去の画素値(例えば、直前のフレーム画像の画素値)との画素差分値D1を算出する(ステップS704)。また、動き領域検出部126Aは、注目ブロックの現在の画素値と、参照ブロックの過去の画素値(例えば、直前のフレーム画像の画素値)との画素差分値D2を算出する(ステップS705)。ここで、動き領域検出部126Aは、参照ブロックの過去の画素値として、複数の参照ブロックの画素値を色毎(例えば、RGB毎)に平均化したものを用いてもよい。
次に、動き領域検出部126Aは、下記条件1を満たすか否かを判断する(ステップS706)。
条件1:
画素差分値D1>画素差分値D2、且つ、
画素差分値D1−画素差分値D2≧所定の閾値th1
ステップS706において、上記条件1を満たすと判断された場合(ステップS706:Yes)、動き領域検出部126Aは、当該注目ブロックを動きブロックと判定し(ステップS708)、ステップS710へ処理を進める。上記条件1は、現在の注目ブロックと過去の注目ブロックとの相関度よりも、現在の注目ブロックと過去の参照ブロックとの相関度が高いことを判定するものである。現在の注目ブロックと過去の参照ブロックとの相関度のほうが高い場合は、当該注目ブロックが動きブロックである可能性が高い。
一方、ステップS706において、上記条件1を満たさないと判断された場合(ステップS706:No)、動き領域検出部126Aは、下記条件2を満たすか否かを判断する(ステップS707)。
条件2:
画素差分値D1≧所定の閾値th2
ステップS707において、上記条件2を満たすと判断された場合(ステップS707:Yes)、動き領域検出部126Aは、当該注目ブロックを動きブロックと判定し(ステップS708)、ステップS710へ処理を進める。上記条件1は、現在の注目ブロックの画素値と過去の注目ブロックの画素値との差分が大きいことを判定するものである。現在の注目ブロックの画素値と過去の注目ブロックの画素値との差分が大きい場合は、当該注目ブロックが動きブロックである可能性が高い。
一方、ステップS707において、上記条件2を満たさないと判断された場合(ステップS702:No)、動き領域検出部126Aは、当該注目ブロックを非動きブロックと判定し(ステップS709)、ステップS710へ処理を進める。
ステップS710では、動き領域検出部126Aは、全てのブロックについて動きブロックまたは非動きブロックの判定を行ったか否かを判断する。ステップS710において、全てのブロックについて動きブロックまたは非動きブロックの判定を行っていないと判断された場合(ステップS710:No)、動き領域検出部126Aは、ステップS702へ処理を戻す。一方、ステップS710において、全てのブロックについて動きブロックまたは非動きブロックの判定を行ったと判断された場合(ステップS710:Yes)、動き領域検出部126Aは、図7に示す一連の処理を終了する。
(動き領域検出部126Aによる動き検出処理の一具体例)
図8は、本発明の一実施形態に係る動き領域検出部126Aによる動き検出処理の一具体例を示す図である。
図8に示す例では、映像データに含まれるフレーム画像tと、フレーム画像t−1とを例示するものである。図8に示す例では、動き領域検出部126Aにより、フレーム画像tおよびフレーム画像t−1が、6×7ブロックに分割されており、さらに、フレーム画像tにおける一のブロック(図中塗りつぶされたブロック)が、注目ブロック801として選択された例を示している。
図8に示すように、動き領域検出部126Aは、フレーム画像t−1における注目ブロック801の周囲の複数のブロック(図中ハッチングが付与されたブロック)を、参照ブロック802として設定する。
例えば、動き領域検出部126Aは、フレーム画像tにおける注目ブロック801の画素値と、フレーム画像t−1における注目ブロック801の画素値との画素差分値D1を算出する。画素差分値D1は、注目ブロック801間での相関度を表すものである。
また、動き領域検出部126Aは、フレーム画像tにおける注目ブロック801の画素値と、フレーム画像t−1における参照ブロック802の画素値(例えば、複数の参照ブロック802の画素値の平均値)との画素差分値D2を算出する。画素差分値D2は、注目ブロック801と参照ブロック802との間の相関度を表すものである。
そして、動き領域検出部126Aは、上記条件1に基づいて、注目ブロック801と参照ブロック802との間の相関度のほうが、注目ブロック801間での相関度よりも高い場合は、注目ブロック801を動きブロックと判定する。また、動き領域検出部126Aは、上記条件2に基づいて、注目ブロック801間での画素値の差分が大きい場合は、注目ブロック801を動きブロックと判定する。
動き領域検出部126Aは、全てのブロックについて、当該ブロックを注目ブロックと選択して、同様の動き判定を行うことにより、動きブロックであるか非動きブロックであるかを判定する。
(映像処理部124による映像処理の一具体例)
図9は、本発明の一実施形態に係る映像処理部124による映像処理の一具体例を示す図である。図9に示すフレーム画像900は、IWB100から送信されるフレーム画像の一例を示すものである。図9に示すように、フレーム画像900は、被写体として人物902,904が映し出されている。そして、フレーム画像900においては、人物902,904の顔が映し出されている領域が、顔検出領域912,922として検出されている。また、フレーム画像900において、顔検出領域912,922以外の領域は、他の領域930であり、顔検出領域912,922と他の領域930との境界部は、境界部914,924である。なお、境界部914,924は、顔検出領域912,922上に設定されてもよく、顔検出領域912,922の外側(すなわち、他の領域930上)に設定されてもよく、顔検出領域912,922と他の領域930とにまたがって設定されてもよい。
このようなフレーム画像900に対し、映像処理部124は、顔検出領域912,922を「高画質領域」に設定し、当該顔検出領域912,922の画質を高画質化する。例えば、フレーム画像900の元の画質が高画質である場合、映像処理部124は、顔検出領域912,922の画質を高画質に維持する。但し、これに限らず、映像処理部124は、顔検出領域912,922の画質を、元の画質よりも高めるようにしてもよい。
また、映像処理部124は、他の領域930を「低画質領域」に設定し、当該他の領域930の画質を低画質化する。例えば、フレーム画像900の元の画質が高画質である場合、映像処理部124は、他の領域930の画質を、元の画質よりも低める。この際に用いられる画質を低める方法としては、公知の如何なる方法であってもよいが、例えば、解像度調整、コントラスト調整、ローパスフィルタ適用、フレームレート調整等が挙げられる。
さらに、映像処理部124は、境界部914,924を「中画質領域」に設定し、当該境界部914,924の画質を中画質化する。例えば、フレーム画像900の元の画質が高画質である場合、映像処理部124は、境界部914,924の画質を、元の画質よりも低める。この際に用いられる画質を低める方法としては、公知の如何なる方法であってもよいが、例えば、解像度調整、コントラスト調整、ローパスフィルタ適用、フレームレート調整等が挙げられる。但し、映像処理部124は、境界部914,924の画質を、他の領域930の画質よりも高くなるようにする。
特に、映像処理部124は、境界部914,924の画質が、他の領域930に近づくにつれて段階的に低くなるように、中画質化する。例えば、図9に示す例では、映像処理部124は、境界部914,924を、第1の領域914A,924Aと、第2の領域914B,924Bとに分割している。そして、映像処理部124は、他の領域930に近い第2の領域914B,924Bのほうが、顔検出領域912,922に近い第1の領域914A,924Aよりも低画質となるように、境界部914,924の各領域を中画質化する。
以上の映像処理により、フレーム画像900における画質の大小関係は、以下のとおりとなる。
顔検出領域912,922>第1の領域914A,924A>第2の領域914B,924B>他の領域930
すなわち、フレーム画像900は、高画質領域と低画質領域との境界部914,924が、低画質領域に向って段階的に画質が低くなるものとなる。これにより、フレーム画像900は、高画質領域と低画質領域との間における画質の違いが目立ち難いものとなる。
なお、図9に示す例では、境界部914,924の画質を、低画質領域に向って2段階に画質が低くなるものとしているが、これに限らず、境界部914,924の画質を、低画質領域に向って3段階以上に画質が低くなるものとしてもよい。また、境界部914,924の画質は、段階的でなくともよい。
また、図9に示す例では、フレーム画像900における顔検出領域912,922の周囲の画質を空間方向に段階的に低画質化するようにしているが、これとともに、もしくは、これに替えて、フレーム画像900における顔検出領域912,922の周囲の画質を時間方向に段階的に低画質化するようにしてもよい。例えば、フレーム画像900に対し、映像処理部124は、他の領域930の画質を、nフレーム毎(但し、n≧1)にN段階(但し、N≧2)で、元の画質から低画質化してもよい。同様に、フレーム画像900に対し、映像処理部124は、境界部914,924の画質を、nフレーム毎(但し、n≧1)にN段階(但し、N≧2)で、元の画質から中画質化してもよい。これにより、フレーム画像900は、高画質領域と低画質領域との間における画質の違いがより目立ち難いものとなる。
以上説明したように、本実施形態のIWB100は、カメラ101によって撮像された映像における特定領域以外の他の領域の画質を、特定領域の画質よりも低くするとともに、当該映像における特定領域と他の領域との境界部の画質を、他の領域に近づくにつれて段階的に低くする。これにより、本実施形態のIWB100は、カメラ101によって撮像された映像を、特定領域から他の領域に向って段階的に画質が変化するものにすることができる。したがって、本実施形態のIWB100によれば、映像における一部の領域を低画質化することによって映像データのデータ量を軽減するとともに、複数の領域間における画質の違いを目立ち難くすることができる。
特に、本実施形態のIWB100は、符号化を行う前の映像データに対して、一部の領域の低解像化を行うため、送信元のIWB100および送信先のIWB100の各々において、符号化処理および復号化処理に変更を加えることなく、複数の領域間における画質の違いが目立たなくなるように、符号化データのデータサイズを軽減することができる。
また、本実施形態のIWB100は、直前まで顔検出ができていたにも関わらず、顔の向きが変わる等により、一時的に顔検出ができなかった領域については、高画質設定を維持する。これにより、当該領域の画質が頻繁に切り替わることを防止することができ、よって、当該画質の切り替わりによる不自然さを防止することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
例えば、上記実施形態では、「映像処理装置」および「通信端末」の一例としてIWB100(電子黒板)を用いているが、これに限らない。例えば、上記実施形態で説明したIWB100の機能は、撮像装置を備えた他の情報処理装置(例えば、スマートフォン、タブレット端末、ノートパソコン等)によって実現されてもよく、撮像装置を備えていない他の情報処理装置(例えば、パーソナルコンピュータ等)によって実現されてもよい。
また、例えば、上記実施形態では、本発明をテレビ会議システムに適用した例を説明したが、これに限らない。すなわち、本発明は、映像データの一部の領域を低画質化することによってデータ量の削減を目的とするものであれば、如何なる用途にも適用可能である。また、本発明は、映像データの符号化および復号化を行わない情報処理装置にも適用可能である。
また、例えば、上記実施形態では、「特定領域」の一例として顔検出領域を用いているが、これに限らない。すなわち、「特定領域」は、比較的高画質とすることが好ましい被写体(例えば、文字や画像が示されている資料、ホワイトボード、監視カメラにおける人物等)が映し出されている領域であれば、如何なる領域であってもよい。
また、上記実施形態において、各処理に用いられる各種設定値(例えば、特定領域の検出対象とする被写体、特定領域および境界部のサイズ、各画質領域の画質設定値、動き判定に用いられるブロックサイズ、閾値th1および閾値th2、参照ブロックの範囲等)は、予め好適な値が設定されたものであってもよく、ユーザが、ユーザインタフェースを備える情報処理装置(例えば、パーソナルコンピュータ等)から、好適な値を任意に設定可能であってもよい。
10 テレビ会議システム
12 会議サーバ
14 会議予約サーバ
16 ネットワーク
100 IWB(映像処理装置、通信端末)
101 カメラ(撮像装置)
102 タッチパネル・ディスプレイ(表示装置)
103 マイク
104 スピーカ
120 主制御部
122 映像取得部
124 映像処理部
126特定領域検出部
126A 動き領域検出部
126B 顔領域検出部
128 符号化部
130 送信部
132 受信部
134 復号化部
136 表示制御部
138 音声取得部
140 音声処理部
142 音声出力部
特開2017−163228号公報

Claims (11)

  1. 映像を取得する映像取得部と、
    前記映像における特定領域を検出する特定領域検出部と、
    前記映像における前記特定領域以外の他の領域の画質を、前記特定領域の画質よりも低くする映像処理部と
    を備え、
    前記映像処理部は、
    前記映像における前記特定領域と前記他の領域との境界部の画質を、前記特定領域よりも低く、且つ、前記他の領域よりも高くする
    ことを特徴とする映像処理装置。
  2. 前記境界部の画質は、前記他の領域に近づくにつれて段階的に低い
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 前記特定領域検出部は、
    前記映像における動き領域を前記特定領域として検出する動き領域検出部
    をさらに備えることを特徴とする請求項1または2に記載の映像処理装置。
  4. 前記特定領域検出部は、
    前記映像における顔領域を前記特定領域として検出する顔領域検出部
    をさらに備えることを特徴とする請求項1から3のいずれか一項に記載の映像処理装置。
  5. 前記特定領域検出部は、
    前記顔領域検出部によって前記顔領域として検出されなかった領域のうち、直前まで前記顔領域として検出された領域を、前記特定領域として検出する
    ことを特徴とする請求項4に記載の映像処理装置。
  6. 前記映像処理部は、
    前記他の領域および前記境界部の画質を、時間が経過するにつれて段階的に低くする
    ことを特徴とする請求項1から5のいずれか一項に記載の映像処理装置。
  7. 前記映像処理部による処理後の前記映像を符号化する符号化部と、
    前記符号化部によって符号化された前記映像を外部の装置へ送信する送信部と
    をさらに備えることを特徴とする請求項1から6のいずれか一項に記載の映像処理装置。
  8. 撮像装置と、
    請求項1から7のいずれか一項に記載の映像処理装置と
    を備えることを特徴とする通信端末。
  9. 複数の請求項8に記載の通信端末と、
    前記複数の通信端末によるテレビ会議に関する各種制御を行うサーバ装置と
    を備えることを特徴とするテレビ会議システム。
  10. 映像を取得する映像取得工程と、
    前記映像における特定領域を検出する特定領域検出工程と、
    前記映像における前記特定領域以外の他の領域の画質を、前記特定領域の画質よりも低くする映像処理工程と
    を含み、
    前記映像処理工程において、
    前記映像における前記特定領域と前記他の領域との境界部の画質を、前記特定領域よりも低く、且つ、前記他の領域よりも高くする
    ことを特徴とする映像処理方法。
  11. コンピュータを、
    映像を取得する映像取得部、
    前記映像における特定領域を検出する特定領域検出部、および、
    前記映像における前記特定領域以外の他の領域の画質を、前記特定領域の画質よりも低くするとともに、前記映像における前記特定領域と前記他の領域との境界部の画質を、前記特定領域よりも低く、且つ、前記他の領域よりも高くする映像処理部
    として機能させることを特徴とするプログラム。
JP2018070390A 2018-03-30 2018-03-30 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム Pending JP2019180080A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018070390A JP2019180080A (ja) 2018-03-30 2018-03-30 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム
EP19155728.9A EP3547673A1 (en) 2018-03-30 2019-02-06 Image processing apparatus, videoconference system, image processing method, and carrier means
US16/270,688 US20190306462A1 (en) 2018-03-30 2019-02-08 Image processing apparatus, videoconference system, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018070390A JP2019180080A (ja) 2018-03-30 2018-03-30 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019180080A true JP2019180080A (ja) 2019-10-17

Family

ID=65351925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018070390A Pending JP2019180080A (ja) 2018-03-30 2018-03-30 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20190306462A1 (ja)
EP (1) EP3547673A1 (ja)
JP (1) JP2019180080A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021141404A (ja) * 2020-03-04 2021-09-16 フォクレット合同会社 コミュニケーションシステム、コンピュータプログラム、及び情報処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111511002B (zh) * 2020-04-23 2023-12-05 Oppo广东移动通信有限公司 检测帧率的调节方法和装置、终端和可读存储介质
CN114827542B (zh) * 2022-04-25 2024-03-26 重庆紫光华山智安科技有限公司 多路视频码流抓图方法、***、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006229661A (ja) * 2005-02-18 2006-08-31 Sanyo Electric Co Ltd 画像表示方法、画像符号化装置、画像復号装置、および画像表示装置
JP2009005239A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JP2010273328A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
JP2012085350A (ja) * 2011-12-22 2012-04-26 Fujifilm Corp 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013608A (ja) * 1998-06-23 2000-01-14 Ricoh Co Ltd 画像処理方法
JP2002271793A (ja) * 2001-03-12 2002-09-20 Canon Inc 画像圧縮符号化装置及び方法
JP4897600B2 (ja) * 2007-07-19 2012-03-14 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
WO2009014156A1 (en) * 2007-07-20 2009-01-29 Fujifilm Corporation Image processing apparatus, image processing method and program
JP2009089356A (ja) * 2007-09-10 2009-04-23 Fujifilm Corp 画像処理装置、画像処理方法、およびプログラム
US8270476B2 (en) * 2008-12-31 2012-09-18 Advanced Micro Devices, Inc. Face detection system for video encoders
JP5811641B2 (ja) * 2010-09-07 2015-11-11 株式会社リコー Tv会議システム、映像送信方法、及び映像送信装置
JP2017163228A (ja) 2016-03-07 2017-09-14 パナソニックIpマネジメント株式会社 監視カメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006229661A (ja) * 2005-02-18 2006-08-31 Sanyo Electric Co Ltd 画像表示方法、画像符号化装置、画像復号装置、および画像表示装置
JP2009005239A (ja) * 2007-06-25 2009-01-08 Sony Computer Entertainment Inc 符号化処理装置および符号化処理方法
JP2010273328A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
JP2012085350A (ja) * 2011-12-22 2012-04-26 Fujifilm Corp 画像処理装置、画像処理方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021141404A (ja) * 2020-03-04 2021-09-16 フォクレット合同会社 コミュニケーションシステム、コンピュータプログラム、及び情報処理方法

Also Published As

Publication number Publication date
US20190306462A1 (en) 2019-10-03
EP3547673A1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
EP3171596B1 (en) Image compression with adaptive quantization of regions of interest (roi)
KR100669837B1 (ko) 입체 비디오 코딩을 위한 포어그라운드 정보 추출 방법
US8570359B2 (en) Video region of interest features
JP7326254B2 (ja) 物理的な筆記面を含むビデオの処理
JP7334470B2 (ja) 映像処理装置、ビデオ会議システム、映像処理方法、およびプログラム
US10044782B2 (en) Terminal device, data transmission method, and computer-readable recording medium
JP2019180080A (ja) 映像処理装置、通信端末、テレビ会議システム、映像処理方法、およびプログラム
US9344678B2 (en) Information processing apparatus, information processing method and computer-readable storage medium
US7489728B2 (en) Apparatus and method for coding moving image
US10712804B2 (en) Dynamic selection of display resolution
CN103517072A (zh) 视频通信方法和设备
US20150356356A1 (en) Apparatus and method of providing thumbnail image of moving picture
JP2018535572A (ja) カメラプレビュー
US20140082208A1 (en) Method and apparatus for multi-user content rendering
US10447969B2 (en) Image processing device, image processing method, and picture transmission and reception system
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
US20200106821A1 (en) Video processing apparatus, video conference system, and video processing method
US9503652B2 (en) Method and apparatus for controlling image generation of image capture device by determining one or more image capture settings used for generating each subgroup of captured images
JP2013182450A (ja) 所在管理プログラム及び所在管理装置
CN113630575B (zh) 多人在线视频会议图像显示的方法、***和存储介质
US20220303555A1 (en) Combining high-quality foreground with enhanced low-quality background
WO2022000158A1 (en) Videoconference user interface layout based on face detection
JP2010263422A (ja) 情報処理装置、その動作方法及びプログラム
TWI755938B (zh) 影像擷取系統
US20230023754A1 (en) Imaging device and imaging processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607