JP2007129573A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2007129573A
JP2007129573A JP2005321230A JP2005321230A JP2007129573A JP 2007129573 A JP2007129573 A JP 2007129573A JP 2005321230 A JP2005321230 A JP 2005321230A JP 2005321230 A JP2005321230 A JP 2005321230A JP 2007129573 A JP2007129573 A JP 2007129573A
Authority
JP
Japan
Prior art keywords
image
processing
data
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005321230A
Other languages
English (en)
Other versions
JP4689440B2 (ja
JP2007129573A5 (ja
Inventor
Toshiyuki Fukui
俊之 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005321230A priority Critical patent/JP4689440B2/ja
Priority to US11/555,352 priority patent/US7714896B2/en
Priority to CN2006101376987A priority patent/CN1960442B/zh
Publication of JP2007129573A publication Critical patent/JP2007129573A/ja
Publication of JP2007129573A5 publication Critical patent/JP2007129573A5/ja
Application granted granted Critical
Publication of JP4689440B2 publication Critical patent/JP4689440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ネットワーク上で様々な要求を行うユーザに対して、実時間性を守って複数のサービスを提供できるようにする。
【解決手段】撮像データを動画像データに現像する現像処理部230と、動画像データを画像処理する画像処理部1と、画像処理部1で処理した動画像データをネットワーク網4上に送出するネットワークインタフェース320と、動画像データを構成する1画面分の画像データの更新間隔である1映像期間内に、画像処理部1において複数の異なる画像処理を施した動画像データをネットワークインタフェース320に出力するように制御するネットワーク制御部310を具備するようにする。
【選択図】図1

Description

本発明は、動画像データをネットワーク上に送出する撮像装置に関するものである。
近年、インターネットが普及し、WWW(World Wide Web)等による情報発信が一般的に行なわれるようになってきた。その様な中で、リアルタイムに映像を撮影し、その映像(動画像)をネットワーク上に発信する機能を有する撮像装置が出現している。キヤノン社製のネットワークカメラサーバVB−C10はその好例である。
一方、ネットワークを介してユーザにサービスを提供しようとすると、ユーザの要求は多岐にわたるため、ある時点で撮影された1つの入力画像に対して、複数の異なるパラメータで処理した符号化データを要求される場合がある。このような要求に対応しようとした画像処理装置の第1の例としては、符号化処理部を複数持つことにより、対応しようとするものが存在する(例えば、特許文献1参照)。
また、画像処理装置の第2の例としては、予めROMに格納している各種変換アルゴリズムを必要に応じて読み出し、DSPにそのアルゴリズムの処理を行わせることによってユーザの多様な要求に答えようとするものが存在する(例えば、特許文献2参照。)。
特開2003−309853号公報(第19頁、図1及び図6、第20頁、図3) 特開平6−125411号公報(第8頁、図1、第10頁、図4)
特許文献1に記載の技術のように、符号化処理部を複数持つことで複数の画像処理の要求に対応しようとする場合は、その処理ユニット数によってサービスできる内容の制限を受けることになる。処理ユニットの数を増やせば制限は緩くなるが、映像配信システムの撮影側機能をもつネットワークカメラサーバなどは一般に小型化を要求されるものである。そして、そこに実装できる処理ユニットの数は、基板/チップ面積や発熱量などによって制限を受けるので、実際には処理ユニットの数は限られたものになるという課題がある。
一方、リアルタイムに映像を撮影し、その映像を監視用途などに蓄積及び配信に利用する場合には、撮像装置から入ってくる映像を取りこぼすことは許されない。例えば、1秒間に30フレームの映像を撮影するビデオカメラ入力から映像入力を得る場合、あるフレームに関する処理を行うことが許される時間は1枚のフレーム画像の入力に要する時間である原則1/30秒である。この1枚のフレーム画像の入力に要する時間を「1映像期間」と呼ぶことにする。その中で先に述べた多種多様なユーザの要求に応えることがシステムに求められる。また、映像撮影部を遠隔から操作できることのできるネットワークカメラにおいては、リアルタイム性、及び低遅延であることが求められる。
特許文献2に記載の技術は、単純に複数の画像処理をアルゴリズムに従ってDSPが時分割的に並行して実施するのみであり、1映像期間内に処理が完了する保証がないという課題がある。
即ち、動画像データをネットワーク上に送出する従来の撮像装置では、当該ネットワーク上で様々な要求を行うユーザに対して、実時間性を守って複数のサービスを提供することが困難であるという課題があった。
本発明は上述の問題点にかんがみてなされたものであり、ネットワーク上で様々な要求を行うユーザに対して、実時間性を守って複数のサービスを提供することを可能とする撮像装置を提供することを目的とする。
前記課題を解決するために本発明は、被写体を撮像して撮像データを得る撮像手段と、前記撮像手段で得られた撮像データを動画像データに現像する現像手段と、前記動画像データを画像処理する画像処理手段と、前記画像処理手段で処理した動画像データをネットワーク上に送出するネットワーク通信手段と、前記動画像データを構成する1画面分の画像データの更新間隔である1映像期間内に、前記画像処理手段において複数の異なる画像処理を施した動画像データを前記ネットワーク通信手段に出力するように制御する制御手段とを有することを特徴とする撮像装置等を提供する。
本発明によれば、複数の処理ユニットを並列に実装すること無しに1つのコーデックを用いて1映像期間内に複数回の画像処理を行うことができ、ネットワーク上で様々な要求を行うユーザに対して、実時間性を守って複数のサービスを提供することが可能となる。また、複数の処理ユニットを並列に実装すること無しにサービスを提供することが可能になるので、実時間性を失わない範囲で、サービスの内容(映像圧縮方式の種類・解像度・Q値等)を予め処理ユニット数などで制限すること無しに提供をすることができる。
また、画像処理手段に、1映像期間内に複数回の処理パラメータの設定が可能な符号化処理部を具備するようにしたので、ユーザが求める様々な画像パラメータに応じた符号化処理を1映像期間内に1つの処理ユニットの上で実施することが可能となる。例えば、複数のユーザの表示端末上でコマ落ちさせることなく滑らかに異なる品質の動画像を表示させることが可能になる。また、複数の処理ユニットを並列に実装する必要がなくなることから、基板もしくはチップ面積を小さくし、消費電力等も削減できるので、結果として小型の撮像装置を提供することができる。
また、ネットワーク上の利用者からの要求に基づいて1映像期間内に処理可能な処理内容を判別し、画像処理手段に対して少なくとも画像処理の順序又は画像処理の内容を指示する処理性能判断部を更に有するようにしたので、画像圧縮処理などのユニット性能をその性能の極限まで無駄なく利用することが可能になり、1つのコーデックを用いて1映像期間内に、より多くのユーザに実時間性を守って複数のサービスを提供することが可能になる。更に、前記処理性能判断部をネットワーク通信手段に具備するようにしたので、より内部のデータ通信を減らしながら、上記機能を実現することができるようになり、全体としての処理性能の向上や消費電力の削減などを実現することが可能となる。
また、前記画像処理手段に、符号化処理部に加えて更に、1映像期間内に複数回の処理パラメータの設定が可能な画像切出し処理部を具備するようにしたので、符号化処理部を設けた効果に加えて、様々なユーザの要求に応じて1つの高解像度の画像データから任意の位置と任意のサイズを指定して複数の部分領域画像を作成し、1映像期間内におけるそれら複数の部分領域画像データを用いた画像処理を1つの処理ユニットの上で実施することが可能となる。
また、前記画像処理手段に、符号化処理部に加えて更に、1映像期間内に複数回の処理パラメータの設定が可能な解像度変換部を具備するようにしたので、符号化処理部を設けた効果に加えて、1つのコーデックを用いて1映像期間内に複数の領域の画像処理、及び、複数の解像度を持つ画像の画像処理を行うことができる。特に、高解像度の撮影画像の任意領域を切出して解像度変換することによって得られる画像、及び部分的に切出して解像度変換はしない画像など、高解像度の映像からユーザの要求に基づく任意の画角と解像度にした画像を1つのコーデックを用いて1映像期間内に複数のユーザに対して処理することが可能になる。また、複数の映像期間を利用した高解像度データの処理を行うことが可能である。特に、UXGAサイズのJPEG圧縮を連続する2映像期間に割り当て、かつその処理が時間的に連続するように処理順序を制御してサービスを提供することによって、複数の映像期間に跨って高解像度データを保持するためのフレームバッファをその処理専用に設ける必要がなくなり、メモリサイズを節約できるなどの効果を奏する。
また、前記画像処理手段に、前記解像度変換処理後の画像データを一時蓄え、1映像期間内の後続の処理を行うことを可能とするフレームバッファを含むようにしたので、同一画角の画像の解像度変換処理を複数の表示側端末から要求されるような場合に、同じ解像度変換を繰り返したりすることや、必要以上に詳細なデータを元に圧縮することをせずにすむようになるなど、後続の解像度変換処理にかかる時間を短縮することができる。これにより、1映像期間内に1つの処理ユニットの上で実施することができる処理の内容をより充実させることが可能となる。
また、前記画像処理手段に、1つの画像データを符号化処理部と解像度変換部とに時間的に並行して供給するための画像データのDMA機構を有するようにしたので、同一の画角で、異なる解像度の画像を同一映像期間内に処理することを複数の表示側端末から要求される場合に、解像度変換前の元データの読出し回数及び時間を削減することができ、その分のメモリやバスの帯域性能を有効利用できるようになる。特に、高解像度の画像データを利用した画像処理に関係する部分での処理時間を短縮する効果を期待することができ、1映像期間内に1つの処理ユニットの上で実施することができる処理の内容をより充実させることが可能となる。その結果、より多くのユーザからの異なる要求に対応した処理を行うことが可能になる。
また、1つの画像データのうちの前記部分データを除いた残りの部分データを解像度変換部に別途供給し、分割して実施した解像度変換処理の結果得られたデータを1つの画像データとして符号化処理部で処理するようにしたので、画像データのフレームバッファからの読出しにかかる回数及び時間を削減することが可能になる。特に、部分データにおいても並行利用が可能になることにより、高解像度の画像データを利用した画像処理に関係する部分での処理時間を短縮する効果を期待することができ、1映像期間内に1つの処理ユニットの上で実施することができる処理の内容をより充実させることが可能となる。また、部分画像の処理を複数の映像期間で連続的に行う場合に、複数の映像期間にまたがった処理を実施する機能を付け加えることにより、更に処理能力を向上させることが可能になり、複数の映像期間における実行並列度の差による処理能力のばらつきを小さくすることが可能になる。
また、画像データの符号化処理が複数の形式の符号化処理に対応させることにより、更に、1つのコーデックを用いて1映像期間内に複数の符号化方式によるの画像圧縮処理を効率よく実施することが可能になる。特に、複数の形式の符号化処理に対応して、ラスタ/ブロック変換部のデータパスを動的に変更するようにすることにより、複数のラスタ/ブロック変換部を設けることなく複数の形式の符号化処理に対応することが可能となる。これにより、システム全体としてのメモリ利用効率が向上し、チップの小型化が実現し、撮像装置の小型化に繋がる効果が期待される。
以下、添付図面を参照して、本発明の好適な実施形態を詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像装置示すブロック図である。
図1において撮像装置5には画像処理部1、撮像部2、及び通信部3の大きく分けて3つの構成要素が存在する。撮像部2は、映像が入射されるレンズ210、レンズで集められた光を電気信号に変換するセンサー220、センサー220から得られる信号を現像する現像処理部230からなる。
現像された信号は画像データとして画像処理部1に与えられ、そこで符号化などの処理を経た後、通信部3に符号化データとして与えられる。通信部3では、ネットワーク制御部310が入力された符号化データを送出するネットワークの形態に応じてパケット化するなどの処理を行い、ネットワークインタフェース320に対して送信用データとして受け渡す。ネットワークインタフェース320はネットワーク網4に対してそのネットワークの形態に応じた形でデータを送出する。ネットワーク網4はEthernet(登録商標)等の有線LAN、IEEE802.11b等に代表される形式の無線LAN、もしくはISDN等の公衆回線網などを代表的なものとして想定することができる。
なお、本実施形態では図1において画像処理部1、撮像部2、通信部3はそれぞれ別のブロックとして記述しているが、本実施形態を実ハードウェアで構成する際には、これらのブロックをそれぞれ別のICとして実現する、もしくは各部のいくつかの部分(例えば現像処理部230と画像処理部1とネットワーク制御部310)をまとめて1チップ上に実現するなどの様々な実現形態が可能であり、その形態は本実施形態において制限されるものではない。
図2は、画像処理部1の詳細な構成を示すブロック図である。
図2において、画像処理部1にはフレームバッファ10、画像データDMAC(ダイレクトメモリアクセス・コントローラ)20、ラスタ/ブロック変換用メモリ40、コーデック処理部50、符号化データDMAC60、制御用シーケンサ70、画像処理用メモリ11、データバッファ12がそれぞれ示されている。制御用シーケンサ70は、この画像処理部1の中の画像データDMAC20、ラスタ/ブロック変換用メモリ40、コーデック処理部50、符号化データDMAC60とそれぞれ制御用信号線で接続されており、これらの各ユニットの制御を実施する。更に、現像処理部230とは、フレームデータ転送完了割込み信号線、通信部3とは画像−通信部間制御信号71で接続され、相互に信号をやり取りして動きを制御する。また、コーデック処理部50は、画像処理用メモリ11と接続され、このメモリを利用して各種画像処理を実施する。更に、コーデック処理部50は内部にパラメータレジスタ51を持っており、このパラメータレジスタに対して制御用シーケンサ70が書き込んだ値に従って、各種画像処理を実施するものとする。
なお、フレームバッファ10、画像処理用メモリ11、データバッファ12のそれぞれは画像処理部のそれ以外の構成要素が1つのICの中で実現される場合に、それらと同一のIC上のオンチップメモリとして構成することや、ICの外部でそのICと接続されるメモリデバイス(例えばSDR(Single Data Rate)又はDDR(Double Data Rate)のSDRAM(シンクロナスDRAM)など)として実現することが可能である。また、そのメモリもそれぞれを別のメモリデバイス上に配することや1つの同じメモリデバイス上に配置するなど、様々な構成をとることが可能である。
以下、撮像装置5の基本動作等について図1、2を用いて詳細に説明する。
図1において、まず、撮影部2のレンズ210によって集められた光の画像情報がセンサー220によって電気信号として取り込まれる。このセンサー220はCCDイメージセンサー、又はCMOSイメージセンサーなどを利用することが可能である。本実施形態においては、正方画素のプログレッシブ形式のCCDであるとする。また、その有効画素数は640×480のいわゆるVGAサイズであり、1/30秒毎に1フレームのVGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。センサー220で光電変換されて電気信号として取り込まれた画像データは、順次読み出され現像処理部230に渡される。現像処理部230では、センサー220から得られた画像データを信号処理して、輝度信号と色差信号を作り出し、後段で処理しやすい形式にして出力する。仮にここでは、YUV422形式で出力されるものとする。
撮像部2の現像処理部230でYUV422形式にされた画像データは画像処理部1のフレームバッファ10にフレーム単位で格納される。その後の動作を図2及び図3のタイミングチャートを用いて説明する。
現像処理部230から出力されたデータはフレームバッファ10にフレーム単位で格納される。フレームバッファ10は図3に示すように内部はダブルバッファ形式になっており、第n番目のフレームと第n+1番目のフレームの画像データがそれぞれ別の領域(バッファA及びB)に格納されるようになっている。そのため、第nフレームの画像データがある映像期間に例えばバッファAに蓄えられた場合、それを読み出して次の映像期間で利用している間に、第n+1フレームの画像データをバッファBに蓄えていくことが可能になる。
今、第nフレームのフレームバッファ10のバッファAへの蓄積が完了したとする。すると、現像処理部230から制御用シーケンサ70に対してフレームデータの転送完了割込みが発生する(図3矢印1)。
転送完了割込みを受けて、制御用シーケンサ70は、まずコーデック処理部51のパラメータレジスタ51に対してどのような処理をコーデック処理部でおこなうかを指示するためのパラメータをセットする(図3矢印2a)。本実施形態では、このコーデック処理部はJPEGの圧縮処理をおこなうものとする。その場合、例えば映像の圧縮の度合いを示すQ値などがその圧縮のパラメータの代表的な例となる。
パラメータレジスタ51へのパラメータのセットが終了すると、次いで制御用シーケンサ70は画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図3矢印3a)。
指示を受けた画像データDMAC20はフレームバッファ10のバッファAから第nフレームの画像データを順に読み出して、ラスタ/ブロック変換用メモリ40に供給する。コーデック処理部50でJPEGの処理をおこなうためには、8×8の画素のブロック単位でデータを供給する必要があるので、このラスタ/ブロック変換用メモリ40でそのようにデータを変換してコーデック処理部50に供給する(図3矢印4a)。
コーデック処理部50はラスタ/ブロック変換用メモリ40から与えられた画像データをパラメータレジスタ51に設定されたパラメータの値に従ってJPEG圧縮し、符号化データJPEGaとする。なお、本実施形態のこの最初の圧縮ではQ値=Qaとして圧縮しているとする。コーデック処理部50によって圧縮された符号化データは順次符号化データDMAC60に受け渡され、符号化データDMAC60はデータバッファ12に対して一定の単位で符号化データを転送する。そして第nフレームの画像データより作成された全ての符号化データの転送を完了した時点で、制御用シーケンサ70は通信部3に対して符号化データの転送完了割込みを送出する(図3矢印5a)。この割り込み通知は画像−通信部間制御信号71を介して伝達される。
通信部3では符号化データの転送完了割込みを受けて、ネットワーク制御部310がデータバッファ12から符号化データを読み出し、その符号化データを送出するネットワークの形態に応じてパケット化するなどの処理を行い、ネットワークインタフェース320に対して受け渡す。ネットワークインタフェース320はネットワーク網4に対してそのネットワークの形態に応じた形でデータを送出する。
図4は、本実施形態に係る撮像装置5を用いたシステムの構成例を示した図である。
ネットワーク網4には表示端末400が接続され、端末上のビューワ401を利用してユーザは撮像装置5が撮影した画像を表示する。図4では400aから400hまで合計8つの表示端末が存在し(うち5つは図示せず)、それぞれの表示端末上でビューワ401aから401hが動作し、各ユーザがそれを利用しているものとする。
図4に示すようなシステムにおいて、ユーザが接続されるネットワーク環境及びユーザが必要とする画像品質等は様々である。もし、ユーザの求める画像品質がコーデック処理部50のパラメータレジスタ51に対して与えるパラメータの観点から見て同一のパラメータで実現できるようであれば、撮像装置5の通信部3のネットワーク制御部310が個々のユーザの端末に向けてデータを送出するようにする際に、同一の符号化データをコピーしてネットワークインタフェース320に受け渡すことによって複数のユーザに映像データをサービスすることが可能である。
しかし、各ユーザが異なる画像品質のパラメータを要求するような場合においては、そのようにコピーするだけでは実現できない。また、ユーザの表示端末400上でコマ落ちさせることなく滑らかに動画像を表示させるようにするためには、1映像期間内(本実施形態では1/30秒(約33.3ms))の中で各ユーザが求める画像処理をそれぞれ行う必要がある。以下、そのような場合の撮像装置5の動作について図1〜4を用いながら説明する。先に図2、3を用いてその動作の基本は説明しているので、複数ユーザからの要求に答えるための動作と、それを受けての一連の動作の流れを説明する。
いま、図4において表示端末400aから400hを利用している各ユーザが、それぞれ、Q=Qa〜Qhで表されるQ値を持つJPEG画像を欲しているものとする。通信部3のネットワーク制御部310の中にある処理性能判断部311は、各端末から要求の出ている処理の内容を、1映像期間内に全て画像処理部で処理させることが可能であるかどうかの判断を行う。本実施形態では、予め処理内容(処理の種類、扱うデータ量、圧縮度など)から画像処理部の処理性能を評価するテーブルを引き、その結果Q=Qa〜Qhで表されるそれぞれのQ値を持つJPEG画像の処理を行うことが問題ないと判断し、画像処理部に対して処理の指示を出す。この指示は、図2の画像−通信部間制御信号71を利用して画像処理部1の制御用シーケンサ70に対して伝達される。
なお、本実施形態において処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その機能実現のためには、その位置は基本的には本実施形態において制限されるものではない。
仮に、処理性能判断部311が制御用シーケンサ70に組み込まれていた場合には、各端末から要求の出ている処理内容がネットワーク制御部310を経由して、画像−通信部間制御信号71を介して制御用シーケンサ70内の処理性能判断部311に伝達され、その情報を用いて上記判断を実施することになる。但し、この場合は、既に処理性能判断部311が圧縮処理等の画像処理をこれ以上受け入れられないと判断している場合であっても、その判断部は制御用シーケンサ70内部にあるため、新規のユーザ要求が画像−通信部間制御信号71を介して制御用シーケンサ70内の処理性能判断部311にまで伝達され、そのユーザ要求への拒否回答が同じ経路を帰っていくことになる。また、ネットワーク上のユーザからの要求は映像期間とは同期せずに不定期に送付されてくるため、制御用シーケンサ70にもデータが不定期に送信されることになり、制御用シーケンサが予期せぬタイミングの要求に対応しなくてはならなくなるなど、結果として画像処理部1の制御に悪影響を及ぼす可能性がある。
一方、処理性能判断部311がネットワーク制御部310の中にある場合はユーザ要求に対しての処理は基本的にネットワーク制御部310の中で判断され、必要のある場合のみ画像−通信部間制御信号71を介して制御用シーケンサ70に対して要求が伝達される。また、そのデータの伝達タイミングも映像期間と同期した一定のタイミングで与えることが可能である。このように必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は通信部3のネットワーク制御部310の中にあるほうが好ましい。
図3において、Q=Qaの圧縮パラメータを用いた画像圧縮処理が終了し、JPEGaの符号化データの転送完了割込みを送出した(図3矢印5a)ことを制御用シーケンサ70が認識すると、制御用シーケンサ70は次に求められている画像処理のパラメータを調べる。そして、図3のように次に求められている圧縮に利用すべきパラメータQ=Qbをコーデック処理部50のパラメータレジスタ51に対して設定する(図3矢印2b)。
それ以降の動作はQ=Qaの時と同様であり、パラメータレジスタ51へのパラメータのセットが終了すると、次いで制御用シーケンサ70は画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図3矢印3b)。次いで指示を受けた画像データDMAC20はフレームバッファ10のバッファAから第nフレームの画像データを順に読み出して、ラスタ/ブロック変換用メモリ40に供給し、8×8の画素のブロック単位に変換されて画像データはコーデック処理部50に供給される(図3矢印4b)。
コーデック処理部50は、ラスタ/ブロック変換用メモリ40から与えられた画像データをパラメータレジスタ51に設定されたパラメータの値(この時点ではQ=Qb)に従ってJPEG圧縮し、符号化データJPEGbとする。コーデック処理部50によって圧縮された符号化データは順次符号化データDMAC60に受け渡され、符号化データDMAC60はデータバッファ12に対して一定の単位で符号化データを転送する。そして第nフレームの画像データより作成されたQ=Qb時のすべての符号化データ転送を完了した時点で、制御用シーケンサ70は通信部3に対してQ=Qb時のJPEGbの符号化データ転送完了割込みを送出する(図3矢印5b)。
通信部3ではQ=Qb時で処理を行った符号化データの転送完了割込みを受けて、ネットワーク制御部310がデータバッファ12から符号化データを読み出し、Q=Qbでの処理要求を出していた表示端末400bに対して符号化データを送出するようにアドレス処理等を実施する。ネットワークインタフェース320はネットワーク網4を介して表示端末400bに対してデータを送出する。
この一連の動作が個々のユーザが要求する異なるQ値に応じて複数回1映像期間内に繰り返される。本実施形態では、処理性能判断部311が1映像期間内に実現可能であると判断したQaからQhに対応する合計8回のパラメータ設定とそれに伴う画像圧縮処理が1映像期間内に実施されている。このようにすることによって、複数の処理ユニットを並列に実装すること無しに1つのコーデックを用いて1映像期間内に複数回の画像圧縮処理が可能になり、ネットワークの先の様々な要求を持つユーザに対して実時間性を守って複数のサービスを提供することが可能になる。
例えば、複数のユーザの表示端末上でコマ落ちさせることなく滑らかに異なる品質の動画像を表示させることが可能になる。また、複数の処理ユニットを並列に実装する必要がなくなることから、基板もしくはチップ面積を小さくし、消費電力等も削減できるので、結果として小型のネットワークカメラを提供できるようになる。
また、特に処理性能判断部311が的確に判断することによって、画像圧縮処理などのユニット性能をその性能の極限まで無駄なく利用することが可能になり、1つのコーデックを用いて1映像期間内により多くのユーザに実時間性を守って複数のサービスを提供することが可能になる。更に、処理性能判断部311をネットワーク制御部310の中に配することによって、より内部のデータ通信を減らしながら、上記機能を実現することができるようになり、全体としての処理性能の向上や消費電力の削減などの効果がある。
(第2の実施形態)
第1の実施形態においては、ユーザの要求する画像処理の相違はQ値であるとした。しかし、別の局面ではユーザの要求する画像処理はQ値だけにとどまらない場合がある。そのような場合について図1、図4、及び図5から図7を用いて説明する。図1、図4は図としての構成要素は同一であるので第1の実施形態のものを流用する。
図1において、本実施形態では、撮像部2のセンサー220は、全画素読出し方式のCMOSセンサーであり、その有効画素数は1600×1200のいわゆるUXGAサイズであるとする。そして、その画素形態は正方画素であり1/30秒毎に1フレーム分のUXGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。
このような条件下で、図4における各ユーザは、UXGAの画像の内部で任意のVGAサイズ以下の画像領域を設定し、その部分画像を切出して利用しているものとする。UXGAの画像サイズの中でどの部分の画像を切出して利用しているかの例を図5に示す。
図5では、図4の表示端末400aのビューワ401aに表示される画像領域をa、表示端末400bのビューワ401bに表示される画像領域をbというようにして表示端末400hに対応する画像領域hまでが示されている。ここでは、表示端末400aから400fまでのユーザがVGAサイズ(640×480)、表示端末400g及び400hのユーザがQVGAサイズ(320x240)の画像サイズの映像データを利用している。
また、通信部3のネットワーク制御部310の中にある処理性能判断部311は、各端末から要求の出ている処理の内容を、1映像期間内に全て画像処理部で処理させることが可能であるかどうかの判断を行う。本実施形態では、図5で示されている画像領域の全ての切出し処理、及びその映像を利用した画像処理部におけるJPEG画像の処理を行うことが問題ないと判断し、画像処理部に対して処理の指示を出すものとする。
なお、本実施形態において処理性能判断部311は通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。但し、第1の実施形態と同様に必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は通信部3のネットワーク制御部310の中にあるほうが好ましい。
このような前提の下で、本実施形態における画像処理部1の動作を図1及び図4、5を参照しながら図6及び図7を用いて説明する。
図6において、現像処理部230から出力されたUXGAサイズの画像データは、フレームバッファ10にフレーム単位で格納される。フレームバッファ10は、図7に示すように内部はダブルバッファ形式になっており、第n番目のフレームと第n+1番目のフレームの画像データがそれぞれ別の領域(バッファA及びB)に格納されるようになっている。
今、第nフレームのフレームバッファ10のバッファAへの蓄積が完了したとする。すると、現像処理部230から制御用シーケンサ70に対してフレームデータの転送完了割込みが発生する(図7矢印1)。
転送完了割込みを受けて、制御用シーケンサ70は、まず第1の実施形態と同様にコーデック処理部51のパラメータレジスタ51に対してどのような処理をコーデック処理部でおこなうかを指示するためのパラメータをセットする(図7矢印2a)。本実施形態では、このコーデック処理部はJPEGの圧縮処理をおこなうものとする。その場合、例えば映像の圧縮の度合いを示すQ値などがその圧縮のパラメータの代表的な例であり、この時点では表示端末400aが要求しているQ=Qaが設定されたとする。
次いで制御用シーケンサ70は画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図7矢印3a)。その際、制御用シーケンサ70は画像データDMAC20の転送領域設定レジスタ21に対してフレームバッファ10に蓄えられたUXGAの画像データからどの領域を読み出してコーデック処理部50に与えるかを指示するための領域パラメータをセットする。
この領域パラメータは、図6の画像−通信部間制御信号71を利用して予め画像処理部1の制御用シーケンサ70に対してネットワーク上の各表示端末400a〜hより要求がなされているものとする。この時点では、表示端末400aが要求しているVGAサイズの画像(図5の領域a)を示すように、コーデック処理部50に与えるデータの開始位置を示す座標データと、画像サイズ(VGA)を示すデータが制御用シーケンサ70に対して与えられ、制御用シーケンサ70はそれらのデータから求めた転送領域情報を領域パラメータとして転送領域設定レジスタ21に設定する。
領域及びサイズの指示を受けた画像データDMAC20は、フレームバッファ10のバッファAから第nフレームの指定領域の画像データを順に読み出して、ラスタ/ブロック変換用メモリ40に供給する。ラスタ/ブロック変換用メモリ部では8×8のブロック単位にデータを変換してコーデック処理部50に供給する(図7矢印4a)。
コーデック処理部50は、ラスタ/ブロック変換用メモリ40から与えられた画像データをパラメータレジスタ51に設定されたパラメータの値(Q=Qa)に従ってJPEG圧縮し、符号化データJPEGaとする。コーデック処理部50によって圧縮された符号化データは順次符号化データDMAC60に受け渡され、符号化データDMAC60はデータバッファ12に対して一定の単位で符号化データを転送する。そして第nフレームにおいて表示端末400aが指定した領域を構成する画像データより作成されるすべての符号化データの転送を完了した時点で、制御用シーケンサ70は通信部3に対して符号化データの転送完了割込みを送出する(図7矢印5a)。この割り込み通知は画像−通信部間制御信号71を介して伝達される。
通信部3では、符号化データの転送完了割込みを受けて、ネットワーク制御部310がデータバッファ12から符号化データを読み出し、その符号化データを送出するネットワークの形態に応じてパケット化するなどの処理を行い、ネットワークインタフェース320に対して受け渡す。ネットワークインタフェース320はネットワーク網4に対してそのネットワークの形態に応じた形でデータを表示端末400aに向けて送出する。表示端末400aでは受信したデータを展開し、VGAサイズのデータとしてビューワ401aに表示する。
一方、図7において、表示端末400a向けの領域パラメータとQ=Qaの圧縮パラメータを用いた画像圧縮処理が終了し、JPEGaの符号化データの転送完了割込みを送出した(図7矢印5a)ことを制御用シーケンサ70が認識すると、制御用シーケンサ70は次に求められている画像処理のパラメータを調べる。そして、図7のように次に求められている圧縮に利用すべきパラメータQ=Qbをコーデック処理部50のパラメータレジスタ51に対して設定する(図7矢印2b)。
次いで、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出す際に、どの部分のデータをどのようなサイズで読み出すかを表示端末400bからの指示に基づき画像データDMAC20の転送領域レジスタ21に対して設定し、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図7矢印3b)。それ以降の動作は表示端末400aに対して行った処理と同様である。
この一連の動作が個々のユーザが要求する異なるパラメータ(画像領域及びQ値等)に応じて複数回1映像期間内に繰り返される。本実施形態では、図5に示したように異なる切出し位置とサイズ及び圧縮パラメータの指定に基づき、合計8回のパラメータ設定とそれに伴う画像圧縮処理が1映像期間内に実施されている。このようにすることによって、1つのコーデックを用いて1映像期間内に複数の領域の画像圧縮処理が可能になり、ネットワークの先の様々な要求を持つユーザに対して実時間性を守って複数のサービスを提供することが可能になる。また、1つの高解像度の画像から任意の位置と任意のサイズを指定して複数の部分領域画像を作成し、1映像期間内におけるそれら複数の部分領域画像を用いた画像処理が可能となる。
(第3の実施形態)
第1及び第2の実施形態では撮影した元の画像と同じ解像度の画像を扱っている場合を例としたが、撮影した画像と同じ画角の映像を、解像度を落とすことにより小さな画面表示で利用したいという場合も考えられる。
そのような場合について図1、図4、及び図8から図11を用いて説明する。図1、図4は図としての構成要素は同一であるので第1の実施形態のものを流用する。なお、本実施形態では第2の実施形態と同様、図1における撮像部2のセンサー220は、全画素読出し方式のCMOSセンサーであり、その有効画素数は1600×1200のいわゆるUXGAサイズであるとする。そして、その画素形態は正方画素であり1/30秒毎に1フレーム分のUXGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。
図8は、画像処理部1の中に解像度変換部30が存在する場合の構成を示した図である。第2の実施形態の図6と比較すると画像データDMAC20とラスタ/ブロック変換用メモリ40との間のデータパスが2つに分かれ、その片方に解像度変換部が入っている。制御用シーケンサ70は必要に応じてデータパスを切り替え、解像度変換部30を通してデータを供給する。
図9は、本実施形態における画像処理部の動作を示した図であり、図10は、本実施形態における要求されている画角と解像度を示した図である。
図10からわかるように、本実施形態ではUXGAサイズのデータから同じ画角でVGAサイズに変換した画像を圧縮したもの(データa)、UXGAサイズの元データからVGAサイズで切出した画像を圧縮したもの(データb及びc)、そしてUXGAサイズの画像をそのまま圧縮したもの(データd)が要求されているとする。ここでデータaからdは図4における端末400aから400dの要求に対応している。
図8において、現像処理部230から出力されたUXGAサイズの画像データは、フレームバッファ10にフレーム単位で格納される。フレームバッファ10は、図9に示すように内部はダブルバッファ形式になっており、第n番目のフレームと第n+1番目のフレームの画像データがそれぞれ別の領域(バッファA及びB)に格納されるようになっている。
今、第nフレームのフレームバッファ10のバッファAへの蓄積が完了したとする。すると、現像処理部230から制御用シーケンサ70に対してフレームデータの転送完了割込みが発生する(図9矢印1)。
転送完了割込みを受けて、制御用シーケンサ70は、まず第2の実施形態と同様にコーデック処理部51のパラメータレジスタ51に対してどのような処理をコーデック処理部でおこなうかを指示するためのパラメータをセットする(図9矢印2a)。本実施形態では、このコーデック処理部はJPEGの圧縮処理をおこなうものとする。その場合、例えば映像の圧縮の度合いを示すQ値などがその圧縮のパラメータの代表的な例であり、この時点では表示端末400aが要求しているQ=Qaが設定されたとする。
次いで、制御用シーケンサ70は解像度変換部30に対して、画像データDMAC20から入力されるUXGAサイズの画像データをVGAサイズに解像度変換するように指示をする(タイミング図示せず)。どのようなサイズに解像度変換するかについては図8の画像−通信部間制御信号71を利用して予め画像処理部1の制御用シーケンサ70に対してネットワーク上の表示端末400aより要求がなされているものとする。
次いで、制御用シーケンサ70は、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、解像度変換部30を経由してコーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図9矢印3a)。本実施形態のこの時点においては、UXGAの全データを読み出して解像度変換部30に入力する必要があるので、そのように領域パラメータを転送領域設定レジスタ21に設定する。本実施形態では特に説明しないが、もし、ここでUXGAの領域のうち部分的に領域を指定して転送領域設定レジスタ21に設定した場合には、その領域のデータを読み出して解像度変換部30に与えることによって、任意の領域の画像を解像度変換できるようにすることが可能である。
そのようにしてデータの転送が画像データDMAC20によりフレームバッファ10から解像度変換部30に対して開始されると、解像度変換部30は、UXGAからVGAへの解像度変換作業を開始する(図9矢印4)。そして、解像度変換を終了した画像データから順に、ラスタ/ブロック変換用メモリ40に供給する。ラスタ/ブロック変換用メモリ部では8×8のブロック単位にデータを変換してコーデック処理部50に供給する(図9矢印5)。
コーデック処理部50は、ラスタ/ブロック変換用メモリ40から与えられた画像データをパラメータレジスタ51に設定されたパラメータの値(Q=Qa)に従ってJPEG圧縮し、符号化データとする。このデータaの符号化に要する時間が他のVGAの符号化処理に比べて多く要しているのは、本実施形態においては、VGAの元データとなるべきUXGAのデータをフレームバッファ10から読み出してVGAに解像度変換する部分が全体の処理速度を決める要因となっているからである。
コーデック処理部50によって圧縮された符号化データは、順次符号化データDMAC60に受け渡され、符号化データDMAC60はデータバッファ12に対して一定の単位で符号化データを転送する。そしてVGAを構成する全ての符号化データの転送を完了した時点で、制御用シーケンサ70は通信部3に対して符号化データの転送完了割込みを送出する(図9矢印6a)。この割り込み通知は画像−通信部間制御信号71を介して伝達される。
通信部3では、符号化データの転送完了割込みを受けて、ネットワーク制御部310がデータバッファ12から符号化データを読み出し、その符号化データを送出するネットワークの形態に応じてパケット化するなどの処理を行い、ネットワークインタフェース320に対して受け渡す。ネットワークインタフェース320はネットワーク網4に対してそのネットワークの形態に応じた形でデータを表示端末400aに向けて送出する。表示端末400aでは受信したデータを展開し、VGAサイズのデータとしてビューワ401aに表示する。
一方、図9において、表示端末400a向けの解像度変換とQ=Qaの圧縮パラメータを用いた画像圧縮処理が終了し、JPEG:VGA−aの符号化データの転送完了割込みを送出した(図9矢印6a)ことを制御用シーケンサ70が認識すると、制御用シーケンサ70は次に求められている画像処理のパラメータを調べる。そして、ここではQ=Qbをコーデック処理部50のパラメータレジスタ51に対して設定する(図9矢印2b)。
次いで、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出す際に、図10のbで示されるVGAデータの開始座標とサイズ(VGA)から求められる転送領域情報を、表示端末400bからの指示に基づき画像データDMAC20の転送領域レジスタ21に対して設定する。その上でコーデック処理部50に対して、データを供給するための転送を開始するように指示をする(図9矢印3b)。それ以降の動作は第2の実施形態の表示端末400aに対して行った処理と同様であり、それが端末400cに対する切出しVGA画像データcの圧縮に関しても同様に実施される。
図9において、表示端末400c向けの画像圧縮処理が終了し、JPEGcの符号化データの転送完了割込みを送出した(図9矢印6c)ことを制御用シーケンサ70が認識すると、制御用シーケンサ70は、次に求められている画像処理のパラメータを調べる。ここでは、次に要求されている動作は、UXGAサイズの画像データdをその解像度のままJPEG圧縮して端末400dに対して送ることである。
しかし、UXGAの画像データをそのまま圧縮して送ることは全体のシステム、特にコーデック処理等に非常に負荷をかけるので、本実施形態では、UXGA画像の1/2だけをこの1映像期間内に処理して、残りの1/2に関しては次の映像期間に実施することにしている。この判断は、予め通信部3のネットワーク制御部310の中にある処理性能判断部311によって判断され、その条件でよければサービスを開始することを表示端末400dのユーザに通知し、また、この映像を要求している端末400dのユーザもその条件を了解しているものとする。
その処理の手順は、他の画像の処理と同様に、圧縮に利用すべきパラメータQ=Qdのコーデック処理部50のパラメータレジスタ51に対する設定(図9矢印2d)、画像データDMAC20に対する転送領域レジスタ21の設定及び画像データの転送開始指示(図9矢印3d)となる。そして、画像データの転送が開始されると(図9矢印8)、コーデック処理部50は、指示されたパラメータを用いてJPEG圧縮を開始する。そしてUXGAの1/2のデータを圧縮してデータバッファ12に転送し終えた時点において、制御用シーケンサ70はデータバッファ通信部3に対してJPEGdの符号化データの転送完了割込みを送出する(図9矢印6d)。
このように1枚分のデータが完成する前に一旦処理を中断してその処理を通信部3に渡すことによって、データ通信における負荷の平準化などを通信部3側で考慮して配送することが可能になる。
図11は、UXGAサイズの画像をJPEG圧縮する際に、連続する2つの映像期間を利用して実施する場合の動作を示した図である。
映像期間[1]は、図9の内容と同一である。映像期間[1]の後半でUXGAサイズデータのJPEG圧縮のうち1/2を行った場合、続く映像期間[2]でUXGAサイズデータのJPEG圧縮の残りを実施する必要がある。この場合、圧縮に利用する画像データは第nフレームのものであるが、その第nフレームの画像データはフレームバッファ10を構成するダブルバッファのうちバッファAに保存されているものである。
映像期間[2]においてバッファAは、基本的には第n+2フレームのデータが入力されてくる領域であるので、第n+2フレームのデータによって第nフレームのデータが書き潰されないうちにUXGAサイズデータのJPEG圧縮の残り1/2を実施しなければならない。そのため、この圧縮の処理は映像期間[1]と違って映像期間[2]の先頭に位置するようにしている。また、このような順序で処理することによって、通信部3へのデータの受け渡しも連続したものとなり、その扱いがより簡単化される。
なお、本実施形態において処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。もし、処理性能判断部311が制御用シーケンサ70に組み込まれていた場合には、各端末から要求の出ている処理内容がネットワーク制御部310を経由して、画像−通信部間制御信号71を介して制御用シーケンサ70に伝達され、その情報を用いて上記判断を実施することになる。そして、判断結果のサービス提供の可否は画像−通信部間制御信号71を介してネットワーク制御部310に伝達され、ネットワーク制御部310が各端末にその情報を送信することになる。
但し、第1の実施形態と同様に必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は通信部3のネットワーク制御部310の中にあるほうが好ましい。
このようにすることによって、1つのコーデックを用いて1映像期間内に複数の領域の画像圧縮処理、及び、複数の解像度を持つ画像の画像圧縮処理を行うことができる。特に、高解像度の撮影画像の任意領域を切出して解像度変換することによって得られる画像、及び部分的に切出して解像度変換はしない画像など、高解像度の映像からユーザの希望に基づく任意の画角と解像度にした画像を1つのコーデックを用いて1映像期間内に複数ユーザに対して処理することが可能になる。
また、本実施形態では、複数の映像期間を利用した高解像度データの処理を可能にしている。特に、本実施形態ではUXGAサイズのJPEG圧縮を連続する2映像期間に割り当て、かつその処理が時間的に連続するように処理順序を制御してサービスをしている。このようにすることによって、複数の映像期間に跨って高解像度データを保持するためのフレームバッファをその処理専用に持たなくてもすむようになり、メモリサイズを節約できるなどの効果がある。
但し、この処理順序の割り当て方法等は固定的なものではなく、他の処理に先んじて1映像区間の先頭で処理するなどユーザへのサービスポリシなどに応じて変更され得るものである。
また、2以上の期間に跨って処理が必要になる場合は、複数映像期間に跨ってフレームデータが保持できるように、フレームバッファを構成することも可能であり、その持ち方はこの実施形態により制限されるものではない。
(第4の実施形態)
第3の実施形態では、解像度変換を行った画像をそのまま順次圧縮処理していたため、解像度変換後の画像は1回しか利用できなかったが、場合によっては元画像に同じ解像度変換を行った画像に対して、異なる圧縮のパラメータで圧縮したいという要求がくることも考えられる。その場合、同じ解像度変換を2回実施することも一手法であるが、特に元データの画像解像度が高い場合には、その元画像のフレームバッファからの読出し及び解像度変換に時間を要することになり、1映像期間内に処理できる性能を下げることになる。
それを避けるために、後続の処理で同一の解像度変換処理を必要とする場合、もしくは一旦解像度変換した画像を利用して更なる解像度変換処理を実施することが有効である場合には、解像度変換した後の画像をコーデック処理部への処理に向けると同時に、一旦フレームバッファに貯めて後の処理で利用することが考えられる。そのような場合に関して図1、図4、及び図12から図14を用いて説明する。
図1、図4は図としての構成要素は同一であるので第1の実施形態のものを流用する。なお、本実施形態では第2の実施形態と同様、図1における撮像部2のセンサー220は、全画素読出し方式のCMOSセンサーであり、その有効画素数は1600×1200のいわゆるUXGAサイズであるとする。そして、その画素形態は正方画素であり1/30秒毎に1フレーム分のUXGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。
図12は、画像処理部1の中に解像度変換部30の処理後のデータを一旦蓄積するためのフレームバッファ(2)13が存在する場合の構成を示した図である。第3の実施形態の図8と比較すると、フレームバッファ(2)13が機能ブロックとして追加され、解像度変換部30からのデータパスと画像データDMAC20へのデータパスが追加されている。
なお、このフレームバッファ(2)13は、フレームバッファ10、画像処理用メモリ11、データバッファ12と同様に、画像処理部のそれ以外の構成要素が1つのICの中で実現される場合に、それらと同一のIC上のオンチップメモリとして構成することや、ICの外部でそのICと接続されるメモリデバイス(例えばSDR又はDDRのSDRAMなど)として実現することが可能である。また、そのメモリもそれぞれを別のメモリデバイス上に配することや1つの同じメモリデバイス上に配置するなど、様々な構成をとることが可能である。
図13は、本実施形態における画像処理部の動作を示す図であり、図14は、本実施形態における要求されている画角と解像度を示す図である。図14からわかるように、本実施形態では、UXGAサイズのデータから同じ画角でVGAサイズに変換した画像を異なる2種の圧縮パラメータで圧縮するもの(データa、b)、更に、それと同じ画角でQVGAサイズの画像(データd)、UXGAサイズの元データからVGAサイズで切出した画像を圧縮したもの(データc)、そしてUXGAサイズの画像をそのまま圧縮したもの(データe)が要求されているとする。ここでデータaからeは図4における端末400aから400eの要求に対応している。
図13において、画像の処理の流れは途中までは第3の実施形態の図9と同じである。異なるのは、解像度変換部30がUXGAからVGAへの解像度変換作業を開始すると(図13矢印4a)、解像度変換を終了した画像データから順に、ラスタ/ブロック変換用メモリ40に供給すると同時に、フレームバッファ(2)13に転送してVGA画像の蓄積を開始することである。図13矢印9)。解像度変換した画像をフレームバッファ(2)13に蓄積するかどうかの判断に関しては、ネットワーク上の各表示端末からの要求に基づいて、ネットワーク制御部310から画像−通信部間制御信号71を利用して予め画像処理部1の制御用シーケンサ70に対して設定がなされているものとする。
コーデック処理部50は、ラスタ/ブロック変換用メモリ40から与えられた画像データ(図13矢印5a)をパラメータレジスタ51に設定されたパラメータの値(Q=Qa)に従ってJPEG圧縮して符号化データJPEG:VGA−aとし、それを符号化データDMAC60が順次データバッファ12に転送する。そして、すべての符号化データの転送を完了した時点で、制御用シーケンサ70は、データバッファ通信部3に対して符号化データの転送完了割込みを送出する。(図12矢印6a)この割り込み通知は画像−通信部間制御信号71を介して伝達される。この画像は、通信部3が端末400aに対して送信する。
次いで、制御用シーケンサ70は、次に求められている画像処理のパラメータ及び画角、解像度を調べる。そして、次に求められている圧縮に利用すべきパラメータQ=Qbをコーデック処理部50のパラメータレジスタ51に対して設定する(図12矢印2b)。
次いで、画像データDMAC20に対して、先にVGAに解像度変換したデータを利用して画像の圧縮処理をするべく、転送領域レジスタ21に対してデータの転送元をフレームバッファ(2)13に設定し、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図12矢印3b)。画像データDMAC20は、フレームバッファ(2)13よりVGAデータを読出し、それをラスタ/ブロック変換用メモリ40を経由してブロック化したのち、コーデック処理部50に供給する。コーデック処理部50は設定されているパラメータQbを利用して圧縮処理を実施していく。
その後、一旦VGAサイズの切出し画像の圧縮を行った後、次に元のUXGA画像と同じ画角でQVGAサイズの画像データ(データd)の処理を要求されている。既に同じ画角のVGA画像がフレームバッファ(2)13に蓄えられており、要求されているQVGA画像は蓄えられているVGA画像を利用して解像度変換することで容易に作成することができる。
そこで、制御用シーケンサ70は、まず、解像度変換部30に対してVGA⇒QVGA変換をし実施するように指示をする(タイミング図示せず)。次いで、画像データDMAC20に対して、既にVGAに解像度変換したデータを利用して画像の解像度変換をするように、転送領域レジスタ21に対してデータの転送元をフレームバッファ(2)13に設定し、解像度変換部30に対してデータを供給するための転送を開始するように指示をする(図12矢印3d)。
画像データDMAC20は、フレームバッファ(2)13よりVGAデータを読出し、それを解像度変換部30に供給する。解像度変換部30でVGAからQVGAに変換された画像データは、ラスタ/ブロック変換用メモリ40を経由してブロック化されたのち、コーデック処理部50に供給される(図12矢印5d)。コーデック処理部50は設定されているパラメータQdを利用して圧縮処理を実施していく。以降は、第3の実施形態と同様であるので、説明を省略する。
なお、本実施形態においても処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に、例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。但し、第1の実施形態と同様に、必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は、通信部3のネットワーク制御部310の中にあるほうが好ましい。
このようにすることによって、第3の実施形態での効果に加えて、1つのコーデックを用いて1映像期間内に複数の領域の画像圧縮処理を効率よく実施することが可能になる。特に、解像度変換した画像をコーデック処理部で利用するのと並行してフレームバッファに蓄積することができるようにすることで、同一画角の画像の解像度変換処理を複数の表示側端末から要求されるような場合に、同じ解像度変換を繰り返したりすることや、必要以上に詳細なデータを元に圧縮することをせずにすむようになり、1映像期間内における処理性能を向上させ、より多くのユーザからの異なる要求に対応した処理を行うことが可能になる。
(第5の実施形態)
第4の実施形態では、UXGA画像からVGA画像を作り、その作ったVGAの画像をコーデック処理用にラスタ/ブロック変換用メモリ40に渡すと同時に、別途フレームバッファ(2)に蓄積をしていた。この場合、処理の流れとしては、解像度変換とブロック化及びコーデック処理とは時間的に直列に処理されている。一方、UXGAの画像と、それと同じ画角でVGAサイズに解像度変換をした2つの画像のデータ処理が同じ映像期間内に求められるような場合では、UXGAの画像圧縮を行った後で、解像度変換のために再度UXGAのデータをフレームバッファから読み出していたのでは、フレームバッファからUXGA画像データの読出しを繰り返すことになり、非常に効率が悪いものとなる。
そこで、ある画角の映像のコーデック処理が求められ、同じ画角の映像を解像度変換して得られる画像のコーデック処理をそれと同じ映像期間内に実施することを必要とする場合に、解像度処理とコーデック処理とを時間的に並列に処理することで、フレームバッファからのデータの読出しを1回に押さえながらコーデック処理と解像度処理を行えるようにすることが考えられる。本実施形態では、そのような場合に関して図1、図4、図12、及び図15から図20を用いて説明する。
図1、図4は図としての構成要素は同一であるので第1の実施形態のものを流用する。また、図12は第4の実施形態のものを流用する。なお、本実施形態では第2の実施形態と同様、図1における撮像部2のセンサー220は、全画素読出し方式のCMOSセンサーであり、その有効画素数は1600×1200のいわゆるUXGAサイズであるとする。そして、その画素形態は正方画素であり1/30秒毎に1フレーム分のUXGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。また、図12に関する説明は構成ブロック的には、第4の実施形態と同一であるでその詳細は省略する。
図15は、本実施形態における画像処理部の動作を示す図であり、図16に本実施形態における要求されている画角と解像度を示す図である。
図16からわかるように、本実施形態では、UXGAサイズの画像データを圧縮したもの(データa)、UXGAサイズの画像と同じ画角でVGAサイズに変換した画像を圧縮するもの(データb)、更にそれと同じ画角でQVGAサイズの画像(データc)、UXGAサイズの元データからVGAサイズで切出した画像を圧縮したもの(データd)が要求されている。ここでデータaからdは、図4における端末400aから400dの要求に対応している。
処理性能判断部311は、重複している画角や並列化動作させることができる部分がどこにあるかを判断して、画像処理部1の能力を最大限発揮できるような形で画像処理部1の動作シーケンスを決定し、画像−通信部間制御信号71を利用して制御用セシーケンサ70に対して動作の指示をする。以下、その画像制御部1の動作について説明する。
図12において、現像処理部230から出力されたUXGAサイズの画像データは、フレームバッファ10にフレーム単位で格納される。フレームバッファ10は、図15に示すように内部はダブルバッファ形式になっており、第n番目のフレームと第n+1番目のフレームの画像データがそれぞれ別の領域(バッファA及びB)に格納されるようになっている。
今、第nフレームのフレームバッファ10のバッファAへの蓄積が完了したとする。すると、現像処理部230から制御用シーケンサ70に対してフレームデータの転送完了割込みが発生する(図15矢印1)。
転送完了割込みを受けて、制御用シーケンサ70は、まずコーデック処理部51のパラメータレジスタ51に対してどのような処理をコーデック処理部でおこなうかを指示するためのパラメータをセットする(図15矢印2a)。本実施形態では、このコーデック処理部はJPEGの圧縮処理を行うものとする。その場合、例えば映像の圧縮の度合いを示すQ値などがその圧縮のパラメータの代表的な例であり、この時点では表示端末400aが要求しているQ=Qaが設定されたとする。
次いで、制御用シーケンサ70は、解像度変換部30に対して、画像データDMAC20から入力されるUXGAサイズの画像データをVGAサイズに解像度変換するように指示をする。これはデータaの圧縮用に読み出されたUXGAのデータを利用してデータbの解像度変換も同時に行うためのものである(タイミング図示せず)。本実施形態では、画像圧縮処理と解像度変換処理とを並列的に行う必要があるが、その動作の並列処理の必要性などに関しては、ネットワーク上の各表示端末からの要求に基づいて、ネットワーク制御部310から画像−通信部間制御信号71を利用して予め画像処理部1の制御用シーケンサ70に対して設定がなされているものとする。
次いで、制御用シーケンサ70は、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、データを供給するための転送を開始するように指示をする(図15矢印3a)。本実施形態では、フレームバッファ10から読み出したデータを解像度変換部30とラスタ/ブロック変換用メモリ40に並列に供給する必要があるので、そのようにパラメータを転送領域設定レジスタ21に設定する。
ここでの画像データDMAC20の動作の詳細を図17、18を用いて説明する。
ここで、画像データはYUV422形式で入力されているものとし、U00011213…のような順序でフレームバッファ10上に格納されているとする。Y、U、Vのそれぞれのデータは各8ビットである。図17において画像データDMACはそのデータを64ビット単位でフレームバッファ10から読出し、64bitFIFOレジスタ22に格納する。
64bitFIFOレジスタ22には、データが8Byte単位で格納される。64bitFIFOレジスタ22の読出し側は、その出力先が2系統に分かれている。1つはラスタ/ブロック変換用メモリ40であり、こちらは1クロックで8Byte幅のデータを読み込むことができる。2つ目は解像度変換部30であり、こちらはY、U、Vの各sample単位(8ビット)でデータを受信していく。
図18は、64bitFIFOレジスタ22とそのデータの出力先であるラスタ/ブロック変換用メモリ40及び解像度変換部30とのデータのやり取りを示した図である。
64bitFIFOレジスタ22は、基本的にはrclk1の立ち上がりエッジで新しいデータがそのFIFOの読出しポート24に64bit幅単位で読み出されるようになっている。例えば、図18の[1]及び[4]のタイミングでFIFO読出しポート24に新しい値が更新されている。
ラスタ/ブロック変換用メモリ40は、FIFOの読出しポートの値が更新されると、wclk1の立ち上がりエッジでその内部にデータを取り込む。ここでは、図18の[2]及び[5]のタイミングでデータが読み込まれている。
一方、解像度変換部30は、データを各sample単位(Y、U、Vのいずれかを構成する8bit深さのデータ)単位で受信する必要がある。ここでは、図17及び18中のFIFOの読出しポート24の中に斜線で示した部分が解像度変換部30への出力ポートであるとする。解像度変換部30は、srclkの立ち上がりエッジごとに8bit単位でこのポートから画像データを読み込んでいく。
例えば、[2]の立ち上がりエッジではU0を、[3]ではY0を読み込んでいる。同時にFIFOの読出しポートでは、srclk毎にデータが図の下方向に8bit単位でシフトされ、次の読出しに備えてデータが更新される。srclk、rclk1、wclk1それぞれのタイミングの関係は、図18に示したとおりである。このようにすることによって、一度のフレームバッファからの読出しでラスタ/ブロック変換処理及びコーデック処理と解像度処理を行えるようにすることができる。
なお、これらのsrclk、rclk1、wclk1は、それぞれ図17に示すように画像データDMAC20の中のクロック制御部23によって制御される信号である。クロック制御部は、制御用シーケンサ70によって、どのようなクロックタイミングで各クロックを動かすのが一番効率的かの指示を受け、本実施形態においては、図18に示したような位相関係を持って64bitFIFOレジスタ22とそのデータの出力先であるラスタ/ブロック変換用メモリ40及び解像度変換部30とのデータのやり取りを制御している。
以上のようにして、データの転送が画像データDMAC20によりフレームバッファ10からラスタ/ブロック変換用メモリ40に供給されると、ラスタ/ブロック変換用メモリ部では8×8のブロック単位にデータを変換してコーデック処理部50に供給し、コーデック処理部は圧縮処理を開始する(図15矢印4a)。
図19は、ラスタ/ブロック変換用メモリ40の構成を示した図である。
まず、画像データDMAC20の64bitFIFOレジスタ22の読出しポート24から、wclk1信号に同期してラスタ形式の画像データがデータ受信部41に格納される。データ受信部でY、U、Vの各信号に分離されたデータは、それぞれの信号用のセレクタ42、43、44へ送られる。
各信号用のセレクタ内部では、分離されたデータを、ブロックの横方向単位(8sample)になるようにそれぞれ結合し、8sample分のデータがたまるとそれぞれのラスタ/ブロック変換用ラインメモリに送付する。それぞれ、Y0ラスタ/ブロック変換用ラインメモリ45−1及びY1ラスタ/ブロック変換用ラインメモリ45−2、U0ラスタ/ブロック変換用ラインメモリ46−1及びU1ラスタ/ブロック変換用ラインメモリ46−2、V0ラスタ/ブロック変換用ラインメモリ47−1及びV1ラスタ/ブロック変換用ラインメモリ47−2のダブルバッファ構成になっており、それぞれのラインメモリは、64bit幅のメモリが8ライン分束になった形で構成されている。
コーデック処理部50にデータを転送する際は、Y、U、V各ラインメモリのうちのそれぞれ片方が8ライン分全て充填された段階で、右端から順に読み出していく。その際はまずマクロブロック転送用バッファ48に各ラインから右端に来ているデータを一列分読み出す。この段階で1つのブロックを構成する横方向8sample、縦方向8ライン分の合計64sample分のデータが準備できることになる。そしてY信号のブロック2ブロック、U信号のブロック1ブロック、V信号のブロック1ブロックの順で繰り返し読み出してコーデック処理部50にデータを転送する。このコーデック処理部50への読出しの最中においても、ダブルバッファ構成をとっているため、読み出していない各ラインメモリへのデータ充填が可能となっている。コーデック処理部は、圧縮処理を開始すると同時に、解像度変換部も解像度変換処理を開始する(図15矢印5a)。
図20は、解像度変換部30の構成を示した図である。
解像度変換部30には、srclkに従って、8bit幅のY、U、Vの各信号がU00011213…のような順番で入力される。その信号を受けて、まずセレクタ34が信号をY信号とU/V信号の2つに振り分ける。そして、Y信号はY信号用ラインバッファ36に、U/V信号はU/V信号用ラインバッファ31にそれぞれ入力される。各ラインバッファは1クロックごとにデータが8bit(1sample分)だけシフトしていく。
そして、U/V信号に関しては、横方向変換部への入力位置にあるレジスタ位置までシフトしてきたあるタイミングで、U012…(利用するsample数は必要となる解像度変換によって変わる。以下同様)のデータをU/V用横方向変換部32にかけて、その演算結果をU信号用バッファ33−1に格納する。その次のタイミングでは、レジスタが1つシフトするのでV012…のデータをU/V用横方向変換部32にかけて、その演算結果をV信号用バッファ33−2に格納する。そしてその次は、U123…というようにUとVのデータを交互に処理していく。
一方、Y信号に関しては、あるタイミングでY0123…のデータをY用横方向変換部37にかけて、その演算結果をY信号用バッファ38に格納する。その次のタイミングではY1234…のデータを処理するというように、U/Vのデータをそれぞれ1画素分処理していく間に、Yのデータは2画素分の処理を実行していく。このようにしてU/VとYの信号を並列処理していくことによって、YUV422の形式のデータを信号間のタイミングを合わせながら解像度変換をしていくことが可能になる。
その後、縦方向のU信号用バッファ33−1、V信号用バッファ33−2、及びY信号用バッファ38に横方向解像度変換処理を済ませた各データが溜まってくると、今度はそれを縦方向の解像度変換器にかけて縦方向の解像度変換を行う。U/V用縦方向変換部35は、U及びVのデータを交互に処理していく。横方向と同様に、Y用縦方向変換部39は、U/V用縦方向変換部35がU/Vのデータを各1画素分処理していく間に、Yのデータ2画素分の処理を実行する。
このようにして解像度変換された画像データは、本実施形態においては、フレームバッファ(2)13に送られて、次の圧縮処理を待つことになる。第4の実施形態で示したように、もし解像度変換を行ったデータを蓄積すると同時に、圧縮処理にも利用するのであれば、処理をしたデータはラスタ/ブロック変換用メモリ40に向けても出力することになる。
再び図15において、上記のようにしてラスタ/ブロック変換及びコーデック処理と解像度変換処理が並行して実施される。作成されたVGAのデータは、フレームバッファ(2)13に蓄積され、次のVGAデータを利用した処理の開始を待つ。一方、コーデック処理部50はラスタ/ブロック変換用メモリ40から与えられた画像データをパラメータレジスタ51に設定されたパラメータの値(Q=Qa)に従ってJPEG圧縮し、圧縮された符号化データJPEGaは順次符号化データDMAC60に受け渡され、符号化データDMAC60はデータバッファ12に対して一定の単位で符号化データを転送する。
そしてすべての符号化データの転送を完了した時点で、制御用シーケンサ70は、通信部3に対して符号化データの転送完了割込みを送出する。(図15矢印6a)この割り込み通知は画像−通信部間制御信号71を介して伝達される。通信部3はこの割り込みを受けてJPEGaのデータを端末400aに向けて送信する。
UXGAの画像圧縮が終了すると、今度は先に解像度変換してフレームバッファ(2)13に蓄積されたVGAサイズの画像データを用いた処理が開始される。画像データDMAC20は、VGAサイズの画像データをフレームバッファ(2)13から読み出して処理を開始する(図15矢印3b)。今度も、このVGAデータを利用してコーデック処理部50での処理と、解像度変換部30によるVGA⇒QVGAデータの解像度変換処理が並行して実施される(図15矢印4b、5b)。解像度変換部30で作成されたQVGAデータはフレームバッファ(2)13に蓄積され、その次の圧縮処理に利用される。これ以降の処理に関しては、先に説明した部分と同じ動作であるので説明を省略する。
なお、本実施形態において処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。但し、第1の実施形態と同様に必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は、通信部3のネットワーク制御部310の中にあるほうが好ましい。
このようにすることによって、第4の実施形態での効果に加えて、1つのコーデックを用いて1映像期間内に複数の領域の画像圧縮処理を効率よく実施することが可能になる。特に、フレームバッファから読み出した映像をコーデック処理部と解像度変換部とで並列して利用することで、同一の画角で、異なる解像度の画像を同一映像期間内に処理することを複数の表示側端末から要求される場合に、解像度変換前の元データの読出し回数を削減することが出来、その分のメモリやバスの帯域性能を有効利用できるようになり、1映像期間内における複数画像を処理する場合に、その処理性能をより向上させることが可能になる。その結果、より多くのユーザからの異なる要求に対応した処理を行うことが可能になる。
(第6の実施形態)
第3の実施形態においては、1映像期間内においてUXGAサイズの1/2及びUXGA画像と同一の画角でVGAの解像度に解像度変換した画像、UXGAサイズの画像からVGAサイズで切出した画像2種の処理を実施するものであった。第3の実施形態においては解像度変換部とコーデック処理部が並列に動くことは想定していなかったが、第5の実施形態に示したように解像度変換部とコーデック処理部が並列に動くことが可能な場合には、更に解像度変換を複数回に分離して実施する機能、及び部分画像の処理を連続的に行う場合に、複数の映像期間にまたがった処理を実施する機能を付け加えることにより、更に処理能力を向上させることが可能になる。
そのような場合に関して図1、図4、図12及び図21から図23(a)及び(b)を用いて説明する。
図1、図4は、図としての構成要素は同一であるので第1の実施形態のものを流用する。また、図12は図としての構成要素は同一であるので第4の実施形態のものを流用する。なお、本実施形態では第2の実施形態と同様、図1における撮像部2のセンサー220は、全画素読出し方式のCMOSセンサーであり、その有効画素数は1600×1200のいわゆるUXGAサイズであるとする。そして、その画素形態は正方画素であり1/30秒毎に1フレーム分のUXGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。
図21は、本実施形態における要求されている画角と解像度を示した図である。
基本的に要求されている画像は第3の実施形態(図10)と同じであるが、本実施形態では処理性能が向上するので、処理性能判断部311は新たにUXGAサイズの元データからVGAサイズで切出した画像データeを処理対象として加わえている。また、UXGAサイズの画像をそのまま圧縮したもの(データd)は他の画像に比べて1/2のフレームレートでの処理が要求されているとする。ここでデータaからeは図4における端末400aから400eの要求に対応している。
図22にその処理の流れを示す。本実施形態においては、処理性能判断部311は、同一の画角の画像で解像度が異なる画像の処理を要求された場合、1回のフレームバッファからの読出しを利用してコーデック処理と解像度変換処理が並列にできる部分がないかを調べる。そして、並列にできる部分があった場合には、その並列化して実施できる部分が部分画像であるかどうかを調べる。
例えば、本実施形態のように、第1の映像期間中に1/2UXGAサイズの画像データ(データd)の圧縮と、UXGAサイズの元データの画像からVGAサイズの画像に解像度変換した画像(データa)の圧縮を要求されている場合、1/2UXGAサイズの画像データの圧縮を行う際にフレームバッファから読み出す画像データを用いて、並列にUXGA⇒VGAの解像度変換のうち前半半分を実施することが可能である。そのような場合、処理性能判断部311は制御用シーケンサ70に対して、並列にできる部分を並列に実行し、その結果を受けて、残りの処理を補完させるように指示をする。
以下、その指示内容に従って制御用シーケンサ70が画像処理部1の各構成要素を制御して処理を実行する様子について説明する。
基本的な処理の流れは第5の実施形態とほぼ同じであるが、今回は最初に圧縮される画像がUXGAサイズの1/2の画像であり、その処理と並行して後続の処理で必要となるUXGA⇒VGA画像の解像度変換のうち、圧縮用に読み出される1/2UXGA画像のデータを処理して作ることのできる1/2VGAサイズに対応する処理が実施されている(図22矢印5d)。作成された1/2VGA画像はフレームバッファ(2)13へ保存される。
そして、UXGA1/2分の処理が終わると、(図22矢印6d)制御用シーケンサ70は次いでUXGAサイズの画像dと同じ画角をもつVGAサイズ画像aの処理を開始する。まず、制御用シーケンサ70はフレームバッファ(2)13から画像を読み出して、既に解像度変換が終了した1/2VGAの部分に関してコーデック処理を行うようにするために、画像データDMAC20に対して転送の指示を出す(図22矢印3a)。その転送を受けてコーデック処理部50圧縮処理を開始する(図22矢印4a)。
フレームバッファ(2)13に蓄えられていた1/2VGAの部分を利用した処理が終了すると、次いで制御用シーケンサ70は、後半1/2分のVGA画像を作って圧縮処理を行うため、画像データDMAC20に対して解像度変換の元データとなるべき後半の1/2UXGAのデータを解像度変換部30に対して転送するように指示を出す(図22矢印7a)。そして後半1/2UXGAのデータを受けて、解像度変換部30は残りのUXGA⇒VGA変換を開始する(図22矢印8a)。
解像度変換された画像データは、ラスタブロック変換を経てコーデック処理部50に送られ、コーデック処理部はVGAデータの後半部の圧縮処理を実施する。その後の処理は今までの実施形態における説明と重複するのでここでは省略する。
次に、連続した2映像区間に渡ってこの処理を行う場合の図を図23に示す。ここではUXGAの画像を1/2ずつ2つの連続する映像区間で処理することが要求されているのでそのように処理をしている。図23(a)では、この処理をそれぞれ1映像期間の区切りの範囲内で実施するようにスケジュールした場合を示している。
図23(a)の[1]の映像期間は図22と同一の内容を示している。この場合、[2]の映像期間では、[1]の映像期間で行った第nフレームのUXGA画像の後半1/2の圧縮処理を行うことになるが、この画像は[2]の映像期間で要求されている第n+1フレームのVGA画像とは異なるものであるので、解像度変換処理とコーデック処理とを並列に実行することができない。そのため、[2]の映像期間では別途0の状態からVGA画像用の解像度変換処理を実施することが必要になるので、その分余計に処理時間がかかり、[2]の映像期間内ではVGA切出し画像処理(データeに対応)が[1]の映像期間に比べて少なくしか出来ない事態になっている。
しかし、実際には[2]の映像期間内で行っているUXGA画像の後半1/2の処理は、[2]の時間内に限って処理する必要はないものである。既にデータはフレームバッファ10のバッファA内にあるのであるから、[1]の映像期間内に処理能力に余裕があるようであれば、連続する2つの映像期間を1つのものとして考えて、[1]と[2]の映像期間にまたがって処理しても問題はない。そのような場合を図23(b)に示す。
ここでは、[1]の映像期間の処理の余裕時間を用いてUXGA画像の後半1/2の処理を先行して実施している。そのことにより、[2]の映像期間においても処理時間に余裕ができ、図23(a)に比べてVGA切出し画像処理を1つ多く実行することができるようになり、[1]の映像期間との間での画像処理能力の差を無くすことに成功している。
なお、本実施形態において処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。もし、処理性能判断部311が制御用シーケンサ70に組み込まれていた場合には、各端末から要求の出ている処理内容がネットワーク制御部310を経由して、画像−通信部間制御信号71を介して制御用シーケンサ70に伝達され、その情報を用いて上記判断を実施することになる。
そして、判断結果のサービス提供の可否は画像−通信部間制御信号71を介してネットワーク制御部310に伝達され、ネットワーク制御部310が各端末にその情報を送信することになる。但し、第1の実施形態と同様に必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は通信部3のネットワーク制御部310の中にあるほうが好ましい。
このようにして、第5の実施形態での効果に加えて、部分的であっても処理の並列化できる部分を並列化すること、及び並列化を実施する上で本来必要となる処理が部分的に処理された場合には、その処理を補完することができるような仕組みを持つことによって、1映像期間内に1つの処理装置によって処理することのできる処理能力を高めることが可能になる。本実施形態では、第3の実施形態に比べてVGA画像の処理を更に1画像分多く処理することが可能になっている。その結果、1映像期間内に1つの処理装置によってより多くのユーザからの異なる要求に対応した処理を行うことが可能になる。
また、部分画像の処理を複数の映像期間で連続的に行う場合に、複数の映像期間にまたがった処理を実施する機能を付け加えることにより、更に処理能力を向上させることが可能になり、複数の映像期間における実行並列度の差による処理能力のばらつきを小さくすることが可能になる。
(第7の実施形態)
第1から第6までの実施形態では、コーデックの処理は、基本的にJPEG圧縮の処理を例にしていた。しかし、コーデックの処理はJPEGの圧縮処理だけに限らない。そのように複数の方式での圧縮処理を1つの映像区間内に複数回実施する場合の例を図1、図12、図19、及び図24、図25を用いて説明する。
図1は図としての構成要素は同一であるので第1の実施形態のものを流用する。また、図12は図としての構成要素は同一であるので第4の実施形態のものを流用する。更に図19は図としての構成要素は同一であるので第5の実施形態のものを流用する。なお、本実施形態では、第1の実施形態と同様、図1における撮像部2のセンサー220は、正方画素のプログレッシブ形式のCCDであるとする。また、その有効画素数は640×480のいわゆるVGAサイズであり、1/30秒毎に1フレームのVGA画像を出力することができるものとする。即ち、本実施形態での1映像期間は1/30秒(およそ33.3ms)であるとする。
図24は、コーデックにおける圧縮処理にJPEGとMPEG4の2通りの処理が入る場合の処理の流れを示した図である。また、図25は、MPEG4圧縮を実施する際に必要になるYUV422からYUV420への変換機能を備えたラスタブロック変換用ラインメモリ40を示した図である。図25は、構成要素的には第5の実施形態に示した図19と似ているが、図19に比べて各ラスタ/ブロック変換用ラインメモリのライン長が半分になり、その代わりライン数が2倍になるように組替えられている。これは、本実施形態におけるコーデック処理部50がMPEG4を扱う場合に、扱うデータの単位がY信号に関して16×16sampleのものであるため、そのデータが供給しやすいように各ラスタ/ブロック変換用ラインメモリを構成するメモリモジュールの利用法を図19の場合から変更したものである。
また、U/Vそれぞれのラスタブロック変換用ラインメモリ46−1〜4及び47−1〜4の出口にはYUV422のデータからYUV420のデータに変換するためのデータ変換部49が追加されている。このデータ変換部も図19の場合からメモリモジュールの利用法を変更したことに付随して追加接続された機能ブロックであり、この処理を必要としない場合にはスルーする機能をもつものである。
図25内部の動作は、基本的には図19の動作と同じである。異なるのはデータの転送単位は16ラインを基本に考えるので、Y信号のラスタブロック変換用ラインメモリは45−1と45−2の組を1つの16ラインのバッファ、45−3と45−4の組をもう1つの16ラインのバッファと考えるダブルバッファ構成とみなす点である。
U/V信号用のラスタ/ブロック変換用ラインメモリ46−1〜4及び47−1〜4に関しても同様に46−1、2と46−3、4、47−1、2と47−3、4のダブルバッファとみなす。更にYUV422からYUV420への信号の変換動作が必要になる場合には、ラインメモリの出口にあるデータ変換部49で元の画像上で上下に隣接する2ラインのデータから新しいデータが作成される。
ラスタ/ブロック変換用メモリ40は、図19に示した構成から図25のような構成にデータパスを切り替えることによって組みなおすことが可能である。本実施形態においては、圧縮するデータの特性に応じてデータパスの設定を変更することによってこれらを切り替えている。
以上説明したようなラスタ/ブロック変換用メモリ40を含む画像処理部1の動作の流れについて、図12を参照しながら図24を用いて説明する。
図12において、現像処理部230から出力されたVGAサイズの画像データはフレームバッファ10にフレーム単位で格納される。フレームバッファ10は、図24に示すように内部はダブルバッファ形式になっており、第n番目のフレームと第n+1番目のフレームの画像データがそれぞれ別の領域(バッファA及びB)に格納されるようになっている。
今、第nフレームのフレームバッファ10のバッファAへの蓄積が完了したとする。すると、現像処理部230から制御用シーケンサ70に対してフレームデータの転送完了割込みが発生する(図24矢印1)。
転送完了割込みを受けて、制御用シーケンサ70は、まずコーデック処理部50のパラメータレジスタ51に対してどのような処理をコーデック処理部でおこなうかを指示するためのパラメータをセットする(図24矢印2a)。本実施形態では、最初の圧縮処理としてMPEG4を用いた圧縮が要求されているとする。ここでは、制御用シーケンサ70はMPEG4処理をコーデック処理部50に実施させるための複数のパラメータをパラメータレジスタ51に設定し、コーデック処理部50の処理モードをMPEG4処理モードに設定する。
次いで、制御用シーケンサ70は、ラスタ/ブロック変換用メモリ40に対して、画像データDMAC20から入力されるYUV422形式のVGAサイズの画像データをYUV420形式に変換し、MPEG4モードでコーデック処理部50にデータを提供するように指示をする(図24矢印4a)。指示を受けたラスタ/ブロック変換用メモリ40は、先に図25で示したようにデータパスの構成を組替え、MPEG4モードで動作できるようにした後、データの転送が開始されるのを待つ。
次いで、制御用シーケンサ70は、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、ラスタ/ブロック変換用メモリ40に対してデータを供給するための転送を開始するように指示をする(図24矢印3a)。指示を受けて画像データDMAC20は、画像データをフレームバッファ10から読み出して、ラスタ/ブロック変換用メモリ40に供給する。
画像データの供給を受けたラスタ/ブロック変換用メモリ40は、YUV422⇒ YUV420の変換を開始し(図24矢印7a)、ブロック化したデータを所定の順序でコーデック処理部50に提供する。ブロック化された画像データの提供を受けたコーデック処理部50はMPEG4形式での画像圧縮を実施し、順次符号化データを符号化データDMAC60に受け渡す。符号化データDMAC60は、データバッファ12に対して一定の単位で符号化データを転送する。そして第nフレームにおいて画像を構成するすべての符号化データの転送を完了した時点で、制御用シーケンサ70はデータバッファ通信部3に対して符号化データの転送完了割込みを送出する(図24矢印6a)。この割り込み通知は画像−通信部間制御信号71を介して伝達される。
図24において、MPEG4の符号化データの転送完了割込みを送出した(図24矢印6a)ことを制御用シーケンサ70が認識すると、制御用シーケンサ70は次に求められている画像処理のパラメータを調べる。ここでは、次に要求されている動作はVGAサイズの画像データをその解像度のままJPEG圧縮することが求められているとする。また、同じ画角のデータをQVGAに解像度変換したデータを用いたJPEG処理がその後続にあることもわかっているので、画像圧縮処理と解像度変換処理とを並列的に行うことも設定が必要になる。
そこで制御用シーケンサ70は、まず、JPEG処理をコーデック処理部50に実施させるための複数のパラメータをパラメータレジスタ51に設定し、コーデック処理部50の処理モードをJPEG処理モードに設定する(図24矢印2b)。
次いで、制御用シーケンサ70は、ラスタ/ブロック変換用メモリ40に対して、ブロック化の処理モードをJPEG用に変更するように指示をする(図24矢印4b)。指示を受けたラスタ/ブロック変換用メモリ40は図25に示したような構成から図19で示したようにデータパスの構成を組替え、JPEGモードで動作できるようにした後、データの転送が開始されるのを待つ。
次いで、制御用シーケンサ70は、解像度変換部30に対して、画像データDMAC20から入力されるVGAサイズの画像データをQVGAサイズに解像度変換するように指示をする(タイミング図示せず)。
次いで、制御用シーケンサ70は、画像データDMAC20に対して、第nフレームの画像データをフレームバッファ10のバッファAから読み出して、コーデック処理部50に対してデータを供給するための転送を開始するように指示をする(図24矢印3b)。
本実施形態では、フレームバッファ10から読み出したデータを解像度変換部30とラスタ/ブロック変換用メモリ40に並列的に供給する必要があるので、そのようにパラメータを転送領域設定レジスタ21に設定する。
画像データDMAC20がデータの転送を開始すると、解像度変換部30は、VGA⇒QVGAの画像変換を開始し(図24矢印8b)、そのデータをフレームバッファ(2)13に蓄積する。一方、コーデック処理部は、ラスタ/ブロック変換用メモリ40によってブロック化された画像データを受けてJPEG方式での圧縮を開始し(図24矢印5b)、順次JPEG方式で圧縮された符号化データJPEGbを符号化データDMAC60に受け渡す。
符号化データDMAC60は、データバッファ12に対して一定の単位で符号化データを転送する。そして第nフレームにおいて符号化データJPEGbの転送を完了した時点で、制御用シーケンサ70はデータバッファ通信部3に対して符号化データの転送完了割込みを送出する(図24矢印6b)。この割り込み通知は画像−通信部間制御信号71を介して伝達される。そして、その次は、フレームバッファ(2)に蓄積されたQVGAに解像度変換された画像データを利用して、JPEGの圧縮処理が開始されることになる。これ以降の処理に関してはこれまでの実施形態と同一であるので説明の詳細は省略する。
なお、本実施形態においても処理性能判断部311は、通信部3のネットワーク制御部310の中にあるとしたが、第1の実施形態と同様に例えば、画像処理部1の中に配することや、画像処理部1の制御用シーケンサ70に組み込まれた機能の一部として実装することも可能であり、その位置は本実施形態において制限されるものではない。但し、第1の実施形態と同様に必要なデータ伝送のみを実施してなるべく全体の処理負荷を減らすという観点から考えると、本実施形態のように処理性能判断部311は、通信部3のネットワーク制御部310の中にあるほうが好ましい。
このようにすることによって、これまでに説明した第1から第6の実施形態までの効果に加えて、1つのコーデックを用いて1映像期間内に複数の符号化方式によるの画像圧縮処理を効率よく実施することが可能になる。特に、圧縮方式に応じてデータパスを動的に切り替えるような機構をもつことによって、内部のメモリを無駄なく利用することが可能になり、IC内部の資源の有効活用を図りながら、処理性能の向上を図ることが可能になる。
本発明の第1の実施形態に係る撮像装置の構成を示す図である。 本発明の第1の実施形態における画像処理部の詳細を示す図である。 本発明の第1の実施形態における画像処理部の動作の流れを示す図である。 本発明の第1の実施形態に係る撮像装置を用いたシステムの構成例を示す図である。 本発明の第2の実施形態におけるビューワ側で要求する画像の画角と解像度を示す図である。 本発明の第2の実施形態における画像処理部の詳細を示す図である。 本発明の第2の実施形態における画像処理部の動作の流れを示す図である。 本発明の第3の実施形態における画像処理部の詳細を示す図である。 本発明の第3の実施形態における画像処理部の動作の流れを示す図である。 本発明の第3の実施形態におけるビューワ側で要求する画像の画角と解像度を示す図である。 本発明の第3の実施形態における連続する2映像期間での画像処理部の動作の流れを示す図である。 本発明の第4の実施形態における画像処理部の詳細を示す図である。 本発明の第4の実施形態における画像処理部の動作の流れを示す図である。 本発明の第4の実施形態におけるビューワ側で要求する画像の画角と解像度を示す図である。 本発明の第5の実施形態における画像処理部の詳細を示す図である。 本発明の第5の実施形態におけるビューワ側で要求する画像の画角と解像度を示す図である。 本発明の第5の実施形態における画像データDMACの詳細を示す図である。 本発明の第5の実施形態における画像データDMACと解像度変換部及びラスタ/ブロック変換用メモリとの間のデータの受け渡しタイミングを示す図である。 本発明の第5の実施形態におけるラスタ/ブロック変換用メモリの詳細を示す図である。 本発明の第5の実施形態における解像度変換部の詳細を示す図である。 本発明の第6の実施形態におけるビューワ側で要求する画像の画角と解像度を示す図である。 本発明の第6の実施形態における画像処理部の動作の流れを示す図である。 本発明の第6の実施形態における連続する2映像期間での画像処理部の動作の流れを示す図である。 本発明の第7の実施形態における画像処理部の動作の流れを示す図である。 本発明の第7の実施形態におけるラスタ/ブロック変換用メモリの詳細を示す図である。
符号の説明
1:画像処理部
2:撮像部
3:通信部
4:ネットワーク網
5:撮像装置
10:フレームバッファ
11:画像処理用メモリ
12:データバッファ
13:フレームバッファ(2)
20:画像データDMAC(ダイレクトメモリアクセス・コントローラ)
21:転送領域設定レジスタ
22:64bitFIFOレジスタ
23:クロック制御部
24:FIFO読出しポート
30:解像度変換部
40:ラスタ/ブロック変換用メモリ
50:コーデック処理部
51:パラメータレジスタ
60:符号化データDMAC
70:制御用シーケンサ
71:画像−通信武官制御信号
210:レンズ
220:センサー
230:現像処理部
310:ネットワーク制御部
311:処理性能判断部
320:ネットワークインタフェース
400:表示端末
401:ビューワ

Claims (10)

  1. 被写体を撮像して撮像データを得る撮像手段と、
    前記撮像手段で得られた撮像データを動画像データに現像する現像手段と、
    前記動画像データを画像処理する画像処理手段と、
    前記画像処理手段で処理した動画像データをネットワーク上に送出するネットワーク通信手段と、
    前記動画像データを構成する1画面分の画像データの更新間隔である1映像期間内に、前記画像処理手段において複数の異なる画像処理を施した動画像データを前記ネットワーク通信手段に出力するように制御する制御手段と
    を有することを特徴とする撮像装置。
  2. 前記画像処理手段には、前記画像データの符号化処理を行う符号化処理部が具備されており、
    前記符号化処理部は、前記1映像期間内に複数回の処理パラメータの設定が可能に構成されていることを特徴とする請求項1に記載の撮像装置。
  3. 前記画像処理手段には、高解像度の前記画像データから画像の切出し処理を行う画像切出し処理部が更に具備されており、
    前記画像切出し処理部は、前記1映像期間内に複数回の処理パラメータの設定が可能に構成されていることを特徴とする請求項2に記載の撮像装置。
  4. 前記画像処理手段には、前記画像データの解像度変換処理を行う解像度変換部が更に具備されており、
    前記解像度変換部は、前記1映像期間内に複数回の処理パラメータの設定が可能に構成されていることを特徴とする請求項2又は3に記載の撮像装置。
  5. 前記画像処理手段には、前記解像度変換処理後の画像データを一時蓄え、前記1映像期間内の後続の処理を行うことを可能とするフレームバッファを含むことを特徴とする請求項4に記載の撮像装置。
  6. 前記画像処理手段は、1つの画像データを前記符号化処理部と前記解像度変換部とに時間的に並行して供給するための画像データのDMA機構を有していることを特徴とする請求項4又は5に記載の撮像装置。
  7. 前記DMA機構は、前記1つの画像データの部分データを、前記符号化処理部と前記解像度変換部とに時間的に並行して供給するものであり、
    前記画像処理手段は、前記1つの画像データのうちの前記部分データを除いた残りの部分データを前記解像度変換部に別途供給し、分割して実施した前記解像度変換処理の結果得られたデータを前記1つの画像データとして前記符号化処理部で処理すること特徴とする請求項6に記載の撮像装置。
  8. 前記画像処理手段には、前記画像データのラスタ/ブロック変換処理を行うラスタ/ブロック変換部が更に具備されており、
    前記符号化処理部による前記画像データの符号化処理は、複数の形式の符号化処理に対応するものであり、
    前記画像処理手段は、前記複数の形式の符号化処理に対応して、前記ラスタ/ブロック変換部のデータパスを動的に変更することを特徴とする請求項2〜7のいずれか1項に記載の撮像装置。
  9. 前記ネットワーク上の利用者からの要求に基づいて前記1映像期間内に処理可能な処理内容を判別し、前記画像処理手段に対して少なくとも画像処理の順序又は画像処理の内容を指示する処理性能判断部を更に有することを特徴とする請求項1〜8のいずれか1項に記載の撮像装置。
  10. 前記処理性能判断部は、前記ネットワーク通信手段に具備されていることを特徴とする請求項9に記載の撮像装置。
JP2005321230A 2005-11-04 2005-11-04 撮像装置、及び処理方法 Active JP4689440B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005321230A JP4689440B2 (ja) 2005-11-04 2005-11-04 撮像装置、及び処理方法
US11/555,352 US7714896B2 (en) 2005-11-04 2006-11-01 Image capturing apparatus and image capturing method
CN2006101376987A CN1960442B (zh) 2005-11-04 2006-11-03 摄像设备和摄像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005321230A JP4689440B2 (ja) 2005-11-04 2005-11-04 撮像装置、及び処理方法

Publications (3)

Publication Number Publication Date
JP2007129573A true JP2007129573A (ja) 2007-05-24
JP2007129573A5 JP2007129573A5 (ja) 2008-12-18
JP4689440B2 JP4689440B2 (ja) 2011-05-25

Family

ID=38003806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005321230A Active JP4689440B2 (ja) 2005-11-04 2005-11-04 撮像装置、及び処理方法

Country Status (3)

Country Link
US (1) US7714896B2 (ja)
JP (1) JP4689440B2 (ja)
CN (1) CN1960442B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041301A (ja) * 2013-08-22 2015-03-02 株式会社リコー 画像転送装置及び画像転送方法
JP2020108136A (ja) * 2018-12-26 2020-07-09 廈門星宸科技有限公司 マルチストリーム映像処理装置及びマルチストリーム映像処理方法
JP2022051343A (ja) * 2020-09-18 2022-03-31 株式会社東芝 画像処理装置、及び画像処理システム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101467439B (zh) * 2006-06-13 2011-06-15 松下电器产业株式会社 拍摄装置
GB2451265B (en) 2007-07-25 2012-01-04 Wolfson Microelectronics Plc Control sequencer
JP4900721B2 (ja) * 2008-03-12 2012-03-21 株式会社メガチップス 画像処理装置
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
DE102009021974A1 (de) * 2009-05-19 2011-03-03 Mobotix Ag Digitale Videokamera
US20110037864A1 (en) * 2009-08-17 2011-02-17 Microseven Systems, LLC Method and apparatus for live capture image
CN102638645B (zh) * 2011-02-10 2015-01-07 杭特电子股份有限公司 网络摄影机***、录放影主机及其影像控制方法
JP6084080B2 (ja) * 2013-03-15 2017-02-22 キヤノン株式会社 撮像装置
KR102228457B1 (ko) * 2014-01-09 2021-03-16 삼성전자주식회사 단말과 서버간의 정보 동기화 방법 및 시스템
US9967465B2 (en) 2016-05-18 2018-05-08 Realtek Singapore Pte Ltd Image frame processing method
US9996894B2 (en) * 2016-05-18 2018-06-12 Realtek Singapore Pte Ltd Image processing device, video subsystem and video pipeline

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360839A (ja) * 1989-07-28 1991-03-15 Honda Motor Co Ltd 等速ジョイント外輪の製造方法および製造装置
JP2004266768A (ja) * 2003-03-04 2004-09-24 Mega Chips Corp 画像処理システム及びデジタルカメラ
JP2005006239A (ja) * 2003-06-16 2005-01-06 Sony Corp 画像処理装置および画像処理方法
JP2005051664A (ja) * 2003-07-31 2005-02-24 Toshiba Corp 撮像装置及び撮像方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06125411A (ja) 1992-10-09 1994-05-06 Ricoh Co Ltd 画像処理装置
KR100276427B1 (ko) * 1993-01-30 2000-12-15 윤종용 화상데이타의 압축 및 복원장치
JP2001069492A (ja) * 1999-08-30 2001-03-16 Matsushita Electric Ind Co Ltd 映像伝送装置
US7113644B2 (en) 2002-02-13 2006-09-26 Matsushita Electric Industrial Co., Ltd. Image coding apparatus and image coding method
JP2003309853A (ja) 2002-02-13 2003-10-31 Matsushita Electric Ind Co Ltd 画像符号化装置,及び画像符号化方法
US7548258B2 (en) 2003-11-21 2009-06-16 Arecont Vision Llc. High resolution network video camera with massively parallel implementation of image processing, compression and network server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360839A (ja) * 1989-07-28 1991-03-15 Honda Motor Co Ltd 等速ジョイント外輪の製造方法および製造装置
JP2004266768A (ja) * 2003-03-04 2004-09-24 Mega Chips Corp 画像処理システム及びデジタルカメラ
JP2005006239A (ja) * 2003-06-16 2005-01-06 Sony Corp 画像処理装置および画像処理方法
JP2005051664A (ja) * 2003-07-31 2005-02-24 Toshiba Corp 撮像装置及び撮像方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041301A (ja) * 2013-08-22 2015-03-02 株式会社リコー 画像転送装置及び画像転送方法
JP2020108136A (ja) * 2018-12-26 2020-07-09 廈門星宸科技有限公司 マルチストリーム映像処理装置及びマルチストリーム映像処理方法
JP2022051343A (ja) * 2020-09-18 2022-03-31 株式会社東芝 画像処理装置、及び画像処理システム
JP7344188B2 (ja) 2020-09-18 2023-09-13 株式会社東芝 画像処理装置、及び画像処理システム

Also Published As

Publication number Publication date
US20070104377A1 (en) 2007-05-10
US7714896B2 (en) 2010-05-11
CN1960442B (zh) 2013-03-13
JP4689440B2 (ja) 2011-05-25
CN1960442A (zh) 2007-05-09

Similar Documents

Publication Publication Date Title
JP4689440B2 (ja) 撮像装置、及び処理方法
US10554882B2 (en) Panoramic camera and photographing method thereof
US7903871B2 (en) System and method for image processing of multi-sensor network cameras
US7092012B2 (en) Image processing apparatus and method, storage medium, and communication system
US7548258B2 (en) High resolution network video camera with massively parallel implementation of image processing, compression and network server
JP4863438B2 (ja) データ処理装置及び処理方法
KR101451734B1 (ko) 동화상 촬영장치, 정보처리 시스템, 정보처리장치 및 화상 데이터 처리방법
US7847832B2 (en) Electronic camera that reduces processing time by performing different processes in parallel
US7876360B2 (en) Image data transfer processor and surveillance camera system
US9386287B2 (en) Image processor which rearranges color information, image processing method, and digital camera
KR20130109588A (ko) 카메라의 이미지처리 장치 및 방법
JP2013026978A (ja) 動画像撮影装置、情報処理システム、情報処理装置、および画像データ処理方法
JP5325745B2 (ja) 動画像処理プログラム、装置および方法、動画像処理装置を搭載した撮像装置
JP5995583B2 (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、及びプログラム
JP2000092375A (ja) 信号処理装置及びその制御方法
JP4054832B2 (ja) 画像処理装置及びデータ処理方法
US20040169759A1 (en) Server and a server system
JP4264602B2 (ja) 画像処理装置
JPH01245687A (ja) 動画像符号化装置およびその画素配置方法
JP2005142699A (ja) 画像圧縮伸張装置
JP2019033315A (ja) 撮像システム、画像データ伝送方法、及びプログラム
JP2004343607A (ja) 画像サーバ
JP3586005B2 (ja) 静止画像伝送装置及びその方法
JP2005159596A (ja) デジタルカメラ
JP2007281946A (ja) 撮像画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110216

R150 Certificate of patent or registration of utility model

Ref document number: 4689440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3