JP2017188771A - Imaging system, and display method of image or video image - Google Patents

Imaging system, and display method of image or video image Download PDF

Info

Publication number
JP2017188771A
JP2017188771A JP2016075843A JP2016075843A JP2017188771A JP 2017188771 A JP2017188771 A JP 2017188771A JP 2016075843 A JP2016075843 A JP 2016075843A JP 2016075843 A JP2016075843 A JP 2016075843A JP 2017188771 A JP2017188771 A JP 2017188771A
Authority
JP
Japan
Prior art keywords
image
privacy
unit
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016075843A
Other languages
Japanese (ja)
Other versions
JP6419749B2 (en
Inventor
拓也 生澤
Takuya Ubusawa
拓也 生澤
功 竹安
Isao Takeyasu
功 竹安
雅哉 江藤
Masaya Eto
雅哉 江藤
藤野 剛
Takeshi Fujino
剛 藤野
小山 徳章
Noriaki Koyama
徳章 小山
昭行 谷沢
Akiyuki Tanizawa
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2016075843A priority Critical patent/JP6419749B2/en
Publication of JP2017188771A publication Critical patent/JP2017188771A/en
Application granted granted Critical
Publication of JP6419749B2 publication Critical patent/JP6419749B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system, and a display method of an image or video image that can perform stable privacy protection regardless of the content of an imaged image or video image.SOLUTION: The imaging system processes an area related to privacy information within an imaged original image for protecting privacy, and synthesizes it with an unmanned image area which does not include the privacy information within the original image, for display or transmission. Then the image or video image after the process for protecting privacy is displayed in the area related to the privacy information in the imaged original image, and the original image is displayed in the area not including the privacy information. Then, as a result, the inside of the original image area where only a portion of a face is displayed is recognized as the inside of the area related to the privacy information, and the image or video image after the process for protecting privacy is displayed.SELECTED DRAWING: Figure 8

Description

本発明の実施形態は、撮影対象内にプライバシー情報が含まれ得る撮影システムおよび画像や映像の表示方法に関する。   Embodiments described herein relate generally to an imaging system and an image and video display method that can include privacy information within an imaging target.

公共施設や人が集まる場所で撮影された画像や映像内には、プライバシー情報に属する人物の顔や体形そしてその所有物や服装が含まれる場合が多い。そしてその画像や映像に対して不特定多数者の閲覧が可能な場合は特に、個人のプライバシー保護を配慮する必要が有る。   Images and videos taken at public facilities and places where people gather often include the faces and shapes of people belonging to privacy information, their possessions and clothes. In particular, it is necessary to consider personal privacy protection when an unspecified number of people can view the images and videos.

所で上記画像や映像内の人物の顔や服装の特徴から、個人の特定やその人物の所属団体の特定が可能となる。従って個人や所属団体のプライバシー保護の観点から、撮影された画像や映像からの人物特定や所属団体の特定を困難にする技術が求められている。   On the other hand, it is possible to identify an individual and an organization to which the person belongs from the characteristics of the person's face and clothes in the image and video. Therefore, from the viewpoint of protecting the privacy of individuals and affiliated organizations, there is a need for a technique that makes it difficult to identify a person from a captured image or video or identify an affiliated organization.

特開2009−194687号公報JP 2009-194687 A 特開2004−62560号公報JP 2004-62560 A

撮影された画像や映像に処理を施してプライバシー保護する技術として特許文献1では、画像内の顔の場所を検出し、顔又はその背景の画像領域にモザイク・ぼかし・塗り潰し等のプライバシーマスク処理を施している。また特許文献2でも画像内の顔の場所を検出し、顔画像部のみにモザイク処理を施すと共に、顔以外の服装や所持品では鮮明な画像表示を行っている。   In Patent Document 1, as a technique for protecting privacy by processing a captured image or video, the location of a face in the image is detected, and privacy mask processing such as mosaic, blurring, and painting is performed on the face or an image area of the background. Has been given. Also in Patent Document 2, the location of a face in an image is detected, mosaic processing is performed only on the face image portion, and a clear image display is performed on clothes and personal belongings other than the face.

そしていずれの先行技術でも、顔画像位置の検出技術が共通に採用されている。ここで一般的に用いられる顔画面位置検出技術では、撮影された画像や映像内の顔のパーツ(目、鼻、口、眉毛、耳など)形状間の配置関係を利用する場合が多い。   In any of the prior arts, the face image position detection technique is commonly adopted. The face screen position detection technique generally used here often uses an arrangement relationship between the shapes of the captured images and facial parts (eyes, nose, mouth, eyebrows, ears, etc.) in the video.

すると上記顔画像位置検出技術では、例えば前面に配置された障害物で顔の一部が隠された場合には顔画像と認識されず、顔の一部が鮮明画像の状態で表示される危険性が有る。従って上述した従来技術では、画像や映像の内容に拠ってはプライバシー保護機能が不充分な場合が発生する。   Then, in the face image position detection technique, for example, when a part of the face is hidden by an obstacle placed on the front face, the face image is not recognized, and there is a risk that a part of the face is displayed in a clear image state. There is sex. Therefore, in the above-described conventional technology, there are cases where the privacy protection function is insufficient depending on the contents of the image or video.

そのため撮影された画像や映像の内容に拠らず、安定したプライバシー保護を可能とする撮影システムおよび画像や映像の表示方法の提供が求められる。   Therefore, it is required to provide a photographing system and a method for displaying an image or video that enable stable privacy protection regardless of the content of the photographed image or video.

本実施形態における撮影システムとしては、撮影された原画像内のプライバシー情報に関係する領域をプライバシー加工し、プライバシー情報を含まない無人画像領域とで合成して表示もしくは送信する。   As a photographing system in the present embodiment, privacy processing is performed on a region related to privacy information in a photographed original image, and the region is combined with an unmanned image region that does not include privacy information and displayed or transmitted.

また本実施形態における画像や映像の表示方法としては、撮影された原画像内のプライバシー情報に関係する領域内はプライバシー加工後の画像を表示し、無人画像領域内は原画像を表示する。   As a method for displaying an image or video in the present embodiment, an image after privacy processing is displayed in an area related to privacy information in a photographed original image, and an original image is displayed in an unmanned image area.

そしてその結果として、顔の一部しか表示されない原画像領域内もプライバシー情報に関係する領域内と認識され、プライバシー加工された画像が表示される。   As a result, the original image area where only a part of the face is displayed is also recognized as the area related to the privacy information, and the privacy processed image is displayed.

従来技術の課題例説明図。The subject example explanatory drawing of a prior art. 撮影された原画像内の領域説明図。Explanatory drawing of the area | region in the image | photographed original image. 無人画像の生成方法の一例説明図。An explanatory view of an example of a generation method of an unattended image. プライバシー情報に関係する領域抽出法の一例説明図。An example explanatory drawing of the area extraction method related to privacy information. プライバシー加工された画像の生成方法一例の説明図。Explanatory drawing of an example of the production | generation method of the image by which privacy processing was carried out. 本実施形態で表示または送信される画像の表示形態例説明図。FIG. 7 is an explanatory diagram illustrating an example of a display form of an image displayed or transmitted in the present embodiment. プライバシー情報に関係する領域内の動きを表現した応用例説明図。Explanatory drawing of the application example expressing the movement in the area | region relevant to privacy information. プライバシー情報に関係する領域内の重なり部を表現した応用例。An application example that expresses the overlap in the area related to privacy information. プライバシー情報に関係する領域内で体範囲の色を変更した応用例。An application example in which the color of the body area is changed within the area related to privacy information. 本実施形態における撮影システム内構成の説明図。Explanatory drawing of the structure in the imaging | photography system in this embodiment. 通信経路を経由した本実施形態における撮影システム説明図。Explanatory drawing of an imaging system in the present embodiment via a communication path. 通信経路を経由した撮影システムの応用例説明図。Explanatory drawing of the application example of the imaging | photography system via a communication path. 撮影システム内で実行されるプログラム内アーキテクチャ説明図。FIG. 3 is an explanatory diagram of an architecture in a program executed in the imaging system. 無人画像を生成する流れを示すフローチャート説明図。Flowchart explanatory drawing which shows the flow which produces | generates an unattended image. 送信/表示する画像の生成までを示すフローチャート説明図。Explanatory drawing of a flowchart showing up to generation of an image to be transmitted / displayed. 移動情報履歴に関する管理情報の一例を示すデータ構造説明図。Data structure explanatory drawing which shows an example of the management information regarding a movement information log | history. 画像履歴に関する管理情報の一例を示すデータ構造説明図。Data structure explanatory drawing which shows an example of the management information regarding an image history. 混雑履歴に関する管理情報の一例を示すデータ構造説明図。Data structure explanatory drawing which shows an example of the management information regarding congestion history.

以下、図面を参照しながら実施形態を説明する。従来技術を用いて画像に対してプライバシー保護をした場合の問題点に付いて、上記に説明した。さらに図1を用い、上述した問題点を具体的に説明する。   Hereinafter, embodiments will be described with reference to the drawings. The problems associated with privacy protection for images using conventional technology have been described above. Further, the above-described problem will be specifically described with reference to FIG.

図1(a)は、撮影された原画像の例10を示す。ここでは撮影された原画像10内に、人物2、4、6が表示されている。特に撮影された原画像内人物4が持つ棒などの障害物(棒など)の影響で、撮影された原画像内人物6の顔の一部が隠されている。   FIG. 1A shows an example 10 of a captured original image. Here, persons 2, 4, and 6 are displayed in the photographed original image 10. In particular, a part of the face of the photographed person 6 in the original image is hidden under the influence of an obstacle (such as a stick) of the photographed person 4 in the original image.

撮影された原画像10(図1(a))に対して人物範囲検出22を行った結果を、図1(b)に示す。ここで人物範囲検出22を行った部分を四角枠で示している。   FIG. 1B shows the result of the person range detection 22 performed on the photographed original image 10 (FIG. 1A). Here, the portion where the person range detection 22 is performed is indicated by a square frame.

従来技術のように顔画面位置検出技術のみを用いて人物範囲検出22を行うと、撮影された原画像内人物6の顔の一部が隠されているため、撮影された原画像内人物6は人物として認識されない。 When the person range detection 22 is performed using only the face screen position detection technique as in the prior art, a part of the face of the photographed person 6 in the original image is hidden, so the person 6 in the photographed original image 6 Is not recognized as a person.

プライバシー加工(画像に対するプライバシー保護対策)の一例として、人物として認識された検出範囲にぼかし加工24を施した後の画像を図1(c)に示す。上記のように撮影された原画像内人物6が人物として認識されないため、その人の顔画像が鮮明に表示されてしまう。従って従来技術のように顔画面位置検出技術のみを用いたプライバシー保護対策では不充分となる事が分かる。   As an example of privacy processing (privacy protection measures for images), an image after blurring 24 is performed on a detection range recognized as a person is shown in FIG. Since the person 6 in the original image captured as described above is not recognized as a person, the face image of that person is clearly displayed. Therefore, it can be seen that privacy protection measures using only the face screen position detection technique as in the prior art are insufficient.

撮影された画像や映像を本実施形態では複数領域に分割し、その中の特定の領域に対してプライバシー加工を施す。なお本実施形態に対する説明の便宜上、以下では画像に特化した説明を行う。しかし本実施形態では下記に限らず、映像に関しても同様な実施形態が適用されても良い。本実施形態における領域毎の定義を、図2を用いて説明する。   In this embodiment, a captured image or video is divided into a plurality of areas, and privacy processing is performed on a specific area among them. For convenience of explanation of the present embodiment, a description specific to images will be given below. However, the present embodiment is not limited to the following, and the same embodiment may be applied to video. The definition for each area in this embodiment will be described with reference to FIG.

図2に示す撮影された原画像30に対し、プライバシー情報が含まれない領域を無人画像領域34と呼ぶ。他方では撮影された原画像30内で個人もしくは団体のプライバシー情報に関係する画像が含まれる領域をプライバシー情報に関係する領域38と呼ぶ。図2の例では、原画像30内に4人の人物が映っている。この4人の人物が表示された領域(画像内領域)と彼らに関係した物品(所持品など)や生物(例えば運搬中の植物やペットなどの動物)が表示された領域をプライバシー情報に関係する領域38と呼び、無人画像領域34と分離識別する。   An area in which privacy information is not included in the captured original image 30 shown in FIG. On the other hand, an area including an image related to privacy information of an individual or group in the photographed original image 30 is referred to as an area 38 related to privacy information. In the example of FIG. 2, four persons are shown in the original image 30. The privacy information is related to the area where the four people are displayed (the area in the image) and the article related to them (the belongings, etc.) and the living things (for example, plants being transported, animals such as pets). And is identified separately from the unmanned image area 34.

ここでプライバシー情報に関係する領域38内に含まれる人物とは、直近での特定可能な個人に限らず、不特定多数者も含まれる。仮に撮影直後は個人の特定が不可能な不特定多数者でも、この画像をネットワーク経由で別の不特定多数者に閲覧された時に個人を特定される危険性が有る。   Here, the person included in the area 38 related to the privacy information is not limited to the person who can be specified most recently, but includes an unspecified majority person. Even if an unspecified majority person who cannot specify an individual immediately after photographing is taken, there is a risk that the individual is specified when the image is viewed by another unspecified majority person via the network.

また任意な人物や組織・団体の全ての帰属品が撮影/表示された領域を、本実施形態でのプライバシー情報に関係する領域38に含めても良い。例えば原画像30に映らない人物の帰属品(携行品や所有物)が一時的に撮影現場に放置されて原画像30内に映った領域も、プライバシー情報に関係する領域38に含めても良い。なぜなら親しい人が鞄や帽子、メガネなどの愛用品を見れば所有者(帰属相手)の予想が付き、プライバシー情報に関係する。   An area where all belongings of an arbitrary person or organization / organization are photographed / displayed may be included in the area 38 related to privacy information in the present embodiment. For example, an area where personal belongings (carrying goods and belongings) not shown in the original image 30 are temporarily left at the shooting site and reflected in the original image 30 may be included in the area 38 related to privacy information. . This is because if a close person sees a favorite item such as a bag, hat, or glasses, the owner (belonging to the other party) can be expected, which is related to privacy information.

所でプライバシー情報に関係する任意な組織や団体の帰属品として国旗や旗章、徽章に限らず、そこに所属する人物の着用品(服や帽子、靴など)や所持品(組織・団特有の鞄や携行品など)も含まれる。   As a belonging of any organization or group related to privacy information, it is not limited to national flags, badges, or emblems, but belongings (clothes, hats, shoes, etc.) and personal belongings (organization / group-specific) , And other items).

上記の無人画像領域34には、
(1)無人状態で撮影された同一撮影現場の画像領域
(2)所定時間内で変化しない画像領域
(3)人物やその帰属品と認識/推定されない画像領域
などの特徴が有る。ここで上記の所定時間とは、1分から1ヶ月の範囲内、望ましくは1時間から1週間の範囲内を意味する。無人状態での撮影現場でも、ポスターの貼り替えや無料雑誌設置場所での在庫変化などで撮影された原画像30が変化する。従ってそれらの画像変化期間を考慮して、上記所定時間の範囲が決まる。
In the unmanned image area 34,
(1) An image area of the same shooting site taken in an unattended state (2) An image area that does not change within a predetermined time (3) An image area that is not recognized / estimated as a person or its belongings. Here, the predetermined time means within a range of 1 minute to 1 month, preferably within a range of 1 hour to 1 week. Even in an unmanned shooting site, the original image 30 that has been shot changes due to poster replacement, stock change at a free magazine location, or the like. Therefore, the range of the predetermined time is determined in consideration of these image change periods.

一方では撮影された原画像30内で上記の無人画像領域34に含まれない全ての領域を、プライバシー情報に関する領域38と見なしても良い。   On the other hand, all areas that are not included in the unattended image area 34 in the photographed original image 30 may be regarded as the area 38 related to privacy information.

本実施形態ではプライバシー情報が含まれない無人画像32(図3(c)を用いて後述)を事前に生成する。そしてその無人画像32を参照して、撮影された原画像30内のプライバシー情報に関係する領域38を抽出する。それに拠り原画像内人物2、4、6の一部が重なる(顔の一部が隠される)状況が生じても、プライバシー加工後の画像内では顔(の一部)が鮮明に表示される事が無い。すなわち上記の表示方法を採用する事で、撮影された画像や映像の内容に拠らずに安定したプライバシー保護が可能となる。   In this embodiment, an unmanned image 32 (described later using FIG. 3C) that does not include privacy information is generated in advance. Then, referring to the unmanned image 32, an area 38 related to privacy information in the photographed original image 30 is extracted. Therefore, even if a situation occurs in which some of the people 2, 4, and 6 in the original image overlap (part of the face is hidden), the face (part) is clearly displayed in the image after privacy processing. There is nothing. That is, by adopting the above display method, it is possible to stably protect the privacy without depending on the content of the captured image or video.

本実施形態では上述した無人画像領域34の特徴を利用し、図3(c)に示す無人画像32を生成する。すなわち上記(1)の特徴である“同一撮影現場での無人状態を撮影”する方法として例えば、夜中とか夜明け前などの人通りの無い時間帯で現場を撮影し、無人画像32を取得しても良い。   In this embodiment, the unmanned image 32 shown in FIG. 3C is generated using the characteristics of the unmanned image region 34 described above. That is, as a method of “photographing the unmanned state at the same photographing site”, which is the feature of the above (1), for example, an unmanned image 32 is obtained by photographing the site in a busy hour such as at midnight or before dawn. Also good.

また他の無人画像32生成方法として、原画像30の撮影時刻に近い時間帯に無人画像32を生成する方法に付いて図3を用いて説明する。まず始めに上記(2)に記載した“所定時間内で変化しない”特徴のみを利用して無人画像32を生成する方法例を示す。   As another method for generating the unmanned image 32, a method for generating the unmanned image 32 in a time zone close to the photographing time of the original image 30 will be described with reference to FIG. First, an example of a method for generating the unmanned image 32 using only the feature described in the above (2) that does not change within a predetermined time will be described.

図3(a)は人通りがある時間帯に撮影された原画像30を示している。人通りがある時間帯に撮影されたため、原画像30内には4人の移動人物42、44,46,48が映っている。ここで図3(a)のみの原画像30では、移動人物42,44,46,48の後ろに隠れている無人画像32の情報(図3(c)に示す画像)は得られない。   FIG. 3A shows an original image 30 taken in a certain time zone. Since the photograph was taken at a certain time zone, four moving persons 42, 44, 46, and 48 are shown in the original image 30. Here, in the original image 30 of FIG. 3 (a) alone, information on the unmanned image 32 (image shown in FIG. 3 (c)) hidden behind the moving persons 42, 44, 46, and 48 cannot be obtained.

次に、それよりも少し後に撮影された原画像36を図3(b)に示す。図3(a)に対して図3(b)では移動人物42,44,46,48がそれぞれ移動した後で撮影されるため、図3(a)内では隠されていた(無人画像32に対応した)部分の画像が見えている。その特徴を利用して、移動人物42,44,46,48が居無い時の無人画像32(図3(c))の生成が可能となる。   Next, FIG. 3B shows an original image 36 taken a little later than that. In FIG. 3 (b) as compared with FIG. 3 (a), the moving persons 42, 44, 46, and 48 are photographed after moving, and thus are hidden in FIG. 3 (a) (in the unmanned image 32). The corresponding image is visible. Using the feature, it is possible to generate the unmanned image 32 (FIG. 3C) when there is no moving person 42, 44, 46, 48.

所で図3(a)と図3(b)の原画像30と36間で異なる画像が表示された(すなわち両者間で画素値の差の絶対値が大きい)領域内には、“移動人物42,44,46,48のプライバシー情報に関係する画像”と“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のいずれかが映っている。図3には図示して無いが、図3(b)よりも更に後に撮影された原画像も利用すると“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のみが抽出し易い。   In the area where different images are displayed between the original images 30 and 36 in FIG. 3A and FIG. 3B (that is, the absolute value of the difference between the pixel values is large), One of the images related to the privacy information of 42, 44, 46, and 48 and the “image hidden behind the moving persons 42, 44, 46, and 48 in the unmanned image 32” are shown. Although not shown in FIG. 3, if an original image taken after FIG. 3B is also used, “an image hidden behind the moving persons 42, 44, 46, 48 in the unmanned image 32” Only is easy to extract.

すなわち撮影時刻を互いにずらして収集した3枚の原画像内の2枚の共通画素位置では、無人画像32の一部が映っている場合が多い。従って画素位置毎に画素値の多数決を取ると、無人画像32に対応した画像の抽出確率が向上する。   That is, in many cases, a part of the unattended image 32 is shown at two common pixel positions in the three original images collected by shifting the shooting times. Therefore, if the majority of pixel values is taken for each pixel position, the extraction probability of an image corresponding to the unmanned image 32 is improved.

ここでは撮影時刻が互いに異なる3枚の原画像を用いて無人画像32を生成する方法を説明した。しかしそれに限らず、4枚以上の原画像を用いて無人画像32を生成しても良い。そして4枚以上の原画像を用いる事で、無人画像32内の画素の抽出精度が向上する効果が有る。   Here, the method of generating the unmanned image 32 using three original images having different shooting times has been described. However, the present invention is not limited to this, and the unmanned image 32 may be generated using four or more original images. By using four or more original images, the extraction accuracy of pixels in the unmanned image 32 is improved.

所で図3に示した無人画像32の生成方法では、移動人物42,44,46,48の中で極端に移動速度の遅い人物が含まれている場合に完全な無人画像32が得られない場合が生じる。この様な場合には移動人物42,44,46,48の影に隠れた部分に対して画像補間処理を行う事で、生成された無人画像32の精度を向上させても良い。   However, in the method of generating the unmanned image 32 shown in FIG. 3, when the moving person 42, 44, 46, 48 includes a person with extremely slow moving speed, the complete unattended image 32 cannot be obtained. Cases arise. In such a case, the accuracy of the generated unmanned image 32 may be improved by performing an image interpolation process on the portions hidden behind the shadows of the moving persons 42, 44, 46, and 48.

今までは撮影時刻が異なる複数の原画像30、36を用いて無人画像32を生成する方法を説明した。しかし本実施形態ではそれに限らず、例えば図2に示す1枚のみの原画像30に対して画像解析を行い、人物やその帰属品あるいは動物が含まれないと推定される領域を無人画像領域34と判定しても良い。
また図3に示した無人画像32の生成方法において、必ずしも原画像30を撮影するカメラ(図8の撮像部112)は撮影現場に固定される必要は無い。例えば移動可能なカメラ(撮像部112)を用いて無人画像32を生成しても良い。ここで移動可能なカメラ(撮像部112)で無人画像32を生成する場合には、撮影現場で特定時間の間だけ移動可能なカメラ(撮像部112)を手で保持する事になる。最近は移動可能なカメラ(撮像部112)内に手振れ補正機能が備わっているため、カメラ(撮像部112)が多少揺れていても静止した画像を正確に収集することが可能となる。
So far, the method of generating the unmanned image 32 using the plurality of original images 30 and 36 having different shooting times has been described. However, the present embodiment is not limited to this. For example, an image analysis is performed on only one original image 30 shown in FIG. May be determined.
Further, in the method for generating the unmanned image 32 shown in FIG. 3, the camera that captures the original image 30 (the imaging unit 112 in FIG. 8) does not necessarily have to be fixed at the shooting site. For example, the unmanned image 32 may be generated using a movable camera (imaging unit 112). When the unmanned image 32 is generated by a movable camera (imaging unit 112), the movable camera (imaging unit 112) is held by hand at a shooting site for a specific time. Recently, since a movable camera (imaging unit 112) has a camera shake correction function, it is possible to accurately collect still images even if the camera (imaging unit 112) is slightly shaken.

原画像30を撮影する現場内で、ポスターの張り替えや特定設備の設置/除去などレイアウト変更が激しい場所が有る。その場所で無人画像32生成時刻と原画像30を撮影時刻との乖離が激しい場合、張り替えられたポスターや配置換えした特定設備などに関する不要な画像までもプライバシー情報に関係する領域38と誤検知される可能性が高い。従って図3に示した無人画像32生成方法を採用する事で、無人画像32生成時刻と原画像30を撮影時刻との時間間隔を短くできる効果が有る。   There are places in the site where the original image 30 is photographed where layout changes such as poster replacement and installation / removal of specific equipment are severe. If there is a great discrepancy between the time when the unmanned image 32 was generated and the time when the original image 30 was taken at that location, even unnecessary images related to the replaced posters and the rearranged specific equipment are erroneously detected as areas 38 related to privacy information. There is a high possibility. Therefore, by adopting the unmanned image 32 generation method shown in FIG. 3, there is an effect that the time interval between the unmanned image 32 generation time and the photographing time of the original image 30 can be shortened.

標準的にはポスターなどは1〜2週間で張り替えられる場合が多いので、上記の時間間隔を1週間以内に設定する事が望ましい。またポスターを張り替える曜日や特定設備のレイアウト変更を実施する曜日は場所に拠り異なる。従って上記の時間間隔を1週間以内に設定しても、無人画像32生成日の翌日にポスターやレイアウトの変更が行われる危険性が高い。多くの場合、ポスターの張り替えやレイアウト変更は混雑時に行われる可能性が低い。従って無人画像32生成時刻と原画像30を撮影時刻との時間間隔を1日以下に設定しても良い。しかし所定の柱や壁に持ち帰り自由なパンフレット設置場所が存在する場合には、上記時間間隔を1日以下に設定してもプライバシー情報に関係する領域38の誤検知が生じ易い。従ってこのような場所では、上記時間間隔を2時間以下に設定するのが望ましい。   Typically, posters and the like are often replaced in one to two weeks, so it is desirable to set the above time interval within one week. In addition, the day of the week for changing the poster and the day of the week for changing the layout of specific equipment vary depending on the location. Therefore, even if the above time interval is set within one week, there is a high risk that the poster or layout will be changed the day after the unmanned image 32 generation date. In many cases, it is unlikely that poster replacement or layout change will be performed during crowding. Accordingly, the time interval between the time when the unmanned image 32 is generated and the time when the original image 30 is captured may be set to one day or less. However, when there is a pamphlet installation place that can be taken home on a predetermined pillar or wall, erroneous detection of the area 38 related to privacy information is likely to occur even if the time interval is set to one day or less. Therefore, in such a place, it is desirable to set the time interval to 2 hours or less.

無人画像32の他の生成方法として、前述した(3)の“画像内の人物領域や人物の帰属品領域を推定”する技術を組み合わせても良い。上述したように図3(a)と図3(b)の原画像30と36間で異なる画像が表示された領域内には、“移動人物42,44,46,48のプライバシー情報に関係する画像”と“無人画像32内の移動人物42,44,46,48の裏に隠された画像”のいずれかが映っている。そして画像解析技術を利用して、無人画像32に含まれる画像成分を選択しても良い。   As another method for generating the unmanned image 32, the above-described technique (3) of “estimating a person area or a person belonging area in an image” may be combined. As described above, in the area where different images are displayed between the original images 30 and 36 in FIGS. 3A and 3B, “related to the privacy information of the moving persons 42, 44, 46, and 48”. Either “Image” or “Image hidden behind moving persons 42, 44, 46, 48 in unmanned image 32” is shown. Then, image components included in the unmanned image 32 may be selected using an image analysis technique.

すなわち人物や動物の画像には、(頭部と胴体、足(や手)から構成される)共通した形状が含まれる。また鞄やリュックサックなどの特定人物の帰属品も(直方体や台形柱などの)特徴的な形状を有する。従って上記の人物や動物、あるいはその帰属品に特徴的な形状が含まれない画像を無人画像32に含まれる画像成分と推定して選択しても良い。   That is, the image of a person or animal includes a common shape (consisting of a head, a torso, and a foot (or a hand)). Also, belongings of specific persons such as bags and rucksacks have characteristic shapes (such as rectangular parallelepipeds and trapezoidal columns). Therefore, an image that does not include a characteristic shape in the person or animal or the attributed item may be estimated and selected as an image component included in the unmanned image 32.

上述したように本実施形態では、無人画像32に対する複数の生成方法が許容される。また本実施形態では唯一の無人画像32を生成するだけで無く、上述した複数の生成方法で同時に複数の無人画像32を生成しても良い。   As described above, in this embodiment, a plurality of generation methods for the unmanned image 32 are allowed. In the present embodiment, not only the single unmanned image 32 is generated, but a plurality of unmanned images 32 may be generated simultaneously by the above-described plurality of generation methods.

上記方法で生成した無人画像32を参照して、プライバシー情報に関係する領域38を抽出する方法を図4Aに示す。最も簡単な抽出方法として、撮影された原画像30(図4A(a))と無人画像32(図4A(b))との間の差分(図4A(c))を算出しても良い。またそれに限らず無人画像32を参照する方法として、両者の画像に対して何らかの編集を行った後に比較しても良いし、両者の比較時に何らかの演算処理を施しても良い。   FIG. 4A shows a method of extracting an area 38 related to privacy information with reference to the unmanned image 32 generated by the above method. As the simplest extraction method, the difference (FIG. 4A (c)) between the photographed original image 30 (FIG. 4A (a)) and the unmanned image 32 (FIG. 4A (b)) may be calculated. In addition, as a method of referring to the unmanned image 32, the comparison may be made after some editing is performed on both images, or some arithmetic processing may be performed at the time of comparison between the two images.

さらに図4Aに対する他の応用例として本実施形態では、原画像30内の領域毎にプライバシー情報に関係する確率を算出し、その算出結果に基付いてプライバシー情報に関係する領域38を抽出しても良い。例えば後述するように図8の人物確率分布計測部160内では、プライバシー情報に関係する領域38内での特徴的な形状や時間変化を抽出し、抽出された領域毎に人物確率の値を算出する。   Further, as another application example with respect to FIG. 4A, in the present embodiment, the probability related to privacy information is calculated for each area in the original image 30, and the area 38 related to privacy information is extracted based on the calculation result. Also good. For example, as will be described later, in the human probability distribution measurement unit 160 in FIG. 8, characteristic shapes and temporal changes in the region 38 related to privacy information are extracted, and the value of the human probability is calculated for each extracted region. To do.

これと同じように図4A(a)の原画像30(及び図3(b)の少し後に撮影された原画像36)内の全ての領域から特徴的な形状や時間変化(図5(b)の移動情報88)を抽出する。次にパターンマッチング手法などで、人間や動物の体形あるいは(鞄やリュックサックなどの)人物の帰属品形状との一致度を検出してプライバシー情報に関係する確率を算出する。またそれと並行して時間変化に応じた輪郭形状変化(移動情報88あるいはその詳細情報)と予め記憶したライブラリーデータとの一致度を検出してプライバシー情報に関係する確率に加味する。更に顔面内構成部品(目や鼻、口、髪、耳)の形状間の配置関係を調べて顔面との一致度を調べてプライバシー情報に関係する確率に加味しても良い。   In the same manner, characteristic shapes and temporal changes from all regions in the original image 30 in FIG. 4A (a) (and the original image 36 taken slightly after FIG. 3B) (FIG. 5B). Movement information 88) is extracted. Next, by using a pattern matching method or the like, the degree of coincidence with a human or animal body shape or a human belonging shape (such as a bag or a rucksack) is detected, and a probability related to privacy information is calculated. At the same time, the degree of coincidence between the contour shape change (movement information 88 or its detailed information) corresponding to the time change and the library data stored in advance is detected and added to the probability related to the privacy information. Furthermore, the arrangement relationship between the shapes of the components in the face (eyes, nose, mouth, hair, ears) may be examined to check the degree of coincidence with the face, and may be added to the probability related to privacy information.

このように算出したプライバシー情報に関係する確率が所定の判定値を超える領域をプライバシー情報に関係する領域38と見なして抽出しても良い。ここで所定の判定値を50%(望ましくは70%)に設定すると、プライバシー情報に関係する領域38に対する高い抽出精度が確保できる。   An area where the probability related to the privacy information calculated in this way exceeds a predetermined determination value may be extracted as the area 38 related to the privacy information. Here, when the predetermined determination value is set to 50% (preferably 70%), high extraction accuracy for the area 38 related to privacy information can be ensured.

このプライバシー情報に関係する確率の算出と算出結果の判定及びプライバシー情報に関係する領域38の抽出を、上記の人物確率分布計測部160内で行っても良い。   The calculation of the probability related to the privacy information, the determination of the calculation result, and the extraction of the area 38 related to the privacy information may be performed in the person probability distribution measurement unit 160 described above.

このように抽出されたプライバシー情報に関係する領域38を用いてプライバシー加工された画像40の生成方法を図4Bに示す。すなわち撮影された原画像30(図4B(a))の中で、プライバシー情報に関係する領域38(図4B(b))に該当する領域のみにプライバシー加工を施す(図4B(c))。   FIG. 4B shows a method for generating an image 40 privacy-processed using the area 38 related to privacy information extracted in this way. That is, privacy processing is performed only on the region corresponding to the region 38 (FIG. 4B (b)) related to the privacy information in the photographed original image 30 (FIG. 4B (a)) (FIG. 4B (c)).

図4B(c)ではプライバシー加工された画像40として、ぼかし処理が施されている。しかしそれに限らず他のプライバシー加工方法として、モザイク処理、塗りつぶし、形状変化、色調変化、濃度変化などの変化を加えても良いし、全く異なる画像に変換(置換)しても良い。   In FIG. 4B (c), a blurring process is performed as the privacy-processed image 40. However, the present invention is not limited to this, and as other privacy processing methods, changes such as mosaic processing, painting, shape change, color tone change, density change, etc. may be added, or conversion (replacement) to a completely different image may be performed.

例えば形状変化によりプライバシー加工する具体例として、例えばマッチ棒のように横方向の幅のみを狭くしても良い。例えば混雑場所では移動人物42〜48間が重なり、プライバシー加工後の画像の閲覧者に取って撮影された人数の把握が難しい場合が有る。そのような混雑場所を撮影した原画像30に対してプライバシー情報に関する領域38の横方向の幅のみを狭くする事で、閲覧者が人数を把握し易い効果が有る。また本実施形態では無人画像32自体は加工されないため、プライバシー情報に関する領域38の横方向の幅のみを狭くしても閲覧者に与える違和感を最小限にできる効果も有る。   For example, as a specific example of privacy processing by a shape change, for example, only the width in the horizontal direction may be narrowed like a match stick. For example, moving people 42 to 48 overlap each other in a crowded place, and it may be difficult to grasp the number of people photographed by a viewer of an image after privacy processing. By narrowing only the lateral width of the area 38 related to privacy information with respect to the original image 30 obtained by photographing such a crowded place, there is an effect that the viewer can easily grasp the number of people. In this embodiment, since the unmanned image 32 itself is not processed, even if only the width in the horizontal direction of the area 38 related to privacy information is narrowed, there is an effect that the uncomfortable feeling given to the viewer can be minimized.

図6を用いて後述するように本実施形態では、プライバシー情報に関する領域38内で人物が映っている領域のみを予測抽出できる。そのため人物が映っている領域に対する画像の変換(置換)例として、人物を猫やパンダなどの動物あるいは自動車や飛行機などの他の画像に変換(置換)しても良い。プライバシー加工後の画像に対する不特定多数の閲覧者が撮影現場の混雑状況のみに興味が有る場合、プライバシー加工された人物画像は余り興味を持たない。一方猫やパンダなどの小動物の画像に興味を抱く女性や自動車や飛行機などのメカニカルに興味を抱く少年は多い。従って上記のように画像変換(置換)する事で、閲覧者に好感を与えると共に興味を持って貰える効果が生じる。   As will be described later with reference to FIG. 6, in this embodiment, it is possible to predict and extract only an area where a person is shown in the area 38 relating to privacy information. Therefore, as an example of image conversion (replacement) for an area in which a person is shown, the person may be converted (replacement) into another image such as an animal such as a cat or a panda or a car or an airplane. If an unspecified number of viewers for the privacy-processed image are interested only in the crowded situation at the shooting site, the privacy-processed person image is not very interested. On the other hand, there are many women who are interested in images of small animals such as cats and pandas and boys who are interested in mechanical devices such as cars and airplanes. Therefore, by performing image conversion (replacement) as described above, there is an effect of giving a favorable impression to the viewer and giving it an interest.

上記の閲覧者に表示もしくは送信する画像の作成方法を図4Cに示す。図4Bを用いて上述した方法で得られたプライバシー加工された画像40(図4C(a))を事前に収集された無人画像32(図4C(b))に重ねる事で図4C(c)に示す画像を生成できる。この場合には無人画像32の上部層(手前側)にプライバシー加工された画像40を重ねる。このように重ねる操作の段階でプライバシー加工された画像40自体にある程度の透明度を持たせて背景の無人画像32が見えるようにさせても良い。例えば撮影現場が移動人物42〜48で非常に混雑している場合、背景の無人画像32が見え辛く、閲覧者にとって撮影現場の識別が難しくなる。上記のように透明度を持たせて背景の無人画像32が見えると、どんなに混雑しても閲覧者が撮影現場を識別し易くなる効果が生じる。   A method for creating an image to be displayed or transmitted to the viewer is shown in FIG. 4C. By superimposing the privacy-processed image 40 (FIG. 4C (a)) obtained by the method described above with reference to FIG. 4B on the unattended image 32 (FIG. 4C (b)) collected in advance, FIG. 4C (c) Can be generated. In this case, the privacy-processed image 40 is superimposed on the upper layer (near side) of the unmanned image 32. In this way, the privacy processed image 40 itself may have a certain degree of transparency so that the background unmanned image 32 can be seen. For example, when the shooting site is very crowded with moving persons 42 to 48, the background unmanned image 32 is difficult to see, making it difficult for the viewer to identify the shooting site. If the background unmanned image 32 is seen with transparency as described above, an effect is obtained that makes it easy for the viewer to identify the shooting site, no matter how crowded.

上記に説明した本実施形態での画像の表示方法に対する応用例を図5〜図7を用いて説明する。   Application examples for the image display method in the present embodiment described above will be described with reference to FIGS.

プライバシー情報に関係する領域38に対するプライバシー加工方法として上記のモザイク処理、ぼかし、塗りつぶし、形状変化、色調変化、濃度変化や画像変換(置換)に限らず、プライバシー情報に関係する領域38自体の移動情報も同時に持たせる方法を図5に示す。   The privacy processing method for the area 38 related to the privacy information is not limited to the above-described mosaic processing, blurring, painting, shape change, color change, density change and image conversion (replacement), but the movement information of the area 38 itself related to the privacy information. FIG. 5 shows a method for providing both of them simultaneously.

図5(a)の原画像例82内では、左側の人物が左から右に向かって移動し、右側の人物がしゃがむ(すなわち下に沈む)行動を行っている。この場合には時系列的に原画像82を収集し、時間のずれに応じたプライバシー情報に関係する領域38の移動を検出して人物の移動方向を抽出できる。   In the original image example 82 in FIG. 5A, the left person moves from left to right, and the right person squats (ie, sinks down). In this case, the original image 82 is collected in time series, and the movement direction of the person can be extracted by detecting the movement of the area 38 related to the privacy information corresponding to the time lag.

上記の方法で抽出した移動情報例88を図5(b)内の矢印で示す。そしてその移動情報88を用いて原画像82全体をプライバシー加工した例52を図5(c)に示す。この図5(c)の例では、移動情報88を用いる前のプライバシー加工方法として“ぼかし”を掛けている。しかしそれに限らず、上述した任意の方法でプライバシー加工を行っても良い。   The movement information example 88 extracted by the above method is indicated by an arrow in FIG. FIG. 5C shows an example 52 in which the entire original image 82 is privacy-processed using the movement information 88. In the example of FIG. 5C, “blurring” is applied as a privacy processing method before the movement information 88 is used. However, the present invention is not limited to this, and privacy processing may be performed by any method described above.

上記のプライバシー加工に上記の移動情報88を加味する方法として図5(c)の例では、所定時間前に撮影したプライバシー情報に関係する領域38内の画像を重ねて表示している。また重ねて表示する時の透明度にグラデーションを掛け、移動方向が見や易い工夫もなされている。すなわち図5(c)に示すように、撮影した画像の古い順に透明度を高くする事で、移動人物の移動方向が見易くなっている。   In the example of FIG. 5C, as the method of adding the movement information 88 to the privacy processing, the image in the area 38 related to the privacy information photographed a predetermined time before is displayed in an overlapping manner. In addition, the transparency when overlaid is displayed with gradation, and the direction of movement is easy to see. That is, as shown in FIG. 5C, the moving direction of the moving person is easily seen by increasing the transparency in the order of the photographed image.

さらに図5(c)から分かるように、重ねて表示した所定時間前の人物位置との“ずれ量”に拠り、移動速度を表現しても良い。すなわち左側人物では“ずれ量”が大きく、比較的高速で移動している様子が分かる。一方では右側人物の“ずれ量”は小さく、ゆっくり移動している様子が分かる。   Further, as can be seen from FIG. 5C, the moving speed may be expressed based on the “deviation amount” with respect to the person position displayed a predetermined time before overlapping. That is, it can be seen that the left person has a large “deviation amount” and is moving at a relatively high speed. On the other hand, the “deviation amount” of the right person is small and it can be seen that the person is moving slowly.

このように過去に撮影した画像の一部を重ね表示する事で人物の移動方向と移動速度が表現でき、人物の移動状況を閲覧者(不特定多数者)が容易に把握できる効果が有る。所で移動人物の移動方向と移動速度の表示方法として上記に限らず、任意の他の方法を使用しても良い。例えば移動の速度と方向を、長さの異なる矢印で示しても良い。   In this way, by overlapping and displaying a part of images taken in the past, the moving direction and moving speed of the person can be expressed, and there is an effect that the viewer (unspecified majority) can easily grasp the movement state of the person. The display method of the moving direction and moving speed of the moving person is not limited to the above, and any other method may be used. For example, the speed and direction of movement may be indicated by arrows having different lengths.

また移動人物の移動速度に応じて、移動人物を表示する色を変化させても良い。一般的に青系色よりも赤系色の方が目立つ特徴が有る。従って移動速度が速くなるに応じて、変換色を青系色から赤系色に変えても良い。また移動する方向に応じて変換色を濃く表現しても良い。このように色変化や濃度変化で移動人物の移動方向と移動速度を変化させた場合には、過去に撮影した画像の一部を重ね表示する必要が無くなり、プライバシー情報に関係する領域38を狭く表現できる効果が有る。   The color for displaying the moving person may be changed according to the moving speed of the moving person. In general, there is a characteristic that the red color is more conspicuous than the blue color. Therefore, the conversion color may be changed from a blue color to a red color as the moving speed increases. Further, the converted color may be expressed deeply according to the moving direction. In this way, when the moving direction and moving speed of the moving person are changed by the color change or the density change, it is not necessary to superimpose a part of the image taken in the past, and the area 38 related to the privacy information is narrowed. There is an effect that can be expressed.

所で図5(d)は、図4Aで説明した方法で抽出されたプライバシー情報に関係する領域例54を示す。また図5(e)は、図3で説明した方法で生成した無人画像56の例を示す。そして図5(d)を利用して図5(c)と図5(b)を合成して生成した図が図5(f)に相当する。この図5(f)で生成された画像が送信/表示する画像58として不特定多数者に閲覧される。   FIG. 5D shows an example region 54 related to privacy information extracted by the method described with reference to FIG. 4A. FIG. 5E shows an example of the unmanned image 56 generated by the method described in FIG. A diagram generated by combining FIG. 5C and FIG. 5B using FIG. 5D corresponds to FIG. The image generated in FIG. 5F is viewed by an unspecified majority as an image 58 to be transmitted / displayed.

例えば撮影現場が混雑状態に有り、複数人物が重なった状態でプライバシー情報に関係する領域38が構成されている場合の表示例を図6に示す。すなわち図6(a)が示す原画像例84では、右側で2名の人物が重なって撮影されている。この原画像84をプライバシー加工すると図6(b)の全体をプライバシー加工した例62に示すように、全体的に均一にぼけた画像が生成される。但し図示して無いが、プライバシー加工の強さ(たとえば“ボケ量”の強さ)が異なる複数のプライバシー加工後の画像62を準備しておく。   For example, FIG. 6 shows a display example when the shooting site is in a congested state and a region 38 related to privacy information is configured in a state where a plurality of persons overlap. That is, in the original image example 84 shown in FIG. 6A, two people are photographed on the right side in an overlapping manner. When this original image 84 is subjected to privacy processing, as shown in an example 62 in which the entire privacy processing in FIG. Although not shown, a plurality of privacy-processed images 62 having different privacy processing strengths (for example, “bokeh amount” strength) are prepared.

所で図8の人物確率分布計測部160を用いて後述するように、抽出されたプライバシー情報に関係する領域64内での領域毎の人物らしさの確率を推定算出する。その結果として図6(c)に示すように、プライバシー情報に関係する領域64内で異なる人物確率分布に対応した領域分割がなされる。ここでは右側で重なって撮影された2名の中で後ろ側の人物の体形輪郭の一部(あるいは顔面の一部)が、前側の人物で隠されている。その結果として後ろ側の人物が映っている領域内では、人物確率が低くなっていると見なす。   Then, as will be described later using the person probability distribution measurement unit 160 of FIG. 8, the probability of person-likeness for each area in the area 64 related to the extracted privacy information is estimated and calculated. As a result, as shown in FIG. 6C, area division corresponding to different person probability distributions is made in the area 64 related to privacy information. Here, a part of the body contour of the back person (or part of the face) of the two people photographed on the right side is hidden by the front person. As a result, it is considered that the person probability is low in the area where the person on the back side is shown.

図6(c)の情報を用い、図6(b)で得られた複数のプライバシー加工後の画像62と図6(d)に示す無人画像66と重ねた結果を図6(e)に示す。図6(e)で表示するように、プライバシー情報に関係する領域64内で人物らしさ(人物確率)が低い領域の透明度を高めるとともに、プライバシー加工の強度(例えば“ぼかし量”)を大きくさせる。   FIG. 6E shows the result of overlaying the plurality of privacy-processed images 62 obtained in FIG. 6B and the unmanned image 66 shown in FIG. 6D using the information in FIG. 6C. . As shown in FIG. 6E, the transparency of an area having a low human character (person probability) in the area 64 related to privacy information is increased, and the privacy processing strength (for example, “blur amount”) is increased.

このようにプライバシー情報に関係する領域64内の人物らしさ(人物確率)の低い領域の透明度を上げるもしくは非表示とする(あるいはプライバシー加工の強度を大きくさせる)事で、不必要な画像領域の表示を制限できる。その結果としてプライバシー情報に関係する領域64内の人物らしい(人物確率の高い)領域の表示を相対的に際立たせ、不特定多数の閲覧者に対して見易い画像を提供できる効果が生まれる。   In this way, display of unnecessary image areas can be achieved by increasing or hiding the transparency (or increasing the strength of privacy processing) of the low-person-like (person probability) area in the area 64 related to privacy information. Can be limited. As a result, the display of an area that seems to be a person in the area 64 related to the privacy information (high probability of person) is relatively emphasized, and an image that is easy to view for an unspecified number of viewers can be provided.

特に図6(e)の画像と従来技術を使用して得られる図1(c)とを比較すると明らかなように本実施形態の表示方法を利用すると、障害物などにより一部が隠された人物に対するプライバシー保護機能(図1(c)では顔が鮮明に表示されるのに比べ、図6(e)では非表示状態となっている)が格段に改善される。   In particular, when the display method of the present embodiment is used as is apparent from a comparison between the image of FIG. 6E and FIG. 1C obtained using the conventional technique, a part of the image is hidden by an obstacle or the like. The privacy protection function for a person (the face is clearly displayed in FIG. 1C is not displayed in FIG. 6E) is significantly improved.

図7ではプライバシー情報に関係する領域74内の領域位置により表示方法(プライバシー加工方法)を変える応用例を示している。   FIG. 7 shows an application example in which the display method (privacy processing method) is changed depending on the region position in the region 74 related to privacy information.

不特定多数者に特定人物の画像が公開された場合、その特定人物の顔(頭部)を認識されて個人特定される危険性が高い。そのため顔(頭部)の表示領域にプライバシー加工(モザイク、塗りつぶし、ぼかし、色変換、濃度変換、形状変換や別画像への置換等)を施すことで、個人特定が困難となる。   When an image of a specific person is disclosed to an unspecified majority, there is a high risk that the face (head) of the specific person is recognized and specified as an individual. Therefore, it is difficult to identify individuals by applying privacy processing (mosaic, painting, blurring, color conversion, density conversion, shape conversion, replacement with another image, etc.) to the display area of the face (head).

一方では、顔を除いた体の表示領域を認識する事で、その人物が所属する組織や団体が特定され易い特徴が有る。例えば中学生や高校生が着用している制服の形状や色から、部活動から帰宅途中の生徒が通う中学校名や高校名が推察できる。従って撮影された原画像86内で例えば服の色もしくは形状を変える事で、その人物が所属する組織や団体の特定を困難にする。   On the other hand, by recognizing the display area of the body excluding the face, there is a feature that the organization or group to which the person belongs can be easily specified. For example, the name of the junior high school or high school where students on their way home from club activities can be inferred from the shape and color of uniforms worn by junior high school students and high school students. Therefore, for example, by changing the color or shape of clothes in the photographed original image 86, it is difficult to specify the organization or group to which the person belongs.

上記状況に対応して後述する図8内の頭範囲検出部152と体範囲検出部154を利用し、図7(c)で抽出されたプライバシー情報に関係する領域74内の頭範囲と体範囲を個別に自動認識しても良い。その認識結果に基付き図7(b)や(e)では、服の色や形状を変化させている。   Corresponding to the above situation, the head range and body range in the region 74 related to the privacy information extracted in FIG. 7C using the head range detection unit 152 and the body range detection unit 154 in FIG. May be automatically recognized individually. Based on the recognition result, the color and shape of the clothes are changed in FIGS. 7B and 7E.

本実施形態における原画像86に対するプライバシー加工方法では、モザイク、塗りつぶし、ぼかし、色変換、濃度変換、透明度変化、形状変換や別画像への置換など多種多様な加工方法を許容する。そして図7(e)に示す応用例では、同一人物内の(顔面を含む)頭部と頭部以外の体領域内の少なくとも一部(例えば着衣部など)で異なる方法によってプライバシー加工された画像が送信または表示される。ここで頭部以外の体(もしくは着衣部などの体の一部)と異なるプライバシー加工を施す“頭部”とは、必ずしも頭部全体の必要は無く、例えば顔面や髪形など頭部の一部でも良い。更に異なるプライバシー加工例として、例えば“ぼかし量”を変えるなどのプライバシー加工の強度を変えても良い。   In the privacy processing method for the original image 86 in the present embodiment, a wide variety of processing methods such as mosaic, painting, blurring, color conversion, density conversion, transparency change, shape conversion, and replacement with another image are allowed. In the application example shown in FIG. 7 (e), privacy-processed images using different methods for the head (including the face) within the same person and at least a part of the body region other than the head (for example, the clothing part). Is sent or displayed. Here, the “head” that performs privacy processing different from the body other than the head (or a part of the body such as the clothing part) does not necessarily need the entire head, for example, a part of the head such as a face or a hairstyle. But it ’s okay. As another example of privacy processing, the strength of privacy processing such as changing the “blur amount” may be changed.

上記の頭部と頭部以外の体領域(の少なくとも一部)で異なるプライバシー加工を行う具体例を以下に説明する。頭部(あるいは顔面や髪形など頭部の一部)の領域に行うプライバシー加工例として、強力にモザイクやぼかし、塗りつぶしを行って個人特定を難しくしても良いし、また頭部のみを猫や犬などの動物の頭または乗り物に変換して女性や子供の閲覧者に好感を与えても良い。一方頭部以外の体領域(の少なくとも一部)に行うプライバシー加工例としては、モザイクやぼかし、塗りつぶしなどの処理を軽度に行うと共に、着衣部や帽子の色や形状を変化させて所属組織や団体の特定を困難にしても良い。   A specific example in which different privacy processing is performed in the above-mentioned head and at least a part of the body region other than the head (at least a part thereof) is described below. As an example of privacy processing on the area of the head (or part of the head such as the face or hairstyle), it may be difficult to identify individuals by powerfully mosaicing, blurring, or painting, or only the head may be a cat or It may be transformed into the head or vehicle of an animal such as a dog to give a favorable impression to the viewers of women and children. On the other hand, as an example of privacy processing to be performed on (at least a part of) a body region other than the head, processing such as mosaic, blurring, and painting is performed lightly, and the color and shape of the clothing part and hat are changed, It may be difficult to identify the organization.

上記のように個人特定を困難にするために頭部(または顔面や髪形)に施す最適なプライバシー加工方法と、その人物が所属する組織や団体の特定を困難にするために頭部以外の体(の一部)に施す最適なプライバシー加工方法は異なる場合が多い。従って図7(e)に示す送信または表示する画像では、頭部(または顔面や髪形)と頭部以外の体(の一部)でのプライバシー加工方法を個別に最適化している。その結果として個人特定と組織・団体の特定を同時に困難にし、プライバシー保護機能を高める効果が生まれる。   As described above, the most suitable privacy processing method applied to the head (or face or hairstyle) to make it difficult to identify individuals, and the body other than the head to make it difficult to identify the organization or group to which the person belongs. The optimal privacy processing method applied to (part of) is often different. Therefore, in the image to be transmitted or displayed shown in FIG. 7E, the privacy processing method for the head (or face or hairstyle) and the body (part of the body) other than the head is individually optimized. As a result, it is difficult to identify individuals and organizations / organizations at the same time, and the effect of enhancing the privacy protection function is produced.

上述した本実施形態のおける画像や映像の表示方法について、再度まとめて記載する。撮影された原画像30(図2)と送信/表示する画像例68、78(図6(e)、図7(e))は共に、プライバシー情報を含まない無人画像領域34、66、76とプライバシー情報に関係する領域38、64、74に領域分割(分離)できる。そしてプライバシー情報に関係する領域38、64、74内でプライバシー加工された後の画像例68、78が送信/表示される。   The image and video display method in the above-described embodiment will be described again collectively. The photographed original image 30 (FIG. 2) and transmitted / displayed image examples 68 and 78 (FIG. 6 (e) and FIG. 7 (e)) are both unmanned image areas 34, 66, and 76 that do not include privacy information. The area can be divided (separated) into areas 38, 64, and 74 related to privacy information. Then, the image examples 68 and 78 after privacy processing in the areas 38, 64 and 74 related to the privacy information are transmitted / displayed.

ここで事前に生成された無人画像領域32(図3(c))を参照して、撮影された原画像30内のプライバシー情報に関係する領域38が抽出される。その結果として、人物の顏の一部しか映っていない画像に対しても安定にプライバシー加工が行われる効果が有る。上記の説明を別の角度から眺めると、本実施形態のおける送信/表示する画像例68、78内にはプライバシー情報を含まない無人画像領域66、76とプライバシー加工後の画像領域を含んでいると言える。また前記プライバシー加工後の画像領域内にはプライバシー情報が含まれ、更に前記プライバシー情報として人物の顏の一部が含まれ得ると言える。   Here, with reference to the unmanned image area 32 (FIG. 3C) generated in advance, an area 38 related to privacy information in the captured original image 30 is extracted. As a result, there is an effect that privacy processing is stably performed even on an image in which only a part of a person's eyelid is reflected. Looking at the above description from another angle, the image examples 68 and 78 to be transmitted / displayed in the present embodiment include unmanned image areas 66 and 76 that do not include privacy information and image areas after privacy processing. It can be said. In addition, it can be said that privacy information is included in the image area after the privacy processing, and a part of a person's eyelid can be included as the privacy information.

今まで説明した図2〜図7の表示方法を実現する撮影システムの構造を図8に示す。撮像部(カメラ)112で撮影された原画像30は、画像加工部104内で加工生成された後、画像送信部120から表示部122へ向けて送信される。また上記の画像加工部104内に、無人画像生成部130とプライバシー加工部116及び画像合成部118が含まれる。   FIG. 8 shows the structure of an imaging system that implements the display methods shown in FIGS. The original image 30 captured by the imaging unit (camera) 112 is processed and generated in the image processing unit 104 and then transmitted from the image transmission unit 120 to the display unit 122. The image processing unit 104 includes an unmanned image generation unit 130, a privacy processing unit 116, and an image composition unit 118.

上記無人画像生成部130内では、撮影された原画像30を用いてプライバシー情報を含まない無人画像32(図3(c))を生成する。一方でプライバシー加工部116は撮影された原画像30内のプライバシー情報に関係する領域38(図2)の中に存在する画像に対してプライバシー加工を行う。また、画像合成部118では、前記プライバシー加工部116で生成されたプライバシー加工された画像40(図4B(c))と前記無人画像32とを合成する。   In the unmanned image generation unit 130, an unmanned image 32 (FIG. 3C) that does not include privacy information is generated using the captured original image 30. On the other hand, the privacy processing unit 116 performs privacy processing on the image existing in the area 38 (FIG. 2) related to the privacy information in the photographed original image 30. Further, the image synthesizing unit 118 synthesizes the privacy-processed image 40 (FIG. 4B (c)) generated by the privacy processing unit 116 and the unmanned image 32.

図3を参照しながら、図8の撮影システム内で無人画像32を生成する方法の説明を行う。撮影現場で得られる原画像30は、撮像部(カメラ)112によって撮影される。そしてその原画像30は画像/画像取得部114を経由して画像蓄積部132に転送された後、画像履歴保存部134内に保存される。   A method for generating the unmanned image 32 in the photographing system of FIG. 8 will be described with reference to FIG. The original image 30 obtained at the shooting site is shot by the imaging unit (camera) 112. The original image 30 is transferred to the image storage unit 132 via the image / image acquisition unit 114 and then stored in the image history storage unit 134.

無人画像生成部130では画像履歴保存部134内に保存された原画像30(図3(a))と、それより後に撮影された原画像36(図3(b))と比較する。そして無人画像32(図3(c))内の原画像30の人物42〜48の後ろに隠れた領域を抽出する。前述したように、無人画像生成部130内で使用する画像は図3(a)と図3(b)に示した2枚の画像だけでなく、その時間的な前後に撮影された複数枚の画像を用いて無人画像32を生成することができる。また動きが遅い移動人物のために無人画像32の一部が生成できない場合には、自動補間処理を実施する。   The unmanned image generation unit 130 compares the original image 30 (FIG. 3A) stored in the image history storage unit 134 with the original image 36 (FIG. 3B) taken after that. Then, a region hidden behind the persons 42 to 48 of the original image 30 in the unmanned image 32 (FIG. 3C) is extracted. As described above, the images used in the unmanned image generation unit 130 are not only the two images shown in FIGS. 3A and 3B, but also a plurality of images taken before and after that time. The unmanned image 32 can be generated using the image. If a part of the unmanned image 32 cannot be generated due to a moving person who moves slowly, an automatic interpolation process is performed.

所で前述したように前記無人画像生成部130では、作成方法の異なる無人画像(1)32−1と無人画像(2)32−2を同時に生成しても良い。その具体例としては、画像合成部118に転送される無人画像(1)32−1は(夜中とか夜明け前などの)人通りの無い時間帯で現場を撮影して取得される。一方では頭範囲抽出部152や体範囲抽出部154、人物確率分布制御部160で使用される無人画像(2)32−2は、人通りがある時間帯に撮影された原画像30、36(図3での説明内容参照)から生成される。このように同時に作成方法の異なる複数の無人画像(1)32−1と無人画像(2)32−2を作成し、使用目的に応じて最適な無人画像(1)32−1と無人画像(2)32−2を送信する事で非常に精度と表現力の高い画像を送信/表示できる効果が生まれる。   As described above, the unmanned image generation unit 130 may simultaneously generate the unmanned image (1) 32-1 and the unmanned image (2) 32-2 having different creation methods. As a specific example, the unmanned image (1) 32-1 transferred to the image compositing unit 118 is acquired by photographing the scene in a busy time zone (such as at midnight or before dawn). On the other hand, the unmanned image (2) 32-2 used in the head range extraction unit 152, the body range extraction unit 154, and the person probability distribution control unit 160 is an original image 30, 36 ( (See the description in FIG. 3). Thus, a plurality of unmanned images (1) 32-1 and unmanned images (2) 32-2 having different creation methods are created at the same time, and the optimum unmanned images (1) 32-1 and unmanned images ( 2) By transmitting 32-2, the effect of transmitting / displaying an image with very high accuracy and expressiveness is produced.

すなわち送信/表示する画像68内ではプライバシー保護の観点から、鮮明な人物が表示される事は強く禁止される。また人通りの無い時間帯で現場を撮影して無人画像(1)32−1を取得する段階で、無人画像(1)32−1内に人物が映らない状況を撮影者が確認できる。従ってその無人画像(1)32−1を使用して作成した送信/表示する画像68内でプライバシー情報に関係する画像を含ま無い状況を保証できる。   That is, in the image 68 to be transmitted / displayed, it is strongly prohibited to display a clear person from the viewpoint of privacy protection. In addition, the photographer can confirm a situation in which no person appears in the unmanned image (1) 32-1 at the stage of photographing the site in a time zone where there is no traffic and obtaining the unmanned image (1) 32-1. Accordingly, it is possible to guarantee a situation in which an image related to privacy information is not included in the image 68 to be transmitted / displayed created using the unmanned image (1) 32-1.

一方で人通りの無い時間帯で取得した無人画像(1)32−1と原画像30(図4A(a))との間での撮影時刻の乖離が激しいと、撮影時刻の違いによって発生した不必要な影などの影響で、プライバシー情報に関係する領域38(図4(c))の抽出精度が低下する。そのため頭範囲抽出部152や体範囲抽出部154、人物確率分布制御部160で使用される無人画像(2)32−2の撮影時刻は、原画像30の撮影時刻に近い方がプライバシー情報に関係する領域38のの抽出精度が向上する。   On the other hand, when the difference in the shooting time between the unmanned image (1) 32-1 acquired in the time zone without traffic and the original image 30 (FIG. 4A (a)) is severe, it occurred due to the difference in the shooting time. The extraction accuracy of the area 38 (FIG. 4C) related to the privacy information is lowered due to an unnecessary shadow or the like. Therefore, the shooting time of the unmanned image (2) 32-2 used by the head range extraction unit 152, the body range extraction unit 154, and the human probability distribution control unit 160 is related to privacy information when it is closer to the shooting time of the original image 30. The extraction accuracy of the region 38 to be improved improves.

上記の無人画像(2)32−1を参照して、無人画像生成部130から出力される撮像部112から画像取得部114を経て転送される原画像30内のプライバシー情報に関係する領域38を抽出する(図4Aを用いた説明内容参照)。   With reference to the unmanned image (2) 32-1, the region 38 related to the privacy information in the original image 30 transferred from the imaging unit 112 output from the unmanned image generation unit 130 via the image acquisition unit 114 is displayed. Extract (refer to the description using FIG. 4A).

さらに図6の応用例の場合には、プライバシー情報に関係する領域38内の領域毎に人物らしさ(人物確率)を評価し、人物らしい(人物確率が高い)領域と人物らしくない(人物確率が低い)領域間でプライバシー加工方法を変化させる。そのために必要な人物確率が、人物確率分布計測部160内で算出される。   Further, in the case of the application example of FIG. 6, the individuality (person probability) is evaluated for each area in the area 38 related to privacy information, and the person-like area (person probability is high) and the person-like area (person probability is high). Change the privacy processing method between the (low) areas. A person probability necessary for this is calculated in the person probability distribution measurement unit 160.

前記人物確率分布計測部160内では、プライバシー情報に関係する領域38内での領域毎の形状とその時間変化(に基付く形状変化)を利用して人物確率が算出される。すなわち直立状態の人物は、最上部に頭、次に胸、腹、足の順番に配置されている。従って前記人間の体形とプライバシー情報に関係する領域38内の各領域の外形をパターンマッチング手法を用いて一致度を算出する。すなわち人間の体形に形状を有した領域では、人物確率が高いと見なす。一方で人物は両足を動かして移動すると共に両腕を動かして移動する。従ってプライバシー情報に関係する領域38の輪郭形状の時間変化に応じた変化状態が足の動きや手の動きに合致した領域では、人物確率が高いと見なす。他方で形状変化しないまま移動する領域に関しては、鞄などの人物の所有物や車と見なし、人物確率の値を小さくする。   In the person probability distribution measurement unit 160, the person probability is calculated by using the shape of each region in the region 38 related to privacy information and its time change (based on the shape change). That is, the person in an upright state is arranged in the order of the head at the top, then the chest, belly, and feet. Accordingly, the degree of coincidence is calculated by using a pattern matching method for the outer shape of each region in the region 38 related to the human body shape and privacy information. That is, it is considered that the human probability is high in the area having a shape of the human body. On the other hand, the person moves by moving both feet and moves by moving both arms. Therefore, it is considered that the person probability is high in the area where the change state according to the time change of the contour shape of the area 38 related to the privacy information matches the movement of the foot or the movement of the hand. On the other hand, a region that moves without changing its shape is regarded as a personal property such as a bag or a car, and the value of the human probability is reduced.

プライバシー加工の方法としては、ぼかし、モザイク、塗りつぶし、他の生き物への形状変化や縦横比率を変化させる形状変化、もしくは形状変化、色彩変化、明度変化等を行うが前記プライバシー加工部116で行うプライバシー情報に関係する領域の加工は一種類ではなく、複数種類のプライバシー加工方法が使用できる。そして、図4Cで説明したように、画像合成部118でプライバシー加工された画像40と無人画像32が合成される。この画像合成に先立ち、人物確率分布計測部160内でプライバシー情報に関係する領域38内の領域毎の人物確率が算出される。そしてその領域毎に算出された人物確率値に基づき、前記複数種類のプライバシー加工された画像40の中から最適画像が選択されて合成される。その結果として、人物らしさに応じて異なるプライバシー加工された画像(図6(e))が表示される。   Privacy processing methods include blurring, mosaic, painting, shape changes to other creatures, shape changes that change the aspect ratio, shape changes, color changes, brightness changes, etc. The processing of the area related to information is not one type, and a plurality of types of privacy processing methods can be used. Then, as described with reference to FIG. 4C, the image 40 privacy-processed by the image combining unit 118 and the unmanned image 32 are combined. Prior to this image composition, the person probability distribution measuring unit 160 calculates the person probability for each area in the area 38 related to the privacy information. Based on the person probability value calculated for each area, the optimum image is selected from the plurality of types of privacy-processed images 40 and synthesized. As a result, a privacy-processed image (FIG. 6 (e)) that differs depending on the character of the person is displayed.

頭範囲検出部152では、抽出されたプライバシー情報に関係する領域38内での特徴的な形状の抽出がなされる。人物の頭部は顔面領域と髪形領域から構成される。また上記顔面領域内では目や鼻、口、眉毛(と耳)がそれぞれ固有の形状を形成しながら所定位置に配置される。これらの各領域の配置状況をパターンマッチング手法などを用いて抽出する事で、プライバシー情報に関係する領域38内での頭部の範囲を検出する。   The head range detection unit 152 extracts a characteristic shape in the region 38 related to the extracted privacy information. A person's head is composed of a face area and a hairstyle area. In the face area, eyes, nose, mouth, and eyebrows (and ears) are arranged at predetermined positions while forming unique shapes. By extracting the arrangement status of each of these areas using a pattern matching method or the like, the range of the head in the area 38 related to the privacy information is detected.

例えば図3(b)の移動人物44など小さく映った人物では顔面内での目や鼻、口、眉毛(と耳)の配置関係の解析は難しい。このような場合には縦に細長い人体形状を抽出し、その上部が頭部に該当すると推定しても良い。   For example, it is difficult to analyze the positional relationship between the eyes, nose, mouth, and eyebrows (and ears) in the face of a small person such as the moving person 44 in FIG. In such a case, it may be estimated that a vertically elongated human body shape is extracted and the upper part corresponds to the head.

体範囲検出部154でも同様に、抽出されたプライバシー情報に関係する領域38内での特徴的な形状の抽出がなされる。そして予め準備した人体形状との間のパターンマッチング処理等により、人体領域を推定する。   Similarly, the body range detection unit 154 extracts a characteristic shape in the region 38 related to the extracted privacy information. And a human body area | region is estimated by the pattern matching process etc. with the human body shape prepared previously.

このように頭範囲検出部152と体範囲検出部154で推定(検出)された頭部とこの頭部以外の体領域を抽出する。そしてその抽出結果を利用して頭部と頭部以外の体領域で異なるプライバシー加工を施す(図7(e))。   In this manner, the head estimated (detected) by the head range detection unit 152 and the body range detection unit 154 and a body region other than the head are extracted. Then, using the extraction result, different privacy processing is performed between the head and the body region other than the head (FIG. 7E).

図5(f)に示す人の動きを表現する画像58は、画像履歴保存部134及び移動情報抽出部136、移動情報の履歴保存部138、移動情報集計部140を利用して作成する。画像取得部114から画像蓄積部132を経て蓄積された画像は、画像履歴保存部134に逐次保存される。   The image 58 representing the movement of the person shown in FIG. 5F is created using the image history storage unit 134, the movement information extraction unit 136, the movement information history storage unit 138, and the movement information aggregation unit 140. The images accumulated from the image acquisition unit 114 via the image accumulation unit 132 are sequentially stored in the image history storage unit 134.

画像履歴保存部134に保存される画像履歴に関する管理情報の一例を図15に示す。個々の画像は図15内の画像の欄内に保存される。またこの画像を撮影した撮像部(カメラ)112の識別情報(カメラID)と撮影時刻が管理情報の一部として記録される。   An example of the management information related to the image history stored in the image history storage unit 134 is shown in FIG. Individual images are stored in the image column in FIG. In addition, identification information (camera ID) of the imaging unit (camera) 112 that has captured the image and a shooting time are recorded as part of the management information.

移動情報抽出部136では、画像履歴保存部134から得られる過去に取得した画像と現在取得された原画像82とを比較する。そこで得られた差分情報が移動情報88(図5(b))として、移動情報の履歴保存部138内に逐次保存される。 The movement information extraction unit 136 compares the image acquired in the past obtained from the image history storage unit 134 with the original image 82 currently acquired. The difference information obtained there is sequentially stored in the movement information history storage unit 138 as movement information 88 (FIG. 5B).

移動情報の履歴保存部138内に保存される移動情報88の履歴に関する管理情報の一例を図14に示す。移動情報88の元になる原画像82を撮影した撮像部(カメラ)112の識別情報(カメラID)が記載されている。また移動情報抽出部136内で移動情報88が算出された時刻情報が、計測時刻として記録される。   An example of management information relating to the history of the movement information 88 stored in the movement information history storage unit 138 is shown in FIG. The identification information (camera ID) of the imaging unit (camera) 112 that captured the original image 82 that is the basis of the movement information 88 is described. Further, the time information at which the movement information 88 is calculated in the movement information extraction unit 136 is recorded as the measurement time.

図5(b)に示すように、移動情報88は変位ベクトル情報として管理される。すなわち過去に取得した画像と現在取得された原画像82とを比較結果得られる差分情報(移動情報88)において、差分が発生した画素位置が“画像内領域座標”(変位ベクトルの始点座標)として管理される。また移動量が変位ベクトルの長さ、移動方向が変位ベクトルの向きで表される。従って変位ベクトルの終点(先端)位置を表す座標が、“移動ベクトル”の座標として記録される。   As shown in FIG. 5B, the movement information 88 is managed as displacement vector information. That is, in the difference information (movement information 88) obtained as a result of comparing the image acquired in the past with the original image 82 currently acquired, the pixel position where the difference has occurred is set as “region coordinates in the image” (starting point coordinates of the displacement vector). Managed. The movement amount is represented by the length of the displacement vector, and the movement direction is represented by the direction of the displacement vector. Therefore, the coordinates representing the end point (tip) position of the displacement vector are recorded as the coordinates of the “movement vector”.

そして移動情報集計部140内で移動情報の履歴保存部138内に保存された移動情報88を集計し、その結果に基付いてプライバシー加工部116内で人物の移動を表現してプライバシー加工した画像52(図5(c))を生成する。   Then, the movement information 88 stored in the movement information history storage unit 138 is totaled in the movement information totaling unit 140, and based on the result, the privacy processing unit 116 expresses the movement of the person and privacy-processed image. 52 (FIG. 5C) is generated.

上記一連の処理結果で得られた送信/表示される画像58、68、78は、画像送信部120から表示部(パソコン、スマートフォン、電子掲示板など)122に転送され、表示部上で表示される。   The images 58, 68, and 78 to be transmitted / displayed obtained as a result of the series of processing are transferred from the image transmission unit 120 to the display unit (personal computer, smartphone, electronic bulletin board, etc.) 122 and displayed on the display unit. .

本実施形態における撮影システム102では内部にデータ処理/データベース管理部106を有し、プライバシー情報(や人物通行)に関係するデータの蓄積/統計処理が同時並行できる。このように表示部122に送信/表示される画像58、68、78を表示して不特定多数者に閲覧可能にするだけでなく、同時に撮像部(カメラ)112で撮影した原画像30を利用したデータ処理/データベース管理が行える。このように撮像部(カメラ)112で撮影した原画像30を複数目的に利用できるため、原画像30の利用効率を向上させる効果が有る。   The photographing system 102 according to the present embodiment has a data processing / database management unit 106 therein, and data storage / statistical processing related to privacy information (and personal traffic) can be performed in parallel. As described above, the images 58, 68, and 78 transmitted / displayed on the display unit 122 are displayed so that they can be viewed by an unspecified number of people, and the original image 30 captured by the imaging unit (camera) 112 is used at the same time. Data processing / database management. As described above, since the original image 30 captured by the imaging unit (camera) 112 can be used for a plurality of purposes, there is an effect of improving the use efficiency of the original image 30.

具体的には人物確率分布計測部160で算出した画像内の領域毎の人物確率を利用し、撮影した原画像30内に映った人数を人数集計部162内で推定する。その結果は混雑履歴保存部164内に逐次保存され、混雑状況統計処理システム168内で統計処理されて撮影現場内での混雑状況の時間変化が分かる。   Specifically, the number of people reflected in the photographed original image 30 is estimated in the number of people counting unit 162 using the person probability for each region in the image calculated by the person probability distribution measuring unit 160. The result is sequentially stored in the congestion history storage unit 164 and statistically processed in the congestion status statistical processing system 168, so that the temporal change of the congestion status in the photographing site can be known.

この混雑履歴保存部164内に保存された混雑履歴に関する管理情報の一例を図16に示す。混雑履歴情報の元になる原画像82を撮影した撮像部(カメラ)112の識別情報が、カメラIDとして記載されている。また人数集計部162内で推定して得られた混雑履歴情報の算出日時情報が、計測時刻として記録される。また図14内の画像内領域座標と同様に、原画像82内で特に混雑した場所が座標で記録されるとともに、その場所での混雑状況が混雑値として記録される。ここで前記の混雑値は、座標で指定された対象領域の人数や人口密度などを表している。   An example of management information relating to the congestion history stored in the congestion history storage unit 164 is shown in FIG. The identification information of the imaging unit (camera) 112 that captured the original image 82 that is the basis of the congestion history information is described as the camera ID. Also, the calculation date / time information of the congestion history information obtained by estimation in the number of persons counting unit 162 is recorded as the measurement time. Similarly to the area coordinates in the image in FIG. 14, a particularly congested location in the original image 82 is recorded as coordinates, and the congestion status at that location is recorded as a congestion value. Here, the congestion value represents the number of people in the target area specified by coordinates, the population density, and the like.

図8では撮像部(カメラ)112と画像加工部104が近接して描かれている。しかしそれに限らず図9のように、撮像器(カメラ)252と送信/表示する画像を生成するコンピュータ256が離れた位置に配置されても良い。   In FIG. 8, the imaging unit (camera) 112 and the image processing unit 104 are drawn close to each other. However, the present invention is not limited thereto, and as shown in FIG. 9, the image pickup device (camera) 252 and the computer 256 that generates an image to be transmitted / displayed may be arranged at a distance.

撮像器(カメラ)252内部は撮像部264と撮影した画像を一時保管する半導体メモリ部266、通信部262から構成されている。また上記通信部262は有線または無線回線を通じてインターネット200に接続され、撮像部264で撮影された原画像30がインターネット200を経由してコンピュータ256内の通信部272に有線または無線回線を通じて送信される。なお撮像器(カメラ)252とコンピュータ256間の原画像30送信にはインターネット200の回線を使用する代わりに専用のネットワーク回線を使用しても良い。   The imaging device (camera) 252 includes an imaging unit 264, a semiconductor memory unit 266 that temporarily stores captured images, and a communication unit 262. The communication unit 262 is connected to the Internet 200 through a wired or wireless line, and the original image 30 captured by the imaging unit 264 is transmitted to the communication unit 272 in the computer 256 via the wired or wireless line via the Internet 200. . A dedicated network line may be used for transmitting the original image 30 between the image pickup device (camera) 252 and the computer 256 instead of using the line of the Internet 200.

送信/表示する画像68を生成するコンピュータ256は、大形コンピュータに限らず中形の汎用コンピュータやパーソナルコンピュータで有っても良い。撮像器(カメラ)252から転送された原画像30は一時的にメモリ部276内に保存される。そしてメモリ部276から表示部274に表示された原画像30は、入力部278を操作して送信/表示する画像68が生成される。ここでこれらの一連の処理は制御部270で行われる。すなわち図8の画像加工部104やデータ処理/データベース管理部106内の処理は、制御部270で実行されるプログラムにそって進められる。   The computer 256 that generates the image 68 to be transmitted / displayed is not limited to a large computer but may be a medium-sized general-purpose computer or a personal computer. The original image 30 transferred from the image pickup device (camera) 252 is temporarily stored in the memory unit 276. The original image 30 displayed on the display unit 274 from the memory unit 276 generates an image 68 to be transmitted / displayed by operating the input unit 278. Here, a series of these processes is performed by the control unit 270. That is, the processing in the image processing unit 104 and the data processing / database management unit 106 in FIG. 8 is advanced according to a program executed by the control unit 270.

コンピュータ256内の処理で作成された送信/表示する画像68は、インターネット200を経由してウェブ・サーバ202内のデータベース226内に保存される。そして不特定多数者が閲覧用に使用する携帯端末250はインターネット200を経由し、上記ウェブ・サーバ202から送信/表示する画像68の閲覧を行う。 また携帯端末250が送信/表示する画像68の閲覧を行うためのアクセス先は上記に限らず、所定のデータベース228を持つデータベースサーバ204でも良い。   The image 68 to be transmitted / displayed created by the processing in the computer 256 is stored in the database 226 in the web server 202 via the Internet 200. The portable terminal 250 used for browsing by an unspecified majority person browses the image 68 transmitted / displayed from the web server 202 via the Internet 200. The access destination for browsing the image 68 transmitted / displayed by the portable terminal 250 is not limited to the above, and may be the database server 204 having a predetermined database 228.

本実施形態では送信/表示する画像68に限らず、無人画像32もウェブ・サーバ202内のデータベース226あるいはデータベースサーバ204内のデータベース228内に事前に送信しても良い。携帯端末250の表示部284内に表示される表示切替指定領域288をユーザが操作する事で、上記表示部284に表示させる画像を無人画像32に切り替える事が可能となる。携帯端末250を使用するユーザの一部は撮影現場の混雑状況に興味が有り、プライバシー保護された混雑状況の画像を閲覧する。しかし携帯端末250を使用するユーザに拠っては、背景の景色を表示する無人画像32に興味を示す場合が有る。このように送信/表示する画像68と共に無人画像32を予め送信する事で、多様なユーザに対応した多様な画像を表示できる効果が有る。   In the present embodiment, not only the image 68 to be transmitted / displayed but also the unmanned image 32 may be transmitted in advance to the database 226 in the web server 202 or the database 228 in the database server 204. When the user operates the display switching designation area 288 displayed in the display unit 284 of the portable terminal 250, the image displayed on the display unit 284 can be switched to the unmanned image 32. Some of the users who use the portable terminal 250 are interested in the congestion situation at the shooting site, and browse the image of the congestion situation with privacy protection. However, depending on the user who uses the portable terminal 250, there are cases where the user is interested in the unmanned image 32 displaying the background scenery. Thus, by transmitting the unmanned image 32 together with the image 68 to be transmitted / displayed in advance, there is an effect that various images corresponding to various users can be displayed.

本実施形態の他の応用例として、図10に示すように、図8の画像加工部104やデータ処理/データベース管理部106に対応した処理を実行する制御部240と撮像部(カメラ部)246を携帯端末206内に共に内蔵させても良い。この場合には原画像30の撮影と送信/表示する画像68の作成を同一の携帯端末206内で行っても良い。   As another application example of the present embodiment, as shown in FIG. 10, a control unit 240 and an imaging unit (camera unit) 246 that execute processing corresponding to the image processing unit 104 and the data processing / database management unit 106 of FIG. May be built in the portable terminal 206 together. In this case, the original image 30 may be captured and the image 68 to be transmitted / displayed may be generated in the same portable terminal 206.

この場合には図8の画像加工部104内での機能の一部をグラフィクスコントローラ248に持たせても良い。しかし画像加工部104に示す大部分は制御部240(およびグラフィクスコントローラ248)内で実行するプログラム(ソフトウェア)で実行される。   In this case, the graphics controller 248 may have a part of the functions in the image processing unit 104 in FIG. However, most of the image processing unit 104 is executed by a program (software) executed in the control unit 240 (and the graphics controller 248).

図10の携帯端末206において、高速な画像処理に関係する撮像部(カメラ部)246とグラフィクスコントローラ248、半導体メモリ部236、制御部240間は高速転送用のノースブリッジ242で接続する。一方表示部234や通信部232などの比較的低速でのデータ転送を許容する部分での接続には、サウスブリッジ244を使用する。   In the portable terminal 206 of FIG. 10, the imaging unit (camera unit) 246 related to high-speed image processing, the graphics controller 248, the semiconductor memory unit 236, and the control unit 240 are connected by a north bridge 242 for high-speed transfer. On the other hand, the south bridge 244 is used for connection at a portion that allows data transfer at a relatively low speed such as the display unit 234 and the communication unit 232.

上記携帯端末206内で作成した送信/表示する画像68や無人画像32を閲覧する場合には、図9と同様に通信部222と表示部224が内蔵された携帯端末210を使用しても良い。またそれに限らず、ルーター208を経由して固定据え置き形のインターネット接続テレビ212やパソコン214、電子掲示板216に表示させても良い。   When viewing the image 68 to be transmitted / displayed or the unmanned image 32 created in the portable terminal 206, the portable terminal 210 in which the communication unit 222 and the display unit 224 are built may be used as in FIG. . However, the present invention is not limited thereto, and may be displayed on the fixed stationary Internet connection television 212, the personal computer 214, or the electronic bulletin board 216 via the router 208.

図9の制御部270や図10の制御部240(あるいはグラフィクスコントローラ248)内で実行するプログラム(ソフトウェア)の基本アーキテクチャを図11に示す。   FIG. 11 shows a basic architecture of a program (software) executed in the control unit 270 of FIG. 9 and the control unit 240 (or graphics controller 248) of FIG.

図8の撮像部(カメラ)112を用いた撮影制御と画像送信部120内での外部への通信制御は、携帯端末制御用メインプログラム(クラス)308が担う。ここで図9のコンピュータ256に内蔵された制御部270内でプログラム実行する場合は、携帯端末制御用メインプログラム(クラス)308に相当するメインプログラム(クラス)を使用する。   The mobile terminal control main program (class) 308 performs shooting control using the imaging unit (camera) 112 in FIG. 8 and external communication control in the image transmission unit 120. Here, when the program is executed in the control unit 270 built in the computer 256 of FIG. 9, a main program (class) corresponding to the main program (class) 308 for controlling the mobile terminal is used.

この携帯端末制御用メインプログラム(クラス)308内の下位プログラム(サブプログラムやメソッド)に位置するカメラコントロールサブプログラム/メソッド(カメラコントローラ)316が、撮像部(カメラ部)246の制御を行う。   A camera control subprogram / method (camera controller) 316 located in a lower program (subprogram or method) in the main program (class) 308 for mobile terminal control controls the imaging unit (camera unit) 246.

またここで撮影された原画像30を半導体メモリ部236内に一時保存する場合には、メモリコントロールサブプログラム/メソッド(メモリコントローラ)318を使用する。図10で既に説明した撮影システム応用例では、撮影された原画像30は携帯端末206内の半導体メモリ部236内に一時保存される。一方では図9の撮影システムにおける撮影された原画像30の一時保存先は、コンピュータ256内のメモリ部276となる。従ってこの場合には、前記メモリコントロールサブプログラム/メソッド(メモリコントローラ)318と後述する専用のメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)は、コンピュータ256内のメモリ部276を制御(ドライブ)する。   Further, when the original image 30 photographed here is temporarily stored in the semiconductor memory unit 236, a memory control subprogram / method (memory controller) 318 is used. In the imaging system application example already described with reference to FIG. 10, the captured original image 30 is temporarily stored in the semiconductor memory unit 236 in the portable terminal 206. On the other hand, the temporary storage destination of the original image 30 captured in the imaging system of FIG. 9 is the memory unit 276 in the computer 256. Therefore, in this case, the memory control subprogram / method (memory controller) 318 and a dedicated memory memory control subprogram / method (dedicated memory controller) described later control (drive) the memory unit 276 in the computer 256. .

図8内の画像加工部104とデータ処理/データベース管理部106内の機能は、プライバシー保護対応画像編集用サブプログラム/メソッド300が担う。すなわち携帯端末制御用メインプログラム(クラス)308内で呼び出すプライバシー保護対応制御サブプログラム/メソッド(プライバシー保護コマンダ)314から専用API(Application Programming Interface)304を使用して、上記のプライバシー保護対応画像編集用サブプログラム/メソッド300に対して所定の処理指示を出す。   The functions in the image processing unit 104 and the data processing / database management unit 106 in FIG. 8 are handled by the privacy protection-compatible image editing subprogram / method 300. That is, the above-mentioned privacy protection-compatible image editing is performed by using a dedicated API (Application Programming Interface) 304 from the privacy protection-compatible control subprogram / method (privacy protection commander) 314 to be called in the mobile terminal control main program (class) 308. A predetermined processing instruction is issued to the subprogram / method 300.

一方で上記プライバシー保護対応画像編集用サブプログラム/メソッド300内ではインタープリタサブプログラム/メソッド(インタープリタ)324が上記の専用API304を用いたコマンドを受けて、指示コマンド内容を解釈する。そしてその結果を基にプライバシー保護対応統合プログラム/クラス(インテグレータ)330が、上記プライバシー保護対応画像編集用サブプログラム/メソッド300内で設定された各サブプログラム/メソッドを呼び出して上記の指示に沿った実行処理を行う。   On the other hand, in the privacy protection compliant image editing subprogram / method 300, an interpreter subprogram / method (interpreter) 324 receives a command using the dedicated API 304 and interprets the contents of the instruction command. Based on the result, the privacy protection compatible integrated program / class (integrator) 330 calls each subprogram / method set in the privacy protection compatible image editing subprogram / method 300 and follows the above instructions. Perform execution processing.

ここで図8の画像履歴保存部134と移動情報の履歴保存部138、混雑履歴保存部164内に保存される情報は、半導体メモリ部236内の異なる領域内にそれぞれ保存される。このように本実施形態では半導体メモリ部236へのアクセスを頻繁に行うため、上記専用の半導体メモリ部236へのアクセス制御を担うメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)328を各サブプログラム/メソッドの直下に配置している。これにより各サブプログラム/メソッド内での半導体メモリ部236へのアクセス制御の高速化が図れる効果が有る。   Here, the information stored in the image history storage unit 134, the movement information history storage unit 138, and the congestion history storage unit 164 of FIG. 8 is stored in different areas in the semiconductor memory unit 236. As described above, in this embodiment, since the semiconductor memory unit 236 is frequently accessed, the memory memory control subprogram / method (dedicated memory controller) 328 responsible for the access control to the dedicated semiconductor memory unit 236 is assigned to each subprogram. / Located directly under the method. This has the effect of speeding up the access control to the semiconductor memory unit 236 within each subprogram / method.

所で図11内の無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)332は、図8内の画像蓄積部132、画像履歴保存部134、無人画像生成部130の機能を担う。ここでこの無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)332内の詳細な実行フローは図12内の右側に記載したフローチャートに対応する。   11 is responsible for the functions of the image storage unit 132, the image history storage unit 134, and the unmanned image generation unit 130 in FIG. Here, the detailed execution flow in the unattended image creation subprogram / method (background generator) 332 corresponds to the flowchart shown on the right side in FIG.

また図11内の移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)334は、図8内の画像履歴保存部134、移動情報抽出部136、移動情報の履歴保存部138、移動情報集計部140の機能を担う。そしてこの移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)334内の詳細な実行フローは、図12内の左側に記載したフローチャートに対応する。   Further, the movement information extraction / management subprogram / method (moving part extractor) 334 in FIG. 11 includes an image history storage unit 134, a movement information extraction unit 136, a movement information history storage unit 138, and movement information in FIG. The function of the totaling unit 140 is assumed. The detailed execution flow in the movement information extraction / management subprogram / method (moving part extractor) 334 corresponds to the flowchart shown on the left side in FIG.

更に図11内の送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)336は、図8内の頭範囲検出部152、体範囲検出部154、人物確率分布計測部160、プライバシー加工部116、画像合成部118の各機能を担う。またこの送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)336内の詳細な実行フローは、図13に示すフローチャートに対応する。   Further, the transmission / display image generation subprogram / method (privacy protector) 336 in FIG. 11 includes a head range detection unit 152, a body range detection unit 154, a person probability distribution measurement unit 160, and a privacy processing unit 116 in FIG. Each function of the image composition unit 118 is assumed. The detailed execution flow in the transmission / display image generation subprogram / method (privacy protector) 336 corresponds to the flowchart shown in FIG.

そして図11内のプライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)338は、図8内のデータ処理/データベース管理部106内の機能を担う。このプライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)338内の詳細なフローチャートは、図13内左側に記載された画素毎に人物が映っている度合いを計算するStep38と、人物範囲内の人数を計算するStep51および混雑情報を保存するStep52が対応する。   Then, the subprogram / method (data manager) 338 for controlling the accumulation / statistical processing of data related to the privacy information (or person traffic) in FIG. 11 performs the functions in the data processing / database management unit 106 in FIG. Bear. A detailed flowchart in the control subprogram / method (data manager) 338 for storing / stating statistical data related to this privacy information (or person traffic) shows a person for each pixel described on the left side in FIG. Step 38 for calculating the degree of traffic, Step 51 for calculating the number of people in the person range, and Step 52 for storing the congestion information correspond to each other.

図9の制御部270内あるいは図10の制御部240内(およびグラフィクスコントローラ248内の一部)で実行するプログラムのフローチャートを図12に示す。Step1で撮影システムを開始すると、Step3の撮影システムが終了するまで、画像取得(Step2)が続く。   FIG. 12 shows a flowchart of a program executed in the control unit 270 of FIG. 9 or the control unit 240 of FIG. 10 (and a part of the graphics controller 248). When the photographing system is started in Step 1, image acquisition (Step 2) continues until the photographing system in Step 3 is completed.

そして無人画像の生成開始の指示が来ると(Step11)、Step2で取得した画像を画像履歴保存部134(図8:Step13に対応)内へ適宜保存する(Step12)。その後のStep14で画像履歴保存部134から適宜保存した画像を適宜読み出し、無人画像32の生成が終了するとStep15の終了処理を実行する。   When an instruction to start generation of an unmanned image is received (Step 11), the image acquired in Step 2 is appropriately stored in the image history storage unit 134 (corresponding to Step 13 in FIG. 8) (Step 12). Thereafter, in Step 14, the image stored as appropriate is read from the image history storage unit 134 as appropriate, and when the generation of the unmanned image 32 is completed, the processing of Step 15 is completed.

このStep14での無人画像生成方法として例1では、夜間など人の居ない時間帯に撮影した画像を使用する。また他の例2では、一定時間ごとの画像から動きの無い部分を合成して生成しても良い。   In Example 1, as an unattended image generation method at Step 14, an image taken in a time zone where there is no person, such as at night, is used. In another example 2, it may be generated by synthesizing a portion having no motion from an image at regular intervals.

次に図5(f)に示す送信/表示する画像58内に人物の移動情報を表示する場合にはStep21に示すように、移動情報生成開始の指示を受ける。すると過去の画像と比較し、画像内の動きを計算し(Step22)、その結果を移動情報の履歴保存部138(図8:Step23に対応)内へ適宜保存する。その後にStep24で一定時間分の移動情報を集計し、その結果得られた移動情報88を移動情報の履歴保存部138内へ保存する。そして移動情報の生成処理が完了すると、その終了処理を行う(Step25)。   Next, when the movement information of a person is displayed in the image 58 to be transmitted / displayed shown in FIG. 5F, an instruction to start generation of movement information is received as shown in Step 21. Then, the image is compared with the past image, the motion in the image is calculated (Step 22), and the result is appropriately stored in the movement information history storage unit 138 (corresponding to Step 23 in FIG. 8). After that, at Step 24, the movement information for a predetermined time is totaled, and the movement information 88 obtained as a result is stored in the movement information history storage unit 138. When the generation process of the movement information is completed, the end process is performed (Step 25).

上記のStep24における一定時間分の移動情報の具体的な集計方法として例1では、移動情報の平均を取っても良い。また他の例2では、画像内の場所(領域)毎に人物の移動方向を学習させ、その結果を使用しても良い。   In the first example, the movement information may be averaged as a specific method of counting the movement information for a certain time in Step 24 described above. In another example 2, the moving direction of the person may be learned for each place (area) in the image, and the result may be used.

図13に、本実施形態における送信/表示する画像50、58、68、78の生成手順を示す。Step31で撮影システムの開始指示を受けると、Step45の撮影システム終了直前の受信側で表示するStep44までの一連のループ処理が任意の間隔で繰り返される(Step32)。   FIG. 13 shows a procedure for generating images 50, 58, 68, and 78 to be transmitted / displayed in the present embodiment. When an instruction to start the imaging system is received at Step 31, a series of loop processing up to Step 44 displayed on the receiving side immediately before the end of the imaging system at Step 45 is repeated at arbitrary intervals (Step 32).

上記のループ処理の中で画像取得(Step33)直後に、画素毎に体が映っている度合いの計算(Step34)と画素毎に頭が映っている度合いの計算(Step35)、画素毎に人物が映っている度合いの計算(Step38)が同時並行的に実行される。   Immediately after the image acquisition (Step 33) in the above loop processing, the calculation of the degree that the body is reflected for each pixel (Step 34), the calculation that the head is reflected for each pixel (Step 35), The calculation of the degree of reflection (Step 38) is executed in parallel.

上記処理の具体的方法を示す例1では、無人画像と現在の画像の画素値の差の絶対値が大きいほど人物である度合いが大きい(確率が高い)と見なしても良い。   In Example 1 showing the specific method of the above processing, the degree of being a person may be considered to be higher (the probability is higher) as the absolute value of the difference between the pixel values of the unmanned image and the current image is larger.

また他の具体的方法を示す例2では、予め人物(頭部や体)が映っている画像を複数学習しておき、現在の画像の中から学習結果と近いものが映っている範囲が人物(あるいは頭部や体)の度合いが大きい(確率が高い)と見なしても良い。   In Example 2 showing another specific method, a plurality of images in which a person (head or body) is shown in advance are learned, and the range in which the current image is close to the learning result is shown as a person. It may be considered that the degree of (or head or body) is large (the probability is high).

さらに他の例3では、上記説明した例1や例2などの複数の手法を並行して実施し、それぞれ得られた度合い(確率)の合計値や平均値などで人物である度合い(確率)を判定しても良い。   In yet another example 3, a plurality of methods such as example 1 and example 2 described above are performed in parallel, and the degree (probability) of a person in terms of the total value or average value of the obtained degrees (probabilities). May be determined.

図5を用いて前述したように人物の移動速度に応じて体(または着衣や携帯品)の色を変更したい場合(Step36)には、図12内で生成した移動情報88とStep34で得られた画素毎に体が映っている度合いの計算結果を使用する。   As described above with reference to FIG. 5, when it is desired to change the color of the body (or clothes or portable items) according to the moving speed of the person (Step 36), the movement information 88 generated in FIG. 12 and Step 34 are used. The calculation result of the degree that the body is reflected for each pixel is used.

このStep36での人物の移動速度に応じて体(または着衣や携帯品)の色を変更する具体的な例1として、移動している人物(全体または着衣部など体の一部)をグレースケールに表示し、移動速度に応じて濃度(黒の度合い)を変化させても良い。   As a specific example 1 in which the color of the body (or clothing or portable items) is changed according to the moving speed of the person in Step 36, the moving person (the whole or a part of the body such as the clothing part) is grayscale. And the density (degree of black) may be changed according to the moving speed.

また他の例2として、移動している人物と止まっている人物別に色を変化させても良い。   As another example 2, the color may be changed according to a moving person and a stopped person.

更に図7を用いて前述したように顔面領域内(顔範囲)のみに“ぼかし”を掛けたり(プライバシー加工する)画像全体に“ぼかし”を掛ける(プライバシー加工する)場合には(Step37)、図12内で生成した移動情報88とStep35で得られた画素毎に頭が映っている度合いの計算結果を使用する。   Further, as described above with reference to FIG. 7, when “blurring” is applied only to the face area (face area) (privacy processing) or “blur” is applied to the entire image (privacy processing) (Step 37), The movement information 88 generated in FIG. 12 and the calculation result of the degree that the head is reflected for each pixel obtained in Step 35 are used.

更に図5で説明したように人物の移動方向も表示する他の方法としてStep37で、移動方向に合わせて“ぼかし”を掛けても良い。   Further, as described in FIG. 5, as another method for displaying the moving direction of the person, Step 37 may apply “blur” in accordance with the moving direction.

そしてStep37で得られたプライバシー加工後の映像と図12内で得られた無人画像32をStep39で合成する。更に図6を用いて前述したように画像内で人物確率が異なる領域毎に異なるプライバシー加工を施す場合にはStep41に記載したように、人物である度合い(確率)に応じて“ぼかし加工”済画像と無人画像32の画素値を加重平均してプライバシー情報に関係する領域38内での透明度を変化させても良い。   Then, the privacy-processed video image obtained in Step 37 and the unmanned image 32 obtained in FIG. 12 are synthesized in Step 39. Further, as described above with reference to FIG. 6, when different privacy processing is performed for each region having different human probabilities in the image, as described in Step 41, “blurring processing” has been completed according to the degree (probability) of being a person. The pixel values of the image and the unmanned image 32 may be weighted and averaged to change the transparency in the area 38 related to privacy information.

その後に送信/表示する画像を生成し(Step42)、生成した画像を送信する(Step43)。   Thereafter, an image to be transmitted / displayed is generated (Step 42), and the generated image is transmitted (Step 43).

また撮影した原画像30を用いて例えば撮影現場の混雑状況の時間変化の統計を取るなどのデータの蓄積/処理(あるいはデータベース管理とそのデータを用いた統計処理)の例を以下に説明する。   An example of data accumulation / processing (or database management and statistical processing using the data) such as taking statistics of temporal changes in the congestion situation at the shooting site, for example, using the captured original image 30 will be described below.

Step33で取得した原画像30に対して、Step38では人物が映っている度合い(人物確率)を画素毎に計算する。そして算出された人物が映っている度合い(人物確率)が所定の判定値(例えば50%または70%)を超えた部分では、原画像30内に人物が映っていると判定(推定)する。   For the original image 30 acquired in Step 33, in Step 38, the degree (person probability) in which a person is shown is calculated for each pixel. Then, it is determined (estimated) that the person is reflected in the original image 30 in a portion where the calculated degree (person probability) of the person exceeds a predetermined determination value (for example, 50% or 70%).

次にその人物が映っていると判定された画素を集計し、原画像30内に映っている人数を算出する(Step51)。一般的に同一人物が複数画素間に跨って映る場合が多い。従って人物が映っている度合い(人物確率)が所定の判定値(例えば50%または70%)を超えた画素間の連続性を判断して複数人物間の切り分け領域を推定し、原画像30内の人数を予測する。   Next, the pixels determined that the person is shown are totaled, and the number of people shown in the original image 30 is calculated (Step 51). In general, the same person often appears across a plurality of pixels. Accordingly, the continuity between pixels whose degree of human appearance (person probability) exceeds a predetermined determination value (for example, 50% or 70%) is determined to estimate the segmentation area between a plurality of persons, and within the original image 30 Predict the number of people.

このStep51で得られた同一原画像30内に映った人物数(人数)を混雑履歴保存部164内に順次保存する(Step52)。この混雑履歴保存部164内に保存される情報は図16を用いて既に説明したように、人数算出時刻(計測時刻)毎の混雑値が記録される。   The number of persons (number of people) shown in the same original image 30 obtained in Step 51 is sequentially stored in the congestion history storage unit 164 (Step 52). The information stored in the congestion history storage unit 164 records a congestion value for each number of people calculation time (measurement time) as already described with reference to FIG.

その後で図8の混雑状況統計処理システム168が混雑履歴保存部164内の混雑履歴情報(図16)を統計処理し、撮影現場の混雑状況と混雑場所に対する時間変化状況を分析しても良い。   Thereafter, the congestion status statistical processing system 168 in FIG. 8 may statistically process the congestion history information (FIG. 16) in the congestion history storage unit 164, and analyze the congestion situation at the photographing site and the time change situation with respect to the congestion location.

上記した実施形態の説明では、プライバシー加工する対象は、すべての人物であるかのごとく説明した。しかし、上記したシステムは、必要に応じて特定の人物に関しては、プライバシー加工することなく、該特定の人物を鮮明な画像のまま提供することも可能である。例えば現場において、撮像信号が、緊急時のレポートに利用される場合、或いは、ニュースに利用されるような場合、レポーターやアナウンサーの画像は鮮明であっても構わない。このような必要性が生じた場合は、例えば図8に示した画像取得部114から出力される原画像30が、パーソナルコンピュータ等256の表示部274に入力され、オペレータにより確認される。オペレータは、特定の人物の画像の例えば顔或いは身体全体を例えば表示部274上で指定する。指定方法としては、例えば入力部278の一部であるマウスのポインタにより枠を描画して、特定人物の画像の例えば顔或いは体全体を囲み、決定操作を行う。これにより、頭範囲検出部152及び又は体範囲検出部154が、特定人物を検出(顔認識処理を行うと好ましい)した場合には、当該人物に関しては、プライバシー加工をしないように、プライバシー加工部116に制御情報を伝送する。なお特定人物の検出方法としては、説明した方法に限らず各種の方法が可能である。例えば特定人物が特定の識別しやすい衣裳や帽子を着用し、頭範囲検出部152及び又は体範囲検出部154が、該衣裳や帽子を検出できるようにしてもよい。   In the description of the above-described embodiment, the privacy processing target is described as if it is all persons. However, the above-described system can provide a specific person as a clear image without processing privacy for the specific person as necessary. For example, when the imaging signal is used for an emergency report or used for news in the field, the image of the reporter or the announcer may be clear. When such a necessity arises, for example, the original image 30 output from the image acquisition unit 114 shown in FIG. 8 is input to the display unit 274 of the personal computer 256 and is confirmed by the operator. The operator designates, for example, the face or the entire body of an image of a specific person on the display unit 274, for example. As a designation method, for example, a frame is drawn with a mouse pointer that is a part of the input unit 278, and for example, a face or the whole body of an image of a specific person is surrounded, and a determination operation is performed. As a result, when the head range detection unit 152 and / or the body range detection unit 154 detects a specific person (preferably performing face recognition processing), the privacy processing unit does not process the privacy for the person. Control information is transmitted to 116. The specific person detection method is not limited to the method described above, and various methods are possible. For example, a specific person may wear a specific easily-identifiable costume or hat, and the head range detection unit 152 and / or body range detection unit 154 may detect the costume or hat.

いくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

2、4、6 撮影された原画像内人物
10 原画像の例
12、14 撮影された原画像内で検出された人物範囲を示す領域
22 人物範囲検出
24 検出範囲にぼかし加工
30 原画像
32 無人画像
34 無人画像領域
36 少し後に撮影された原画像
38 プライバシー情報に関係する領域
40 プライバシー加工された画像
42、44、46、48 移動人物
50 送信/表示する画像
52、62、72 全体をプライバシー加工した例
54、64、74 プライバシー情報に関係する領域例
56、66、76 無人画像例
58 送信/表示画像
68、78 送信/表示する画像例
82 原画像例
84、86 原画像例
88 移動情報例
102 撮影システム
104 画像加工部
106 データ処理/データベース管理部
112 撮像部(カメラ)
114 画像取得部
116 プライバシー加工部
118 画像合成部
120 画像送信部
122 表示部(パソコン、スマートフォン、電子掲示板など)
130 無人画像生成部
132 画像蓄積部
134 画像履歴保存部
136 移動情報抽出部
138 移動情報の履歴保存部
140 移動情報集計部
152 頭範囲検出部
154 体範囲検出部
160 人物確率分布計測部
162 人数集計部
164 混雑履歴保存部
168 混雑状況統計処理システム
200 インターネット
202 ウェブ・サーバ
204 データベースサーバ
206、210、250 携帯端末
208 ルーター
212 インターネット接続テレビ
214 パソコン
216 電子掲示板
222、232、262、272 通信部
224、234、274、284 表示部
236、266 半導体メモリ部
240、270 制御部
242 ノースブリッジ
244 サウスブリッジ
246 撮像部(カメラ部)
248 グラフィックスコントローラ
252 撮像機(カメラ)
256 コンピュータ
264 撮像部
274、284 表示部
276 メモリ部
278 入力部
288 表示切替指定領域
300 プライバシー保護対応画像編集用サブプログラム/メソッド
304 専用API
308 携帯端末制御用メインプログラム(クラス)
314 プライバシー保護対応制御サブプログラム/メソッド(プライバシー保護コマンダ)
316 カメラコントロールサブプログラム/メソッド(カメラコントローラ)
318 メモリコントロールサブプログラム/メソッド(メモリコントローラ)
324 インタープリタサブプログラム/メソッド(インタープリタ)
328 専用のメモリメモリコントロールサブプログラム/メソッド(専用メモリコントローラ)
330 プライバシー保護対応統合プログラム/クラス(インテグレータ)
332 無人画像作成用サブプログラム/メソッド(バックグラウンドジェネレータ)
334 移動情報抽出/管理用サブプログラム/メソッド(ムービングパートイクストラクタ)
336 送信/表示用画像生成用サブプログラム/メソッド(プライバシープロテクタ)
338 プライバシー情報(や人物通行)に関係するデータの蓄積/統計処理の制御用サブプログラム/メソッド(データマネージャ)。
2, 4, 6 Person in original image taken 10 Example of original image 12, 14 Region indicating person range detected in photographed original image 22 Person range detection 24 Blur processing to detection range 30 Original image 32 Uninhabited Image 34 Unattended image region 36 Original image taken a little later 38 Region related to privacy information 40 Privacy processed image 42, 44, 46, 48 Moving person 50 Image to be transmitted / displayed 52, 62, 72 Privacy processing Example 54, 64, 74 Example of region related to privacy information 56, 66, 76 Example of unmanned image 58 Example of transmission / display image 68, 78 Example of image to be transmitted / displayed 82 Example of original image 84, 86 Example of original image 88 Example of movement information 102 Imaging System 104 Image Processing Unit 106 Data Processing / Database Management Unit 112 Imaging Unit (Camera)
114 Image acquisition unit 116 Privacy processing unit 118 Image composition unit 120 Image transmission unit 122 Display unit (PC, smartphone, electronic bulletin board, etc.)
DESCRIPTION OF SYMBOLS 130 Unattended image production | generation part 132 Image storage part 134 Image history preservation | save part 136 Movement information extraction part 138 Movement information history preservation | save part 140 Movement information total part 152 Head range detection part 154 Body range detection part 160 Person probability distribution measurement part 162 Person totalization Unit 164 congestion history storage unit 168 congestion status statistical processing system 200 internet 202 web server 204 database server 206, 210, 250 portable terminal 208 router 212 internet connection television 214 personal computer 216 electronic bulletin board 222, 232, 262, 272 communication unit 224, 234, 274, 284 Display unit 236, 266 Semiconductor memory unit 240, 270 Control unit 242 North bridge 244 South bridge 246 Imaging unit (camera unit)
248 Graphics Controller 252 Imager (Camera)
256 Computer 264 Imaging unit 274, 284 Display unit 276 Memory unit 278 Input unit 288 Display switching designation area 300 Privacy protection compatible image editing subprogram / method 304 Dedicated API
308 Main program (class) for mobile terminal control
314 Privacy protection control subprogram / method (privacy protection commander)
316 Camera Control Subprogram / Method (Camera Controller)
318 Memory control subprogram / method (memory controller)
324 interpreter subprogram / method (interpreter)
328 Dedicated memory memory control subprogram / method (dedicated memory controller)
330 Integrated Program / Class for Privacy Protection (Integrator)
332 Subprogram / method (background generator) for unattended image creation
334 Subprogram / method for moving information extraction / management (moving part extractor)
336 Subprogram / method for image generation for transmission / display (privacy protector)
338 A subprogram / method (data manager) for controlling accumulation / statistical processing of data related to privacy information (and personal traffic).

Claims (6)

撮影された画像もしくは映像の中からプライバシー情報を含まない無人画像を生成する無人画像生成部と、
撮影された原画像の中でプライバシー情報に関係する領域に関してプライバシー加工するプライバシー加工部と、
前記プライバシー加工部で生成されたプライバシー加工後の画像と前記無人画像とを合成する画像合成部から構成され、
前記無人画像を参照して前記プライバシー情報に関係する領域を抽出する撮影システム。
An unmanned image generation unit that generates an unmanned image that does not include privacy information from the captured image or video;
A privacy processing unit that processes privacy regarding the area related to privacy information in the captured original image;
Consists of an image synthesis unit that synthesizes the image after privacy processing generated by the privacy processing unit and the unmanned image,
An imaging system for extracting an area related to the privacy information with reference to the unmanned image.
過去の画像との比較により画像内の移動情報を抽出し、
一定時間分の前記移動情報を集計して移動方向を算出する移動情報集計部を有し、
前記移動情報集計部から得られた情報に基付いて前記のプライバシー加工を行う請求項1記載の撮影システム。
Extract movement information in the image by comparing with past images,
A movement information totaling unit that calculates the movement direction by totaling the movement information for a certain period of time;
The imaging system according to claim 1, wherein the privacy processing is performed based on information obtained from the movement information aggregation unit.
前記プライバシー情報に関係する領域の中から人物の頭範囲を検出する頭範囲検出部と、
前記プライバシー情報に関係する領域の中から人物の体範囲を検出する体範囲検出部とを有し、
前記頭範囲と頭部以外の体範囲内の少なくとも一部で異なるプライバシー加工を行う請求項1記載の撮影システム。
A head range detection unit for detecting a head range of a person from the area related to the privacy information;
A body range detection unit that detects the body range of a person from the area related to the privacy information;
The imaging system according to claim 1, wherein different privacy processing is performed in at least a part of the body range other than the head range and the head range.
撮影された画像もしくは映像の中からプライバシー情報に関係する領域を抽出し、前記領域内をプライバシー加工するプライバシー加工部と、
前記プライバシー情報に関係する領域内で頭部を検出する頭範囲検出部と、
前記プライバシー情報に関係する領域内での体領域を検出する体範囲検出部と、
前記頭範囲検出部で検出された頭部と、前記体範囲検出部での検出結果に基付く前記頭部以外の体領域内の少なくとも一部で異なるプライバシー加工が上記プライバシー加工部内で行われる撮影システム。
A privacy processing unit that extracts a region related to privacy information from the captured image or video, and processes the privacy in the region;
A head range detection unit for detecting a head in an area related to the privacy information;
A body range detection unit that detects a body region within a region related to the privacy information;
Photography in which privacy processing is performed in the privacy processing unit, which is different between at least a part of the body region other than the head based on the detection result of the head range detection unit and the detection result of the body range detection unit. system.
撮像部で撮影された原画像の少なくとも一部が、
画像加工部内で加工生成された後、
画像送信部から送信される画像もしくは映像の表示方法で有り、
前記画像もしくは映像内はプライバシー情報を含まない無人画像領域とプライバシー加工後の画像領域とを含み、
前記プライバシー加工後の画像領域にはプライバシー情報が含まれ、
また前記プライバシー情報には人物の顔の一部を含む事が可能な画像や映像の表示方法。
At least a part of the original image captured by the imaging unit is
After being processed and generated in the image processing section,
It is a method for displaying images or videos sent from the image sending unit,
The image or video includes an unattended image area that does not include privacy information and an image area after privacy processing,
Privacy information is included in the image area after the privacy processing,
In addition, the privacy information may include an image or video display method that can include a part of a person's face.
撮像部で撮影された原画像の少なくとも一部が、
画像加工部内で加工生成された後、
画像送信部から送信される画像もしくは映像の表示方法で有り、
前記画像もしくは映像内はプライバシー情報を含まない無人画像領域とプライバシー情報に関係する領域とを含み、
前記プライバシー情報に関係する領域内の人物の頭部と前記頭部以外の体領域内の少なくとも一部では異なるプライバシー加工に基付く表示が行われる画像や映像の表示方法。
At least a part of the original image captured by the imaging unit is
After being processed and generated in the image processing section,
It is a method for displaying images or videos sent from the image sending unit,
The image or video includes an unattended image area that does not include privacy information and an area related to privacy information,
An image or video display method in which display based on different privacy processing is performed on at least a part of a person's head in an area related to the privacy information and a body area other than the head.
JP2016075843A 2016-04-05 2016-04-05 Image capturing system and image and video display method Active JP6419749B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016075843A JP6419749B2 (en) 2016-04-05 2016-04-05 Image capturing system and image and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016075843A JP6419749B2 (en) 2016-04-05 2016-04-05 Image capturing system and image and video display method

Publications (2)

Publication Number Publication Date
JP2017188771A true JP2017188771A (en) 2017-10-12
JP6419749B2 JP6419749B2 (en) 2018-11-07

Family

ID=60046577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016075843A Active JP6419749B2 (en) 2016-04-05 2016-04-05 Image capturing system and image and video display method

Country Status (1)

Country Link
JP (1) JP6419749B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019079357A (en) * 2017-10-26 2019-05-23 Kddi株式会社 Learning video selecting device, program and method for selecting, as learning video, shot video with predetermined image region masked
JP2020048055A (en) * 2018-09-19 2020-03-26 株式会社東芝 Image sensor, sensing method, control system, and program
CN111179299A (en) * 2018-11-09 2020-05-19 珠海格力电器股份有限公司 Image processing method and device
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program
DE112018005681T5 (en) 2017-09-28 2020-07-16 Mitsubishi Heavy Industries, Ltd. THERMAL SPRAYING NOZZLE AND THERMAL PLASMA SPRAYING DEVICE
CN113158220A (en) * 2020-01-22 2021-07-23 富士通株式会社 Information processing method, information processing apparatus, and computer-readable recording medium
EP3855332A1 (en) 2020-01-22 2021-07-28 Fujitsu Limited Information processing program, information processing method, and information processing apparatus to determine whether a process uses sensitive information
WO2021250805A1 (en) * 2020-06-10 2021-12-16 マクセル株式会社 Watching monitoring device and watching monitoring method
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
WO2023037549A1 (en) * 2021-09-13 2023-03-16 日本電気株式会社 Monitoring image generation system, image processing device, image processing method, and program
JP7516515B2 (en) 2020-06-10 2024-07-16 マクセル株式会社 Monitoring device and monitoring method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2009225398A (en) * 2008-03-19 2009-10-01 Secom Co Ltd Image distribution system
JP2013066016A (en) * 2011-09-16 2013-04-11 Univ Of Electro-Communications Outline extraction system, outline extraction device and outline extraction program
JP2015222881A (en) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213181A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Privacy protection image generation device
JP2009225398A (en) * 2008-03-19 2009-10-01 Secom Co Ltd Image distribution system
JP2013066016A (en) * 2011-09-16 2013-04-11 Univ Of Electro-Communications Outline extraction system, outline extraction device and outline extraction program
JP2015222881A (en) * 2014-05-23 2015-12-10 パナソニックIpマネジメント株式会社 Monitoring device, monitoring system and monitoring method
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018005681T5 (en) 2017-09-28 2020-07-16 Mitsubishi Heavy Industries, Ltd. THERMAL SPRAYING NOZZLE AND THERMAL PLASMA SPRAYING DEVICE
JP2019079357A (en) * 2017-10-26 2019-05-23 Kddi株式会社 Learning video selecting device, program and method for selecting, as learning video, shot video with predetermined image region masked
JP2020048055A (en) * 2018-09-19 2020-03-26 株式会社東芝 Image sensor, sensing method, control system, and program
JP7237499B2 (en) 2018-09-19 2023-03-13 株式会社東芝 Image sensor, sensing method, control system and program
US11984141B2 (en) 2018-11-02 2024-05-14 BriefCam Ltd. Method and system for automatic pre-recordation video redaction of objects
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN111179299A (en) * 2018-11-09 2020-05-19 珠海格力电器股份有限公司 Image processing method and device
JP2020086504A (en) * 2018-11-15 2020-06-04 日本電気株式会社 Image processing apparatus, image processing method and program
JP7387981B2 (en) 2018-11-15 2023-11-29 日本電気株式会社 Image processing device, image processing method, program
EP3855332A1 (en) 2020-01-22 2021-07-28 Fujitsu Limited Information processing program, information processing method, and information processing apparatus to determine whether a process uses sensitive information
EP3855333A1 (en) 2020-01-22 2021-07-28 Fujitsu Limited Information processing program, information processing method, and information processing apparatus to determine whether a process uses sensitive information
CN113158220A (en) * 2020-01-22 2021-07-23 富士通株式会社 Information processing method, information processing apparatus, and computer-readable recording medium
US11797707B2 (en) 2020-01-22 2023-10-24 Fujitsu Limited Non-transitory computer-readable recording medium having stored therein information processing program, information processing method, and information processing apparatus
WO2021250805A1 (en) * 2020-06-10 2021-12-16 マクセル株式会社 Watching monitoring device and watching monitoring method
US20230300296A1 (en) * 2020-06-10 2023-09-21 Maxell, Ltd. Watching monitoring device and watching monitoring method
JP7516515B2 (en) 2020-06-10 2024-07-16 マクセル株式会社 Monitoring device and monitoring method
WO2023037549A1 (en) * 2021-09-13 2023-03-16 日本電気株式会社 Monitoring image generation system, image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP6419749B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6419749B2 (en) Image capturing system and image and video display method
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
CN113810587B (en) Image processing method and device
JP6599436B2 (en) System and method for generating new user selectable views
CN102694969B (en) Image processing device and image processing method
JP5569990B2 (en) Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system
JP6397581B2 (en) Congestion status visualization device, congestion status visualization system, congestion status visualization method, and congestion status visualization program
CN103731583B (en) Intelligent synthetic, print processing method is used for taking pictures
CN111861879A (en) Method and apparatus for human super-resolution from low resolution images
WO2019050916A1 (en) Techniques for rendering three-dimensional animated graphics from video
CN107341435A (en) Processing method, device and the terminal device of video image
KR102097781B1 (en) Apparatus and Method for Providing Object Information
CN105556508A (en) Devices, systems and methods of virtualizing a mirror
JP2019009752A (en) Image processing device
CN108388882A (en) Based on the gesture identification method that the overall situation-part is multi-modal RGB-D
JP2004145448A (en) Terminal device, server device, and image processing method
US20120170800A1 (en) Systems and methods for continuous physics simulation from discrete video acquisition
CN110827193A (en) Panoramic video saliency detection method based on multi-channel features
EP2276234A1 (en) Image processing device, camera, image processing method, and program
KR102382247B1 (en) Image processing apparatus, image processing method, and computer program
JP2019135810A (en) Image processing apparatus, image processing method, and program
JP2022105590A (en) Information processing device, information processing method, and program
CN108564654B (en) Picture entering mode of three-dimensional large scene
KR20160091119A (en) Apparatus and Method for Estimating Human Characteristics based on Imaga
JP6544970B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181010

R150 Certificate of patent or registration of utility model

Ref document number: 6419749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150