JP7506109B2 - 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法 - Google Patents

画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法 Download PDF

Info

Publication number
JP7506109B2
JP7506109B2 JP2022064668A JP2022064668A JP7506109B2 JP 7506109 B2 JP7506109 B2 JP 7506109B2 JP 2022064668 A JP2022064668 A JP 2022064668A JP 2022064668 A JP2022064668 A JP 2022064668A JP 7506109 B2 JP7506109 B2 JP 7506109B2
Authority
JP
Japan
Prior art keywords
image
variable
value
user terminal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022064668A
Other languages
English (en)
Other versions
JP2023154981A (ja
Inventor
満 中澤
科翰 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022064668A priority Critical patent/JP7506109B2/ja
Publication of JP2023154981A publication Critical patent/JP2023154981A/ja
Application granted granted Critical
Publication of JP7506109B2 publication Critical patent/JP7506109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法に関する。
たとえば下記特許文献1には、学習済みモデルを利用して画像データの異常を検出する装置が記載されている。
特開2022-26016号公報
発明者は、画像データが示す画像中の人の状態に関して異常の有無を判定することを検討した。その場合、たとえば、身体の所定部位が露出している画像データを異常とすることが考えられる。しかし、所定部位が部分的に露出しているのみの場合に、一律、異常と判定することは望ましくない。すなわち、たとえば海水浴場で水着を着ている場合には、これを異常とすることは必ずしも適切とは限らない。
以下、上記課題を解決するための手段およびその作用効果について記載する。
1.実行装置、および記憶装置を備え、前記記憶装置には、前景識別写像データと、背景識別写像データと、が記憶され、前記前景識別写像データは、前景識別写像を規定するためのデータであり、前記前景識別写像は、前景識別変数の値を出力する写像であり、前記前景識別変数は、評価対象の画像データが示す画像において人の状態を識別する変数であり、前記背景識別写像データは、背景識別写像を規定するためのデータであり、前記背景識別写像は、背景識別変数の値を出力する写像であり、前記背景識別変数は、前記画像データが示す前記人の背景の種類を識別する変数であり、前記実行装置は、前景識別処理、背景識別処理、および評価処理を実行するように構成され、前記前景識別処理は、前記画像データを前記前景識別写像に入力することによって前記前景識別変数の値を出力する処理であり、前記背景識別処理は、前記画像データを前記背景識別写像に入力することによって前記背景識別変数の値を識別する処理であり、前記評価処理は、前記画像データに異常があるか否かを評価する処理であって且つ、前記前景識別変数の値が第1の値である場合には、前記背景識別変数の値にかかわらず異常があると評価して且つ、前記前景識別変数の値が前記第1の値とは別の第2の値である場合には、前記背景識別変数の値を加味して前記異常か否かを評価する処理を含む画像評価装置である。
上記構成では、前景識別変数の値が第1の値である場合、背景識別変数の値にかかわらず、異常があると判定する。そのため、人の状態に明らかに異常がある場合に、これを異常である旨評価する確実性を高めることができる。また、前景識別変数の値が第2の値である場合、背景識別変数の値を加味して異常か否かを評価する。そのため、人の状態が状況に応じて異常と評価すべきであったりすべきでなかったりする場合において、適切な評価をすることが可能となる。
2.前記第1の値は、身体の所定部位が露出している状態において前記前景識別変数の値が取り得る値であり、前記第2の値は、前記所定部位の少なくとも一部が衣類で覆われているものの、前記身体の露出度合いが大きい状態において前記前景識別変数の値が取り得る値である上記1記載の画像評価装置である。
所定部位の露出を異常と定義する場合、所定部位の一部が露出していても残りが衣類で覆われている場合の評価を、いかにするかが問題となる。そこで、上記構成では、そうした場合に背景識別変数の値を加味して異常の有無を判定する。これにより、身体の露出度が大きい場合に一律異常である旨評価するのではなく、状況に応じたより適切な評価をすることができる。
3.前記評価処理は、前記前景識別変数の値が前記第2の値であることと、前記背景識別変数の値が、前記背景が、水遊び、またはスポーツをする所定の場所において取り得る値であることとの論理積が真である場合、前記異常ではないと評価する処理と、前記前景識別変数の値が前記第2の値であることと、前記背景識別変数の値が、前記背景が前記所定の場所とは異なる所定の室内であるときに取り得る値であることとの論理積が真である場合、前記異常であると評価する処理と、を含む上記2記載の画像評価装置である。
身体の露出度合いが大きい場合であっても、背景が水遊び、またはスポーツをする所定の場所である場合には、必ずしも公序良俗に反するものではなく、異常と評価することが適切とは限らない。そこで上記構成では、そうした状況において、異常ではない旨評価することにより、適切な評価をすることができる。
4.前記前景識別変数は、衣類の種類を特定する値を含み、前記第2の値は、前記所定部位の少なくとも一部が、水着またはスポーツウェアで覆われている場合に取り得る値である上記3記載の画像評価装置である。
上記構成では、第2の値を、所定部位の少なくとも一部が、水着またはスポーツウェアで覆われている場合に取り得る値とする。そのため、たとえば露出度合いが大きい水着を着ている場合において、海水浴場等にいる場合にまで異常であると評価することを抑制できる。
5.前記前景識別写像は、露出度識別写像と、衣類識別写像と、を含み、前記露出度識別写像は、前記人の所定部位の露出度を示す変数である露出度変数の値を出力する写像であり、前記衣類識別写像は、前記人が身に着けている衣類の種類を識別する変数である衣類変数の値を出力する写像であり、前記前景識別変数は、前記露出度変数および前記衣類変数に基づく上記1~4のいずれか1つに記載の画像評価装置である。
上記構成では、露出度識別写像と、衣類識別写像とを用いることから、人の身体部位の露出度と、衣類の種類とを高精度に特定できる。そのため、前景識別変数を、人の状態の詳細を示す変数とすることができる。
6.前記前景識別写像は、身体識別写像と、着衣識別写像と、を含み、前記身体識別写像は、前記人の身体の部位を識別する変数である身体識別変数の値を出力する写像であり、前記着衣識別写像は、前記人の身体であるか、前記人が身に着けている衣類であるかを識別する変数である着衣識別変数の値を出力する写像であり、前記前景識別処理は、前記身体識別変数の値および前記着衣識別変数の値に応じて前記前景識別変数の値を算出する処理を含む上記1~5のいずれか1つに記載の画像評価装置である。
上記構成では、身体識別変数によって特定される身体の部位について、着衣識別変数によって露出しているか衣類を身に着けているかを把握できる。そのため、前景識別変数を、身体の部位の露出の有無を示す適切な変数とすることができる。
7.上記1~6のいずれか1つに記載の画像評価装置における前記実行装置、および前記記憶装置と、複数のユーザ端末と、を備え、前記実行装置は、提供処理、および制限処理を実行するように構成され、前記提供処理は、前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、前記制限処理は、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理である画像処理システムである。
上記提供処理および制限処理によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
8.前記ユーザ端末は、指示処理を実行するように構成され、前記評価処理は、前記異常の度合いを複数段階に評価する処理を含み、前記指示処理は、前記ユーザ端末において表示される画像の許容範囲を指示する処理であり、前記提供処理は、前記評価処理によって評価された前記異常の度合いが前記許容範囲内である場合に前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、前記制限処理は、前記評価処理によって評価された前記異常の度合いが前記許容範囲から外れる場合に前記画像データが示す画像が前記ユーザ端末により表示されることを制限する処理である上記7記載の画像処理システムである。
上記構成では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
9.前記制限処理は、前記画像データの前記ユーザ端末への送信を禁止する禁止処理と、前記画像データを制限指令とともに送信する制限送信処理と、の少なくとも1つの処理を含み、前記制限指令は、前記ユーザ端末において前記画像データが示す画像が警告とともに表示されるようにする指令、前記ユーザ端末において前記画像データが示す画像のうちの所定部位の露出にマスクをする指令、および前記ユーザ端末において前記画像データが示す画像を表示しないようにする指令のいずれかである上記7記載の画像処理システムである。
上記禁止処理によれば、ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が、ユーザ端末に表示されることを確実に抑制できる。また、上記制限送信処理によれば、以下のいずれかが可能となる。
・ユーザ端末により表示されることを制限すべき旨の警告がユーザ端末によってなされること。
・ユーザ端末に表示された画像中の所定部位の露出がマスクされること。
・ユーザ端末により表示されることを制限すべきと評価された画像データが示す画像が表示されることを、ユーザ端末において禁止すること。
10.上記8記載の画像処理システムにおける前記ユーザ端末である。
11.上記1~6のいずれか1つに記載の画像評価装置における前記各処理を実行するステップを有する画像評価方法である。
12.上記1記載の画像評価装置における前記各処理をコンピュータに実行させる画像評価プログラムである。
13.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データのうち、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
14.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末は、指示処理を実行するように構成され、上記1~6のいずれか1つに記載の画像評価装置における前記評価処理は、前記異常の度合いを複数段階に評価する処理を含み、前記指示処理は、前記ユーザ端末において表示される画像の許容範囲を指示する処理であり、前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記画像評価装置における前記評価処理によって評価された前記異常の度合いが前記許容範囲内である場合に前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって評価された前記異常の度合いが前記許容範囲から外れる場合に前記画像データが示す画像が前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
上記方法では、ユーザの意思に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
15.ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、前記ユーザ端末により表示される画像の候補を示す画像データを取得する取得工程と、前記取得工程において取得された前記画像データのうち上記1~6のいずれか1つに記載の画像評価装置における前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、前記取得工程において取得された前記画像データのうち、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、を有する画像表示支援方法である。
上記提供工程および制限工程によれば、評価処理による評価結果に応じて、ユーザ端末において画像データが示す画像を選択的に表示させることを適切に支援できる。
第1の実施形態にかかる画像処理システムの全体構成を示す図である。 同実施形態にかかる表示可能な画像を規定する図である。 同実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。 同実施形態にかかるフレーム評価処理の手順を示す流れ図である。 第2の実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。 第3の実施形態にかかるフレーム評価処理の手順を示す流れ図である。 同実施形態にかかるフレーム評価処理の手順を示す流れ図である。 第4の実施形態にかかるフレーム評価処理の手順を示す流れ図である。 第5の実施形態にかかる評価処理の手順を示す流れ図である。 同実施形態にかかるフレーム評価処理の手順を示す流れ図である。 同実施形態にかかるCM動画データが示す画像の表示支援に関する処理の手順を示す流れ図である。
<第1の実施形態>
以下、第1の実施形態について図面を参照しつつ説明する。
「前提構成」
図1に、画像処理システムの全体構成を示す。
複数の業者端末10(1),10(2),…は、何らかの商品を消費者に販売する業者が所持する端末である。なお、以下では、業者端末10(1),10(2),…を総括する場合、業者端末10と記載する。業者端末10は、PU12、記憶装置14、および通信機16を備えている。PU12は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。記憶装置14は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置14には、PU12が実行するプログラムが記憶されている。
業者端末10の通信機16は、ネットワーク20を介して画像評価装置30と通信可能とされる。業者端末10は、販売したい商品に関するCM動画データを画像評価装置30に送信する。ここで、CM動画データとは、たとえば商品を広告するためのコマーシャル動画に相当する。CM動画の再生時間、フレーム数、解像度、およびデータフォーマットに制限はない。
画像評価装置30は、CM動画データを評価して、問題がない場合にはユーザ端末50(1),50(2),…に送信する。以下では、ユーザ端末50(1),50(2),…を総括する場合、ユーザ端末50と記載する。
画像評価装置30は、PU32、記憶装置34、および通信機36を備えている。PU32は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。詳しくは、PU32は、画像処理、推論処理および並列処理等の所定の処理に特化したハードウェアアクセラレータを演算ユニットとして含んでよい。また、PU32は、ホモジニアスアーキテクチャまたはヘテロジニアスアーキテクチャの態様をとる演算ユニットを含んでよい。また、PU32は、単一のチップ上にモノリシックに集積された演算ユニットを含んでよく、チップレット等の複数のチップが接続された演算ユニットを含んでよい。記憶装置34は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置34には、画像評価プログラム34a、前景識別写像データ34b、背景識別写像データ34c、およびルールベースデータ34dが記憶されている。通信機36は、ネットワーク20を介して業者端末10およびユーザ端末50との通信を可能とするための機器である。
ユーザ端末50は、CM動画データを再生する端末である。ユーザ端末50は、CM動画が示す商品の購入操作を実行する機能を有してもよい。
ユーザ端末50は、PU52、記憶装置54、通信機56、およびユーザインターフェース58を備えている。PU52は、CPU、GPU、およびTPU等の演算ユニットを含むソフトウェア処理装置である。PU52は、PU32に含まれる態様の演算ユニットを含んでよい。記憶装置54は、電気的に書き換え可能な不揮発性メモリ、およびディスク媒体等の記憶媒体を備える。記憶装置54には、アプリケーションプログラム54aが記憶されている。アプリケーションプログラム54aは、画像評価装置30から送信されるCM動画データを再生するプログラムである。通信機56は、ネットワーク20を介して画像評価装置30との通信を可能とするための機器である。ユーザインターフェース58は、表示装置等を備える。
「画像評価処理」
画像評価装置30のPU32は、業者端末10から送信されたCM動画データがユーザ端末50によって再生して問題ないデータであるか否かを評価する。
図2は、再生して問題ないデータの定義の一例を示す。図2には、身体の部分のうち、所定部位に、マーキングがなされている。すなわち、部分「3」~「5」によって定義される胸部にマーキングがなされている。また、人体の正面視において、部分「10」、「11」、「18」によって定義される「正面下腹部」にマーキングがなされている。また、人体の背面における部分「12~14」,「18」によって定義される「尻部」にマーキングがなされている。PU32は、人の画像のうち図2にマーキングした箇所が顕著に露出した画像については、再生して問題がある画像であると評価する。
図3に、画像評価装置30によって実行される、図2に示した基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図3に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を表現する。
図3に示す一連の処理において、PU32は、まず、業者端末10から送信されたCM動画データを取得する(S10)。なお、ここで、「取得」は、記憶装置34に記憶されたCM動画データのうちの1つを選択的に読み出すことを意味する。この処理の前に、PU32は、通信機36を介して業者端末10から送信されたCM動画データを受信する。そして、PU32は、受信したCM動画データを記憶装置34に記憶する。
次にPU32は、CM動画データのフレームを指定する変数iを初期化する(S12)。この処理は、変数iを、CM動画データの先頭のフレームを指定する値とするための処理である。次に、PU32は、フレームデータFDを、N個周期で3個サンプリングする(S14)。すなわち、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)をサンプリングする。なお、フレームデータFD(1),FD(2),FD(3),…は、CM動画データの再生順序に従ったフレームデータFDの時系列を示す。詳しくは、フレームデータFDの後のカッコ内の数字が大きいほど、時系列的に後に再生されるフレームデータFDであることを示す。ちなみに、フレームデータFDは、レッド、グリーン、ブルーの3原色のそれぞれの輝度を示す「w×h」の画素数を有した2次元データである。ここで、「w」および「h」は自然数である。なお、以下では、上記3原色を適宜、「R,G,B」と表現する。
そして、PU32は、フレームデータFD(i)、FD(i+N)、FD(i+2N)のそれぞれを評価するフレーム評価処理を実行する(S16)。
図4に、フレーム評価処理の詳細を示す。
図4に示す一連の処理において、PU32は、1つのフレームデータFDを、露出度識別モデルM10に入力する(S30)。露出度識別モデルM10は、フレームデータFDが示す人の露出度を示す変数である露出度変数ye1,ye2,…の値を出力する。ここで、露出度変数ye1は、顔と手以外が衣類に覆われているなど身体の露出が特に問題ない状態であることを示す。露出度変数ye2は、胸部、正面下腹部、および尻部の少なくとも1つが露出している状態を示す。露出度変数ye3は、胸部が部分的に露出している状態を示す。詳しくは、胸部のうちの部分「4」および部分「5」については衣類で覆われているものの、部分「3」が露出している状態を示す。露出度識別モデルM10が出力する露出度変数は、5個以上であってよい。それらには、たとえば、正面下腹部のうちの部分「11」および部分「18」が衣類で覆われているものの、部分「10」が露出している状態等を示す値がある。なお、露出度変数ye1,ye2,…の値は、対応する露出度である確率を示す。たとえば、露出度変数ye1の値は、身体の露出が特に問題ない状態である確率を示す。なお、「露出している状態」とは、透明度の高い衣類で覆われている状態等の身体の表面が肉眼で視認しうる状態をさしてもよい。
露出度識別モデルM10は、例として、教師あり学習によって学習された学習済みモデルである。露出度識別モデルM10は、たとえば、上記露出度変数ye1,ye2,ye3,…のそれぞれに該当するフレームデータを訓練データとして学習されたモデルである。露出度識別モデルM10は、たとえばニューラルネットワーク(以下、NNと記載)を利用する(含む)モデルであってよい。その場合、露出度識別モデルM10を構成するNNの出力活性化関数は、例として、ソフトマックス関数であってよい。露出度識別モデルM10は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。
露出度識別モデルM10は、図1に示した記憶装置34に記憶された前景識別写像データ34bによって規定される。前景識別写像データ34bは、パラメトリックモデルである識別モデルの学習済みのパラメータの値を含むデータである。すなわち、たとえば、露出度識別モデルM10が畳み込みニューラルネットワーク(以下、CNNと記載)の場合、前景識別写像データ34bは、畳み込み処理に用いる各フィルタの値を含む。また、CNNが全結合レイヤ等を含む場合、前景識別写像データ34bは、全結合レイヤの重みを示すパラメータの値を含む。
またたとえば、露出度識別モデルM10が、Transformerベースのモデル(トランスフォーマエンコーダを備えるモデル)を利用(含む)してよい。この場合、前景識別写像データ34bは、次のデータを含んでもよい。たとえば、前景識別写像データ34bは、フレームデータFDを分割した各パッチを1次元のベクトルに変換する変換行列の成分の値を含んでよい。またたとえば、前景識別写像データ34bは、上記1次元のベクトルに変換された各パッチを、キー、クエリ、およびバリューの各ベクトルに変換する行列の値を含んでもよい。また、たとえば、前景識別写像データ34bは、1次元に変換されたパッチに埋め込む位置情報のデータを含んでもよい。なお、上記変換行列および位置情報データは、学習済みのデータであってもよい。ただし、これは、必ずしも上述した学習過程において学習された値である必要はない。たとえば、上記学習過程をファインチューニングとして且つ、それ以前に行われる学習においてのみ学習された値としてもよい。
なお、露出度識別モデルM10がNNの場合、前景識別写像データ34bは、活性化関数を規定するデータを含んでもよい。ただし、たとえば活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。
PU32は、S30の処理を完了する場合、露出度変数ye1,ye2,ye3,…のうちの値が最大となるものを、露出度変数Vepに代入する(S32)。ここで、露出度変数ye1,ye2,ye3,…の値は、ソフトマックス関数の出力値等であることから、最大値となるものを特定できる。S32の処理は、露出度変数ye1,ye2,ye3,…のうちの値が最大となるもののラベル変数自体を露出度変数Vepに代入する処理である。すなわち、たとえば露出度変数ye1の値が最大値の場合、露出度変数Vepに、ラベル変数としての露出度変数ye1を代入する。
次にPU32は、フレームデータFDを、背景識別モデルM12に入力することによって、背景識別変数yb1,yb2,…の値を算出する(S34)。背景識別変数yb1,yb2,…は、フレームデータFDが示す画像のうちの人以外の部分である背景の状態を識別するための変数である。なお、背景識別変数yb1,yb2,…の値は、背景の状態が該当する状態である確率を示す。
背景識別モデルM12は、例として、教師あり学習によって学習された学習済みモデルである。背景識別モデルM12は、たとえば、上記背景識別変数yb1,yb2,yb3,…のそれぞれに該当するフレームデータを訓練データとして学習されたモデルである。背景識別モデルM12は、たとえばNNであってよい。その場合、背景識別モデルM12を構成するNNの出力活性化関数は、例として、ソフトマックス関数であってよい。背景識別モデルM12は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。
背景識別モデルM12は、図1に示した記憶装置34に記憶された背景識別写像データ34cによって規定される。背景識別写像データ34cは、パラメトリックモデルである識別モデルの学習済みのパラメータの値を含むデータである。なお、背景識別モデルM12がNNの場合、背景識別写像データ34cは、活性化関数を規定するデータを含んでもよい。ただし、たとえば活性化関数を規定するデータは、画像評価プログラム34aに含めてもよい。なお、背景識別モデルM12がNNの場合、NNの具体的な構成は、露出度識別モデルM10の説明において例示した構成としてもよい。また、背景識別写像データ34cは、前景識別写像データ34bの説明において示したように、モデルに応じて適宜構成される。ちなみに、背景識別モデルM12を構成するアーキテクチャと露出度識別モデルM10を構成するアーキテクチャとが同一であることは必須ではない。
PU32は、S34の処理を完了する場合、背景識別変数yb1,yb2,yb3,…のうちの値が最大となるものを、背景識別変数Vbgに代入する(S36)。S36の処理は、背景識別変数yb1,yb2,yb3,…のうちの値が最大となるもののラベル変数自体を背景識別変数Vbgに代入する処理である。
そして、PU32は、露出度変数Vepと背景識別変数Vbgとに基づき、フレームデータFDが胸部、正面下腹部、および尻部の異常な露出がない画像を示すか否かを評価する(S38)。PU32は、記憶装置34に記憶されたルールベースデータ34dの規定に従って、異常の有無を評価する。図4には、ルールベースデータ34dの規定の一部を例示している。
図4に「OK」と記載しているのは、胸部、正面下腹部、および尻部の異常な露出がない旨評価がなされることを意味する。この評価を、OK判定と称する。図4に「NG」と記載しているのは、胸部、正面下腹部、および尻部の少なくとも1つに異常な露出がある旨評価がなされることを意味する。以下では、この判定を、NG判定と称する。
上述したように、露出度変数ye1は、露出部が顔および手のみである場合等、フレームデータFDが示す人のそれぞれの着衣状態に問題がないことを示す。そのため、ルールベースデータ34dは、露出度変数Vepの値が「ye1」である場合、背景識別変数Vbgの値にかかわらず、OK判定をすべきことを規定している。また、露出度変数ye2は、胸部、正面下腹部、および尻部の少なくとも1つが顕著に露出している状態を示す。そのため、ルールベースデータ34dは、露出度変数Vepの値が「ye2」である場合、背景識別変数Vbgの値にかかわらず、NG判定をすべきことを規定している。
これに対し、露出度変数ye3は、胸部のうちの部分「4」および部分「5」については衣類で覆われているものの、部分「3」が露出している状態を示す。こうした状態は、海水浴場において人がある程度露出度の大きい水着を着ている場合等において生じうる。また、こうした状態は、スポーツジムにおいて、人がある程度露出度の大きいトレーニングウェアを着ている場合等において生じうる。また、こうした状態は、ベッドルームにおいて人がセクシーな下着のみを身にまとっている場合にも生じうる。ここで挙げた例のうち、始めの2つの例と残りの1つの例とは、性格が異なる。そこで、ルールベースデータ34dは、始めの2つの例についてはOK判定をする一方、残りの1つの例についてはNG判定をするように規定する。具体的には、ルールベースデータ34dは、背景識別変数Vbgの値が「yb1,yb2」である場合、OK判定をするように規定する。ここで、背景識別変数yb1は、背景が、例として、屋外プール、屋内プール、川、湖、浜辺、海水浴場または海等、水遊びまたは水泳をする場所であることを示す。また、背景識別変数yb2は、背景が、例として、スポーツジム、またはテニスコート等の水泳以外のスポーツをする場所であることを示す。一方、ルールベースデータ34dは、背景識別変数Vbgの値が「yb3」である場合、NG判定をするように規定する。ここで、背景識別変数yb3は、背景が、例として、キッチン、リビングルームまたはベッドルーム等の所定の室内であることを示す。ルールベースデータ34dにおいて、OK判定またはNG判定の根拠として扱われる、露出度変数および背景識別変数等の各種変数の組み合わせは明示的に予め定められてよい。
PU32は、S38の処理を完了する場合、図3のS16の処理を完了する。
図3に戻り、PU32は、フレームデータFD(i),FD(i+N),FD(i+2N)のうちの2つ以上についてOK判定がなされたか否かを判定する(S18)。そして、PU32は、OK判定が1つ以下であると判定する場合(S18:NO)、S10の処理によって取得したCM動画データの配信(送信)を禁止する(S20)。S18の処理において否定判定されることは、CM動画データに、胸部、正面下腹部、および尻部の少なくとも1つに異常な露出がある旨の最終的な判定がなされたことを意味する。
一方、PU32は、OK判定が2つ以上であると判定する場合(S18:YES)、変数iに「N」を加算する(S22)。そしてPU32は、フレームデータFD(i+2N)が存在するか否かを判定する(S24)。この処理は、CM動画データの全てについてS16の処理を完了したか否かを判定する処理である。PU32は、フレームデータFD(i+2N)が存在すると判定する場合(S24:YES)、S14の処理に戻る。一方、PU32は、フレームデータFD(i+2N)が存在しないと判定する場合(S24:NO)、CM動画データを配信可能とする(S26)。すなわち、PU32は、ユーザ端末50からのリクエストに応じてCM動画データを配信する。
なお、PU32は、S20,S26の処理を完了する場合、図3に示した一連の処理を一旦終了する。
ここで、本実施形態の作用および効果について説明する。
PU32は、フレームデータFDを露出度識別モデルM10に入力することによって、露出度変数Vepの値を算出する。また、PU32は、フレームデータFDを背景識別モデルM12に入力することによって、背景識別変数Vbgの値を算出する。そしてPU32は、露出度変数Vepの値と、背景識別変数Vbgの値とに基づき、フレームデータFDを評価する。
ここで、PU32は、フレームデータFDが示す画像中の人の着衣状態に明らかな異常がある場合と明らかに異常がない場合とには、背景識別変数Vbgの値にかかわらず、フレームデータFDを評価する。一方、PU32は、フレームデータFDが示す画像中の人の着衣状態がグレーゾーンにある場合、背景識別変数Vbgの値を参照しつつ、フレームデータFDを評価する。したがって、フレームデータFDが配信すべきでないデータであるか否かを適切に評価できる。
<第2の実施形態>
以下、第2の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
図5に、本実施形態にかかる画像評価装置30によって実行される、図2に示した基準に沿った評価に基づいてCM動画データがユーザ端末50によって選択的に表示されることを支援する処理の手順を示す。図5に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図5において、図3に示した処理に対応する処理については、便宜上、同一のステップ番号を付与してその説明を省略する。
図5に示すように、PU32は、S18の処理において否定判定する場合(S18:NO)、CM動画データに制限指令を付与する(S20a)。そして、PU32は、S26の処理に移行する。
制限指令は、次の何れかの指令である。
・ユーザ端末50においてCM動画データが再生される場合、始めに警告をする指令である。これはユーザインターフェース58が備えるディスプレイに視覚情報を表示する処理としてもよい。またたとえば、ユーザインターフェース58が備えるスピーカから音声情報を出力する処理としてもよい。
・ユーザ端末50においてCM動画データが再生される場合、所定部位が露出しているシーンが再生される場合に再生画像にマスクをする指令である。マスクをする指令は、たとえば、再生画像に対して所定画像を重畳することでマスクをする指令であってもよい。また、たとえば、マスクをする指令は、再生画像に対してぼかし等のエフェクトを適用することでマスクをする指令であってもよい。またたとえば、マスクをする指令は、露出している所定部位の領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってもよい。またたとえば、露出している所定部位の領域を少なくとも含む再生画像の一部に対してばかし等のエフェクトを適用することでマスクをする指令であってもよい。
・ユーザ端末50に対してなされる、CM動画データを再生してはいけない旨の指令である。これは、たとえばアプリケーションプログラム54aが、同指令を検知する場合にはCM動画データの再生をしない設定と組み合わせることが望ましい。
<第3の実施形態>
以下、第3の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
本実施形態では、前景識別写像データ34bによって規定される学習済みモデルを変更する。
図6に、フレーム評価処理の詳細を示す。図6に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図6において、図4に示した処理に対応する処理については、便宜上、同一のステップ番号を付与する。
図6に示す一連の処理において、PU32は、まず、フレームデータFDを人識別モデルM14に入力することによって、フレームデータFDの各画素に、人を示す領域か否かに応じたラベル変数の値を付与する(S40)。人識別モデルM14は、セマンティックセグメンテーションを実行するモデルである。
人識別モデルM14は、例として、教師あり学習によって学習された学習済みモデルである。人識別モデルM14は、たとえば、画素領域のそれぞれに、人を示す場合とそうではない場合とで異なるラベル変数の値が付与されたフレームデータFDを訓練データとして学習されたモデルである。人識別モデルM14は、たとえばNNであってよい。その場合、人識別モデルM14を構成するNNの出力活性化関数は、ソフトマックス関数であってよい。人識別モデルM14は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。なお、人識別モデルM14がNNの場合、NNの具体的な構成は、露出度識別モデルM10の説明において例示した構成としてもよい。
人識別モデルM14は、図1に示した記憶装置34に記憶された前景識別写像データ34bによって規定される。前景識別写像データ34bは、パラメトリックモデルである人識別モデルM14の学習済みのパラメータの値を含むデータである。前景識別写像データ34bは、人識別モデルM14に応じて適宜構成される。
次にPU32は、S40の処理によって人を示すラベル変数の値が付与された画素のうちの連続する画素の塊ごとに、予め定められた背景画像に埋め込む(S42)。ここで、PU32は、人を示すラベル変数の値が付与された画素のうちの連続する画素を、1人の人を示す画素と見なす。また、PU32は、人を示すラベル変数の値が付与された画素のうちの不連続な画素については、異なる人を示す画素であるとみなす。したがって、PU32は、S42の処理によって、フレームデータFDが示す人の数に応じた埋込画像データIMDを生成する。埋込画像データIMDのそれぞれは、R,G,Bの3つの画像データを含む。なお、上記背景画像は、たとえば無地の背景画像であってもよい。
次にPU32は、S42の処理によって生成された画像データを、露出度識別モデルM10に入力することによって、露出度変数ye1,ye2,ye3,…の値を算出する(S30a)。そして、PU32は、S32の処理を実行する。
続いてPU32は、フレームデータFDを衣類識別モデルM16に入力することによって、衣類変数yc1,yc2,…の値を算出する(S44)。
衣類識別モデルM16は、例として、教師あり学習によって学習された学習済みモデルである。衣類識別モデルM16は、たとえば、衣類変数yc1,yc2,yc3,…のそれぞれに該当するフレームデータを訓練データとして学習されたモデルである。衣類識別モデルM16は、たとえばNNであってよい。その場合、衣類識別モデルM16を構成するNNの出力活性化関数は、例として、ソフトマックス関数であってよい。衣類識別モデルM16は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。なお、衣類識別モデルM16がNNの場合、NNの具体的な構成は、露出度識別モデルM10の説明において例示した構成としてもよい。
衣類識別モデルM16は、図1に示した記憶装置34に記憶された前景識別写像データ34bによって規定される。前景識別写像データ34bは、パラメトリックモデルである衣類識別モデルM16の学習済みのパラメータの値を含むデータである。また、前景識別写像データ34bは、衣類識別モデルM16に応じて適宜構成される。
次にPU32は、衣類変数yc1,yc2,…のうちの値が最大となるものを、衣類変数Vclに代入する(S46)。S46の処理は、衣類変数yc1,yc2,…のうちの値が最大となるもののラベル変数自体を、衣類変数Vclに代入する処理である。
次にPU32は、図7に示すように、S34,S36の処理を実行する。そしてPU32は、露出度変数Vepの値、衣類変数Vclの値および背景識別変数Vbgの値に応じて、フレームデータFDを評価する(S38a)。図7には、ルールベースデータ34dによって規定されるルールを例示している。
ここで、衣類変数yc1は、公序良俗に反するラベルが付与された衣類を示す変数である。ルールベースデータ34dは、衣類変数Vclの値が「yc1」である場合、露出度変数Vepの値と背景識別変数Vbgの値とにかかわらず、NG判定をすべきことを規定する。また、ルールベースデータ34dは、衣類変数Vclの値が「yc1」以外であって且つ露出度変数Vepの値が「ye1」である場合、背景識別変数Vbgの値にかかわらず、OK判定をすべきことを規定する。また、ルールベースデータ34dは、露出度変数Vepの値が「ye2」である場合、衣類変数Vclの値および背景識別変数Vbgの値にかかわらず、NG判定をすべきことを規定する。
一方、衣類変数yc2は、水着を示す変数である。ルールベースデータ34dは、露出度変数Vepの値が「ye3」であって且つ衣類変数Vclの値が「yc2」である場合、背景識別変数Vbgの値に応じて異なる評価を規定する。すなわち、ルールベースデータ34dは、背景識別変数Vbgの値が「yb1」である場合には、OK判定をすべきことを規定する。一方、ルールベースデータ34dは、背景識別変数Vbgの値が「yb3」である場合には、NG判定をすべきことを規定する。
また、衣類変数yc3は、スポーツウェアを示す変数である。ルールベースデータ34dは、露出度変数Vepの値が「ye3」であって且つ衣類変数Vclの値が「yc3」である場合、背景識別変数Vbgの値に応じて異なる評価を規定する。すなわち、ルールベースデータ34dは、背景識別変数Vbgの値が「yb2」である場合には、OK判定をすべきことを規定する。一方、ルールベースデータ34dは、背景識別変数Vbgの値が「yb3」である場合には、NG判定をすべきことを規定する。
PU32は、S38aの処理を完了する場合、S40の処理によって生成された埋込画像データIMDの全てについて、OK判定またはNG判定の何れかの評価が完了したか否かを判定する(S46)。PU32は、未だ評価が完了していない領域がある場合(S46:NO)、S30aの処理に戻る。一方、PU32は、全ての評価が完了したと判定する場合(S46:YES)、S38aの評価の対象となった埋込画像データIMDにNG判定されたデータがあったか否かを判定する(S48)。PU32は、NG判定されたデータがあると判定する場合(S48:YES)、NG判定をする(S50)。これに対し、PU32は、NG判定されたデータがないと判定する場合(S48:NO)、OK判定をする(S52)。
なお、PU32は、S50,S52の処理を完了する場合、図3のS16の処理を完了する。
以上説明した本実施形態によれば、上記第1の実施形態において得られる作用および効果に準じた効果に加えて、さらに以下の作用および効果が得られる。
(3-1)人の状態を識別する変数である前景識別変数を、露出度変数Vepと衣類変数Vclとの組によって構成した。これにより、フレームデータFDが示す人の状態が、CM動画データの配信にとって適切か否かをより詳細に評価できる。
(3-2)PU32は、フレームデータFDの画素領域のうち、人を示す画素領域を、連続する領域毎に抽出して、所定の背景画像に埋め込んだ。そしてPU32は、所定の背景画像に埋め込まれた人の画像データである埋込画像データIMDを、露出度識別モデルM10および衣類識別モデルM16に入力した。これにより、フレームデータFDが示す画像に複数の人が含まれる場合、複数の人のそれぞれについて状態を評価できる。
<第4の実施形態>
以下、第4の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
本実施形態では、前景識別写像データ34bによって規定される学習済みモデルを変更する。
図8に、フレーム評価処理の詳細を示す。図8に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。
図8に示す一連の処理において、PU32は、まずフレームデータFDを身体識別モデルM18に入力することによって、フレームデータFDの各画素に関する身体識別変数の値を算出する(S60)。身体識別変数は、対応する画素が表現する身体の部分を特定するラベル変数である。このラベル変数は、少なくとも図2の部分「3~5,11~14,18」のそれぞれを識別する変数である。身体識別モデルM18は、セマンティックセグメンテーションを実行するモデルである。
身体識別モデルM18は、例として、教師あり学習によって学習された学習済みモデルである。身体識別モデルM18は、たとえば、画素領域のそれぞれに、少なくとも図2の部分「3~5,11~14,18」のそれぞれを識別するラベル変数の値が付与されたフレームデータFDを訓練データとして学習されたモデルである。身体識別モデルM18は、たとえばNNであってよい。その場合、身体識別モデルM18を構成するNNの出力活性化関数は、ソフトマックス関数であってよい。身体識別モデルM18は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。なお、身体識別モデルM18がNNの場合、NNの具体的な構成は、露出度識別モデルM10の説明において例示した構成としてもよい。
身体識別モデルM18は、図1に示した記憶装置34に記憶された前景識別写像データ34bによって規定される。前景識別写像データ34bは、パラメトリックモデルである身体識別モデルM18の学習済みのパラメータの値を含むデータである。また、前景識別写像データ34bは、身体識別モデルM18に応じて適宜構成される。
次にPU32は、フレームデータFDを、着衣識別モデルM20に入力することによって、フレームデータFDが示す各画素に関する着衣識別変数の値を算出する(S62)。着衣識別変数は、対応する画素が、皮膚であるか衣類であるかそれ以外であるかを識別するラベル変数である。着衣識別モデルM20は、セマンティックセグメンテーションを実行するモデルである。
着衣識別モデルM20は、例として、教師あり学習によって学習された学習済みモデルである。着衣識別モデルM20は、たとえば、画素領域のそれぞれに、少なくとも皮膚、衣類、およびそれら以外のそれぞれを識別するラベル変数の値が付与されたフレームデータFDを訓練データとして学習されたモデルである。着衣識別モデルM20は、たとえばNNであってよい。その場合、着衣識別モデルM20を構成するNNの出力活性化関数は、ソフトマックス関数であってよい。着衣識別モデルM20は、教師なし学習によって学習された学習済みモデルであってよく、半教師あり学習によって学習された学習済みモデルであってもよい。着衣識別モデルM20がNNの場合、NNの具体的な構成は、露出度識別モデルM10の説明において例示した構成としてもよい。
着衣識別モデルM20は、図1に示した記憶装置34に記憶された前景識別写像データ34bによって規定される。前景識別写像データ34bは、パラメトリックモデルである着衣識別モデルM20の学習済みのパラメータの値を含むデータである。また、前景識別写像データ34bは、着衣識別モデルM20に応じて適宜構成される。
次にPU32は、胸部、正面下腹部、および尻部の少なくとも1つの領域に関する、着衣識別変数の値に、肌を示す値が含まれるか否かを判定する(S64)。ここで、胸部、正面下腹部、および尻部の少なくとも1つの領域は、身体識別変数の値によって、図2の部分「3~5,11~14,18」のいずれかを示す値が付与された領域である。S64の処理は、胸部、正面下腹部、および尻部の少なくとも一部が露出しているか否かを判定する処理である。PU32は、肌を示す値が存在すると判定する場合(64:YES)、着衣識別変数の値が肌を示す値となるのが、胸部のみであるか否かを判定する(S66)。
PU32は、上記肌を示す値となるのが胸部のみであると判定する場合(S66:YES)、図2に示した部分「4,5」に付与された着衣識別変数の値に肌を示す値が存在するか否かを判定する(S68)。そして、PU32は、肌を示す値が存在すると判定する場合(S68:YES)、露出度変数Vepに露出度変数ye2を代入する(S70)。S70の処理は、露出度変数Vepに、ラベル変数としての露出度変数ye2自体を代入する処理である。
一方、PU32は、図2に示した部分「4,5」に付与された着衣識別変数の値に肌を示す値が存在しないと判定する場合(S68:NO)、S72の処理に移行する。PU32は、S72の処理において、図2に示した部分「4,5」に付与された着衣識別変数の値が衣類を示す値であるか否かを判定する(S72)。この処理は、図2に示した部分「4,5」が、衣類によって覆われているか否かを判定する処理である。PU32は、図2に示した部分「4,5」に付与された着衣識別変数の値が衣類を示す値であると判定する場合(S72:YES)、露出度変数Vepに、露出度変数ye3を代入する(S74)。すなわち、S72の処理において肯定判定される場合、フレームデータFDが示す人の状態は次の状態となっていると考えられる。すなわち、胸部、正面下腹部、および尻部のうち図2に示した部分「3」に限って、局所的に露出している状態である。
このように、本実施形態では、身体識別変数の値によって、部分「3~5,11~14,18」であると特定された画素領域のそれぞれについて、着衣識別変数の値に応じて肌の露出の有無を判定する。そして、その判定結果に応じて露出度変数Vepの値を定める。
なお、PU32は、露出度変数Vepの値が定まると、図4のS34~S38の処理を実行する。
<第5の実施形態>
以下、第5の実施形態について、第1の実施形態との相違点を中心に図面を参照しつつ説明する。
本実施形態では、フレームデータFDの評価を、3通りとする。
図9に、本実施形態にかかる画像評価装置30によって実行される、CM動画データの評価処理の手順を示す。図9に示す処理は、記憶装置34に記憶された画像評価プログラム34aを、PU32がたとえば所定周期でくり返し実行することにより実現される。なお、図9において、図3に示した処理に対応する処理については、便宜上、同一のステップ番号を付与してその説明を省略する。
図9に示す一連の処理において、PU32は、S14の処理を完了する場合、フレーム評価処理を実行する(S16a)。
図6および図10に、S16aの処理の詳細を示す。なお、図10において、図7に示した処理に対応する処理については、便宜上、同一のステップ番号を付与している。
図10に示すように、PU32は、S36の処理を完了する場合、露出度変数Vep、衣類変数Vclおよび背景識別変数Vbgに応じてフレームデータFDを評価する(S38b)。ここでPU32は、ルールベースデータ34dに従って、フレームデータFDを評価する。
本実施形態にかかる衣類変数yc1は、公序良俗に反することが特に顕著なラベルが付与された衣類を示す。以下、これを「公序良俗違反ラベル第1類」と称する。ルールベースデータ34dは、衣類変数Vclの値が衣類変数yc1の場合、露出度変数Vepの値および背景識別変数Vbgの値にかかわらず、NG判定をすべきことを規定する。また、ルールベースデータ34dは、露出度変数Vepの値、衣類変数Vclの値、および背景識別変数Vbgの値のそれぞれが「ye3,yc2,yb1」の場合、OK2判定をすべきことを規定する。また、ルールベースデータ34dは、露出度変数Vepの値、衣類変数Vclの値、および背景識別変数Vbgの値のそれぞれが「ye3,yc3,yb2」の場合、OK1判定をすべきことを規定する。ここで、OK2判定は、OK1判定よりも、配信に制限を設けることが望ましい可能性が高い旨を示す。
衣類変数yc4は、「公序良俗違反ラベル第1類」と比較して公序良俗に反する可能性が低いものの、学校等、特定のシチュエーションにおいては必ずしも許容されるとは限らないラベルが付与された衣類を示す。以下、これを、「公序良俗違反ラベル第2類」と称する。また、背景識別変数yb4は、校内を示す。ルールベースデータ34dは、露出度変数Vepの値、衣類変数Vclの値、および背景識別変数Vbgの値のそれぞれが「ye1,yc4,yb4」の場合、OK2判定をすべきことを規定する。一方、ルールベースデータ34dは、露出度変数Vepの値、および衣類変数Vclの値のそれぞれが「ye1,yc4」であっても、背景識別変数Vbgの値が「yb4」ではない場合、OK1判定をすべきことを規定する。これは、学校等においては好ましくない衣類の表示がある場合に、OK1判定よりも配信に制限を設けることが望ましい可能性があることを示す。
また、衣類変数yc5は、たとえばミニスカート等の所定の服装を示す。ルールベースデータ34dは、露出度変数Vepの値、衣類変数Vclの値、および背景識別変数Vbgの値のそれぞれが「ye1,yc5,yb4」の場合、OK2判定をすべきことを規定する。一方、ルールベースデータ34dは、露出度変数Vepの値、および衣類変数Vclの値のそれぞれが「ye1,yc5」であっても、背景識別変数Vbgの値が「yb4」ではない場合、OK1判定をすべきことを規定する。これは、学校等においては、上記所定の服装をまとった人の画像を含むCM動画データを、OK1判定よりも配信に制限を設けることが望ましい可能性があることを示す。
PU32は、S38bの処理を完了する場合、S42の処理によって生成された埋込画像データIMDの全てについて、S38bの処理が完了したか否かを判定する(S90)。そしてPU32は、未だS38bの処理が完了していない埋込画像データIMDが存在する場合(S90:NO)、図6のS30aの処理に戻る。一方、PU32は、S38bの処理がすべて完了したと判定する場合(S90:YES)、NG判定があるか否かを判定する(S92)。PU32は、NG判定があると判定する場合(S92:YES)、フレームデータFDに対して最終的なNG判定をする(S94)。これに対し、PU32は、NG判定がないと判定する場合(S92:NO)、OK2判定があるか否かを判定する(S96)。PU32は、OK2判定があると判定する場合、フレームデータFDに対して最終的なOK2判定をする(S98)。一方、PU32は、OK2判定がないと判定する場合(S96:NO)、フレームデータFDに対して最終的なOK1判定をする(S100)。
なお、PU32は、S94,S98,S100の処理が完了する場合、図9のS16aの処理を完了する。
図9に戻り、PU32は、フレームデータFD(i),FD(i+N),FD(i+2N)のうちの1つ以上についてNG判定がなされたか否かを判定する(S80)。そして、PU32は、NG判定が1つ以上であると判定する場合(S80:YES)、CM動画データに対してNG判定をする(S82)。一方、PU32は、NG判定が「0」であると判定する場合(S80:NO)、フレームデータFD(i),FD(i+N),FD(i+2N)のうちの1つ以上についてOK2判定がなされたか否かを判定する(S84)。PU32は、1つ以上OK2判定がなされたと判定する場合(S84:YES)、CM動画データに対してOK2判定をする(S86)。一方、PU82は、OK2判定が「0」であると判定する場合(S84:NO)、変数iに「N」を加算する(S22)。そしてPU32は、フレームデータFD(i+2N)が存在するか否かを判定する(S24)。PU32は、フレームデータFD(i+2N)が存在すると判定する場合(S24:YES)、S14の処理に戻る。一方、PU32は、フレームデータFD(i+2N)が存在しないと判定する場合(S24:NO)、CM動画データに対してOK1判定をする(S88)。
図11に、ユーザ端末50において、ユーザが望む基準を満たす画像を表示することを支援する処理の手順を示す。図11に示す処理は、2つの処理よりなる。1つは、ユーザ端末50の記憶装置54に記憶されたアプリケーションプログラム54aをPU52が所定周期でくり返し実行することにより実現される処理である。もう1つは、画像評価装置30の記憶装置34に記憶された画像評価プログラム34aをPU32が所定周期でくり返し実行することにより実現される処理である。
図11に示すように、ユーザ端末50のPU52は、ユーザから再生を許容するCM動画の基準についての要求を受け付ける(S110)。ここで、PU52は、ユーザインターフェース58が備える表示装置に、OK1判定のみを許容するか、OK1判定およびOK2判定を許容するかを選択可能である旨を表示する。S110の処理は、ユーザによるユーザインターフェース58への要求入力を受け付ける処理である。次に、PU52は、通信機56を操作することによって、ユーザの識別記号であるユーザIDと、要求された基準と、を送信する(S112)。
これに対し、画像評価装置30のPU32は、ユーザIDと要求された基準とを受信する(S120)。そしてPU32は、ユーザIDと要求された基準とを記憶装置34に記憶する(S122)。そして、PU32は、CM動画データを評価する(S124)。S124の処理は、図9に示した処理である。
そしてPU32は、通信機36を操作することによって、評価結果に応じて、ユーザ端末50(1),50(2),…のそれぞれに、要求された基準を満たす画像が表示可能なように画像データを送信する(S126)。すなわち、PU32は、OK1判定のCM動画データについては、全てのユーザ端末50に無条件でCM動画データを送信する。一方、PU32は、OK2判定のCM動画データについては、OK2判定を許容するユーザのユーザ端末50に無条件でCM動画データを送信する。これに対し、OK2判定を許容しないユーザのユーザ端末50には、OK2判定のCM動画データの送信を禁止してもよい。またこれに代えて、PU32は、S20aの処理と同様の処理を実行してもよい。一方、PU32は、NG判定のCM動画データについては、全てのユーザのユーザ端末にその動画データを送信することを禁止してもよい。またこれに代えて、PU32は、S20aの処理を実行してもよい。なお、PU32は、S126の処理を完了する場合、図11に示す一連の処理のうちのPU32が実行する処理を一旦終了する。
一方、ユーザ端末50のPU52は、画像評価装置30から送信された画像データを受信する(S114)。ここで、PU52は、基準を満たすCM動画データについては無条件で再生する。また、基準を満たさないCM動画データを受信する場合、同CM動画データに付与された制限指令に応じて、警告を発するか、マスクをするか、再生を禁止するかする。
なお、PU52は、S114の処理を完了する場合、図11に示す一連の処理のうちのPU52が実行する処理を一旦終了する。
<対応関係>
上記実施形態における事項と、上記「課題を解決するための手段」の欄に記載した事項との対応関係は、次の通りである。以下では、「課題を解決するための手段」の欄に記載した解決手段の番号毎に、対応関係を示している。
[1,3,5,6,11]実行装置は、PU32に対応する。記憶装置は、記憶装置34に対応する。前景識別写像データは、前景識別写像データ34bに対応する。背景識別写像データは、背景識別写像データ34cに対応する。
前景識別写像は、図4においては、S30,S32の処理によって実現される写像に対応する。すなわち、フレームデータFDが入力されて露出度変数Vepの値を出力する写像に対応する。前景識別写像は、図6および図9においては、S30a,S32,S40~S46の処理によって実現される写像に対応する。すなわち、フレームデータFDが入力されて露出度変数Vepの値および衣類変数Vclの値を出力する写像に対応する。前景識別写像は、図8においては、図8に示す処理によって実現される写像に対応する。すなわち、フレームデータFDが入力されて露出度変数Vepの値を出力する写像に対応する。
前景識別変数は、図4および図8においては、露出度変数Vepに対応する。前景識別変数は、図6においては、露出度変数Vepおよび衣類変数Vclの組に対応する。
評価処理は、S38,S18~S24の処理、S38a,S18~S24の処理、および図9の処理に対応する。
[2]第1の値は、図4における「ye1」、「ye2」と、図7における「-,yc1」、「ye1,yc1以外」、「ye2,-」と、図10における「-,yc1」、「ye1,yc1、yc3以外」、「ye2,-」と、に対応する。第2の値は、図4における「ye3」と、図7における「ye3,yc2」,「ye3,yc3」と、図10における「ye3,yc2」、「ye3,yc3」、「ye1,yc4」、「ye1,yc5」と、に対応する。[4]衣類の種類を特定する値は、衣類変数Vclの値に対応する。
[7]ユーザ端末は、ユーザ端末50(1),50(2),…に対応する。提供処理は、図3および図5のS26の処理と、図11のS124において要求基準を満たすと判定されたときのS126の処理とに対応する。制限処理は、図3のS20の処理、図5のS20aの処理、および図11のS124において要求基準を満たさないと判定されたときのS126の処理に対応する。[8,10]指示処理は、S110,S112の処理に対応する。[9]禁止処理は、S20の処理、および図11のS124において要求基準を満たさないと判定されたときのS126の処理に対応する。制限送信処理は、S20aの処理、および図11のS124において要求基準を満たさないと判定されたときのS126の処理に対応する。[12]画像評価プログラムは、画像評価プログラム34aに対応する。
[13~15]提供工程は、図3および図6のS26の処理を実行する工程と、図11のS124において要求基準を満たすと判定されたときのS126の処理とを実行する工程に対応する。制限工程は、図3のS20の処理を実行する工程、図5のS20aの処理を実行する工程、および図11のS124において要求基準を満たさないと判定されたときのS126の処理を実行する工程に対応する。取得工程は、S10の処理に対応する。
<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
「所定部位について」
再生して問題がある画像であるという評価の根拠である、1以上の身体の部分(所定の部位)は、胸部、正面下腹部、および尻部に限らず、例えば図2における身体の部分の少なくとも1つを含む態様で適宜、定義されてよい。また、一の実施形態において、上記根拠は、例えば図2における1の身体の部分の一部の態様で適宜、定義されてよい。具体的には、顔部を構成する唇,眼,髪等の身体の部分の一部が上記根拠となってもよい。
「衣類変数について」
・衣類変数が、水着とスポーツウェアとで互いに異なる値となることは必須ではない。水着、スポーツウェア等、胸部、正面下腹部、および尻部に限って覆っている所定の衣類を同じ変数値としてもよい。
「背景識別変数について」
・背景識別変数が、プール、川、海と、スポーツジムとで互いに異なる値となることは必須ではない。たとえば、それらを同一の変数値としてもよい。
・たとえば、背景識別変数の値に、公序良俗を乱すポスター、アダルトグッズ等が含まれる場合の値を含めてもよい。
「衣類識別写像について」
・図6等には、衣類識別写像を構成する衣類識別モデルM16を複数の出力を有する単一のモデルとしたが、これに限らない。たとえば、衣類が水着であるか否かを識別するモデル、衣類がスポーツウェアであるか否かを識別するモデル等の複数の識別モデルとしてもよい。
・衣類識別写像を構成する衣類識別モデルM16の入力が、埋込画像データIMDであることは必須ではない。たとえば、フレームデータFDを入力としてもよい。その場合、フレームデータFDが示す画像中に複数の人が存在する場合、異常の度合いが最も大きくなる評価が最もなされやすくなる衣類の変数を指定するモデルとすればよい。具体的には、たとえば、OK判定とNG判定との2値的な判定をする場合、複数人のそれぞれが身に着けている衣類のうちのNG判定がされやすい衣類を指定すればよい。また、たとえば、OK1判定、OK2判定およびNG判定の3値の判定をする場合であってNG判定がされやすい衣類がある場合、NG判定がされやすい衣類を指定すればよい。また、たとえば、OK1判定、OK2判定およびNG判定の3値の判定をする場合であってNG判定がされやすい衣類がない場合、OK2判定がされやすい衣類を指定すればよい。
またたとえば、人の代表点の座標と、その人の衣類変数との双方を出力する回帰モデル兼識別モデルにフレームデータFDを直接入力してもよい。具体的には、このモデルは、予め定められた上限の人数「k」人について、k個の代表点の出力と、k個の衣類変数の値とを出力するモデルとしてもよい。その場合、フレームデータFDに含まれる人の数が「k」人に満たない場合、それらに対応する衣類変数の値が所定の値となるようにすればよい。このモデルは、「衣類識別写像について」の欄に記載した回帰モデル兼識別モデルとともに用いて好適である。
「露出度識別写像について」
・露出度識別写像を構成する露出度識別モデルM10を、露出度に応じた複数の値を出力する単一モデルとすることは、必須ではない。たとえば、「ye1」相当であるか否かを識別するモデル、「ye2」相当であるか否かを識別するモデル等、複数の識別モデルとしてもよい。
・S30aの処理における露出度識別モデルM10の入力が埋込画像データIMDであることは必須ではない。たとえば、フレームデータFDを入力としてもよい。その場合、フレームデータFDが示す画像中に複数の人が存在する場合、異常の度合いが最も大きくなる評価が最もなされやすくなる露出度を示すモデルとすればよい。具体的には、たとえば、OK判定とNG判定との2値的な判定をする場合、複数人のうちのNG判定がされやすい人の露出度を示せばよい。また、たとえば、OK1判定、OK2判定およびNG判定の3値の判定をする場合であってNG判定がされやすい衣類がある場合、NG判定がされやすい露出度を示せばよい。また、たとえば、OK1判定、OK2判定およびNG判定の3値の判定をする場合であってNG判定がされやすい露出度の人が存在しない場合、OK2判定がされやすい人の露出度を示せばよい。
またたとえば、人の代表点の座標と、その人の露出度変数との双方を出力する回帰モデル兼識別モデルにフレームデータFDを直接入力してもよい。具体的には、このモデルは、予め定められた上限の人数「k」人について、k個の代表点の出力と、k個の露出度変数の値とを出力するモデルとしてもよい。その場合、フレームデータFDに含まれる人の数が「k」人に満たない場合、それらに対応する露出度変数の値が所定の値となるようにすればよい。このモデルは、「衣類識別写像について」の欄に記載した回帰モデル兼識別モデルとともに用いて好適である。
「露出度識別モデルの出力について」
・たとえば露出を問題とする所定部位が複数ある場合において、それら各部位ごとに、露出の有無を出力するモデルであってもよい。すなわち、たとえば、胸部、正面下腹部、および尻部の3つを所定部位とする場合、それらのそれぞれ毎に、露出の有無の判定結果を示す変数値を出力するようにしてもよい。これは、たとえば出力活性化関数を、ロジスティックシグモイド関数を所定部位の数である3個用意することによって実現できる。
「前景識別写像について」
・図6においては、露出度識別モデルM10および衣類識別モデルM16の2つの学習済みモデルを利用して前景識別写像を構成したが、これに限らない。たとえば、身体の露出度と衣類の種類との双方を識別するラベル変数を出力する単一の学習済みモデルを利用して前景識別写像を構成してもよい。これは、たとえば図6において、「ye1,yc1」に対応するフレームデータFD、「ye1,yc1以外」に対応するフレームデータなどに各別の目標変数を付与した訓練データを用いて実現できる。
「前景識別処理について」
・S30の処理において、露出度識別モデルM10への入力データとしては、フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。またたとえば、フレームデータFDから人に関する画像領域を抽出して所定の背景画像に埋め込んだデータを入力してもよい。ここで、人に関する画像領域の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。
・S30aの処理において、露出度識別モデルM10への入力データとしては、R,G,Bの各画像データに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
・衣類識別モデルM16への入力データとしては、R,G,Bの各画像データに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。
・身体識別モデルM18への入力データとしては、フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。またたとえば、フレームデータFDから人に関する画像領域を抽出して所定の背景画像に埋め込んだデータを入力してもよい。ここで、人に関する画像領域の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。
・着衣識別モデルM20への入力データとしては、フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。またたとえば、フレームデータFDから人に関する画像領域を抽出して所定の背景画像に埋め込んだデータを入力してもよい。ここで、人に関する画像領域の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。
・たとえば、「露出度識別写像について」および「衣類識別写像について」の欄に記載したように、露出度識別モデルと衣類識別モデルとが上述の回帰モデル兼識別モデルの場合、次のようにすればよい。すなわち、露出度識別モデルが出力する代表点と衣類識別モデルが出力する代表点とを対応付ければよい。これにより、対応付けられた一対の代表点のそれぞれに紐づいている露出度変数と衣類変数とからS38a,S38bの処理を実行することができる。
「背景識別処理について」
・背景識別モデルM12への入力データとしては、フレームデータFDに限らない。たとえば、R,G,Bの各画像データに代えて、モノクロの画像データを用いてもよい。またたとえば、フレームデータFDから背景に関する画像領域を抽出して所定の背景画像に埋め込んだデータを入力してもよい。ここで、背景に関する画像領域の抽出処理は、セマンティックセグメンテーションモデルを利用してPU32により実施する。
「評価処理について」
・評価処理が、前景識別変数の値のみから異常か否かを評価する処理と、前景識別変数の値と背景識別変数の値との双方から異常か否かを評価する処理と、からなることは必須ではない。たとえば、前景識別変数の値にかかわらず、NG判定される処理を含めてもよい。この処理は、たとえば、背景識別変数の値に、「背景識別変数について」の欄に記載したように、アダルトグッズ等が含まれる場合の値が含まれる場合等において好適である。
・複数のフレームにおいてそれらの一部且つ所定数以上異常がない旨の評価がなされる場合に異常がない旨の最終的な評価をすることは必須ではない。たとえば、所定周期でサンプリングされたフレームデータFDの全てがフレーム評価処理によってOKとされる場合に限って、最終的なOK判定をしてもよい。なお、ここで所定周期は、フレームの周期と等しくてもよい。
「前景識別写像データについて」
・前景識別写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトルマシンの学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、前景識別写像データとして記憶装置34に記憶する。
「背景識別写像データについて」
・背景識別写像データが、パラメトリックモデルにおける学習済みのパラメータのみからなることは必須ではない。たとえば、特徴抽出器を規定するデータと、サポートベクトルとからなってもよい。ここで、特徴抽出器は、CNN等、フレームデータFD等を入力として特徴ベクトルを出力する学習済みモデルである。一方、サポートベクトルは、サポートベクトルマシンの学習によって選択されたベクトルである。すなわち、訓練データが特徴抽出器に入力されることによって出力される特徴ベクトルから学習過程でサポートベクトルを抽出する。そして、特徴抽出器を規定するパラメータとサポートベクトルとを、背景識別写像データとして記憶装置34に記憶する。
「制限処理、制限工程について」
・S20aの処理としては、たとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対して所定画像を重畳することでマスクをする指令であってよい。またたとえば、再生画像のうち所定部位が露出している領域を少なくとも含む再生画像の一部に対してぼかし等のエフェクトを適用することでマスクをする指令であってよい。すなわち、S20aの処理は、露出することが問題とされて且つ露出していると判定された所定部位が非表示となるような指令であればその態様に制限はない。なお、露出することが問題とされる所定部位のうちの実際に露出している領域は、たとえば露出度識別モデルM10の注視領域に基づき特定してもよい。
・たとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数に満たない場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDのすべてにおいてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。
またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかったフレームデータFDの数が所定数である場合に、CM動画データの配信(送信)を禁止してもよい。その場合、PU32は、所定数の連続する複数のフレームデータFDの少なくとも一部においてOK判定がなされることを条件として、CM動画データの配信(送信)を行ってもよい。
またたとえば、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされなかった所定数に満たないフレームデータFDを挟んでOK判定がなされたフレームデータFDが連続する場合、CM動画データの配信(送信)を行ってもよい。
なお、PU32は、所定数の連続する複数のフレームデータFDのうち、OK判定がなされた所定数に満たないフレームデータFDを挟んでOK判定がなされなかったフレームデータFDが連続する場合、CM動画データの配信(送信)を禁止してもよい。
・S20aの処理によってユーザ端末50において画像が表示されることを制限する処理にとって、図4に示すフレーム評価処理等によって評価がなされることは必須ではない。たとえば図6に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。またたとえば、図8に示した処理、またはその変更例に示したフレーム評価処理等によって評価がなされる場合にS20aの処理を適用してもよい。
・図11の処理において、S112,S120,S122の処理を省いてもよい。その場合、PU32は、OK2判定の場合、S126の処理において、OK2判定である旨を制限指令としてCM動画データに付与すればよい。その場合、ユーザ端末50のPU52は、S110の処理によって受け付けた基準と、制限指令とに応じてCM動画データを再生するか否か等を決定すればよい。
・たとえばNG判定がなされたフレームを削除したCM動画データをユーザ端末50に送信してもよい。これによっても、ユーザ端末50において不適切な画像が表示されることを抑制できる。
・ユーザ端末50に専用のアプリケーションプログラム54aが記憶されていることは必須ではない。たとえば、画像評価装置30から配信されたCM動画データを汎用のブラウザを利用して再生してもよい。
「実行装置について」
・実行装置としては、PU32に限らない。たとえば、実行装置を、ASIC、およびFPGA等の専用のハードウェア回路としてもよい。すなわち、実行装置は、以下の(a)~(c)のいずれかの構成を備える処理回路を含んでいてもよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶する記憶装置等のプログラム格納装置とを備える処理回路。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路(ハードウェアアクセレータ)とを備える処理回路。(c)上記処理の全てを実行する専用のハードウェア回路を備える処理回路。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置は、複数であってもよい。また、専用のハードウェア回路は複数であってもよい。
「画像評価装置について」
・画像評価装置が、画像を評価する処理と、評価結果をユーザ端末50に配信する処理との双方を行うことは必須ではない。たとえば、評価結果をユーザ端末50に配信する処理を、画像評価装置とは別の装置が実行してもよい。また、画像評価装置が業者端末10から送信された画像データを受信することも必須ではない。業者端末10から送信された画像データを受信して且つ画像評価装置に送信する装置を別途備えてもよい。
「コンピュータについて」
・画像評価プログラム34aを実行するコンピュータとしては、画像評価装置30が備えるPU32に限らない。たとえば、画像評価プログラム34aをユーザ端末50にインストールすることによって、ユーザ端末50のPU52を画像評価プログラム34aを実行するコンピュータとしてもよい。
「そのほか」
・PU12が、PU32に含まれ得る態様の演算ユニットを含んでもよい。
・上記実施形態では、CM動画データとして、ストリーミング映像の態様でユーザ端末50に対して配信(送信)されるものを想定したが、これに限らない。たとえば、ライブストリーミングの態様のサービスでユーザ端末50に対してリアルタイムに配信(送信)されてよい。評価対象となる画像データは、CM動画データに限らない。たとえば、商品等の広告の用に供する動画に限らず、人(人物)の身体の少なくとも一部が含まれ得る動画であればその種別や異常判定の目的に制限はない。さらに、評価対象となる画像データは、たとえば任意の静止画像のデータであってもよい。
・PU32は、ルールベースデータ34dにおいて、OK判定またはNG判定の根拠として扱われる、明示的に予め定められた各種変数の組み合わせを、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)の前に通知してよい。また、PU32は、当該組み合わせを、業者端末10および/またはユーザ端末50に対して、CM動画データの配信(送信)中に通知してよい。また、PU32は、配信(送信)中のCM動画データのフレームデータFDについてNG判定の根拠となった各種変数の組み合わせを、業者端末10および/またはユーザ端末50に対して、通知してよい。なお、ここでの「通知」とは、業者端末10および/またはユーザ端末50に対するメッセージ送信の態様であってよく、業者端末10および/またはユーザ端末50において表示中のCM動画データに重畳させる表示処理の態様であってよい。
10…業者端末
14…記憶装置
20…ネットワーク
30…画像評価装置
50…ユーザ端末
54…記憶装置

Claims (14)

  1. 実行装置、および記憶装置を備え、
    前記記憶装置には、前景識別写像データと、背景識別写像データと、が記憶され、
    前記前景識別写像データは、前景識別写像を規定するためのデータであり、
    前記前景識別写像は、前景識別変数の値を出力する写像であり、
    前記前景識別変数は、評価対象の画像データが示す画像において人の状態を識別する変数であり、
    前記背景識別写像データは、背景識別写像を規定するためのデータであり、
    前記背景識別写像は、背景識別変数の値を出力する写像であり、
    前記背景識別変数は、前記画像データが示す前記人の背景の種類を識別する変数であり、
    前記実行装置は、前景識別処理、背景識別処理、および評価処理を実行するように構成され、
    前記前景識別処理は、前記画像データを前記前景識別写像に入力することによって前記前景識別変数の値を出力する処理であり、
    前記背景識別処理は、前記画像データを前記背景識別写像に入力することによって前記背景識別変数の値を識別する処理であり、
    前記評価処理は、前記画像データに異常があるか否かを評価する処理であって且つ、前記前景識別変数の値が第1の値である場合には、前記背景識別変数の値にかかわらず異常があると評価して且つ、前記前景識別変数の値が前記第1の値とは別の第2の値である場合には、前記背景識別変数の値を加味して前記異常か否かを評価する処理を含む画像評価装置。
  2. 前記第1の値は、身体の所定部位が露出している状態において前記前景識別変数の値が取り得る値であり、
    前記第2の値は、前記所定部位の少なくとも一部が衣類で覆われているものの、前記身体の露出度合いが大きい状態において前記前景識別変数の値が取り得る値である請求項1記載の画像評価装置。
  3. 前記評価処理は、
    前記前景識別変数の値が前記第2の値であることと、前記背景識別変数の値が、前記背景が、水遊び、またはスポーツをする所定の場所において取り得る値であることとの論理積が真である場合、前記異常ではないと評価する処理と、
    前記前景識別変数の値が前記第2の値であることと、前記背景識別変数の値が、前記背景が前記所定の場所とは異なる所定の室内であるときに取り得る値であることとの論理積が真である場合、前記異常であると評価する処理と、を含む請求項2記載の画像評価装置。
  4. 前記前景識別変数は、衣類の種類を特定する値を含み、
    前記第2の値は、前記所定部位の少なくとも一部が、水着またはスポーツウェアで覆われている場合に取り得る値である請求項3記載の画像評価装置。
  5. 前記前景識別写像は、露出度識別写像と、衣類識別写像と、を含み、
    前記露出度識別写像は、前記人の所定部位の露出度を示す変数である露出度変数の値を出力する写像であり、
    前記衣類識別写像は、前記人が身に着けている衣類の種類を識別する変数である衣類変数の値を出力する写像であり、
    前記前景識別変数は、前記露出度変数および前記衣類変数に基づく請求項1記載の画像評価装置。
  6. 前記前景識別写像は、身体識別写像と、着衣識別写像と、を含み、
    前記身体識別写像は、前記人の身体の部位を識別する変数である身体識別変数の値を出力する写像であり、
    前記着衣識別写像は、前記人の身体であるか、前記人が身に着けている衣類であるかを識別する変数である着衣識別変数の値を出力する写像であり、
    前記前景識別処理は、前記身体識別変数の値および前記着衣識別変数の値に応じて前記前景識別変数の値を算出する処理を含む請求項1記載の画像評価装置。
  7. 請求項1に記載の画像評価装置における前記実行装置、および前記記憶装置と、複数のユーザ端末と、を備え、
    前記実行装置は、提供処理、および制限処理を実行するように構成され、
    前記提供処理は、前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
    前記制限処理は、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する処理である画像処理システム。
  8. 前記ユーザ端末は、指示処理を実行するように構成され、
    前記評価処理は、前記異常の度合いを複数段階に評価する処理を含み、
    前記指示処理は、前記ユーザ端末において表示される画像の許容範囲を指示する処理であり、
    前記提供処理は、前記評価処理によって評価された前記異常の度合いが前記許容範囲内である場合に前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する処理であり、
    前記制限処理は、前記評価処理によって評価された前記異常の度合いが前記許容範囲から外れる場合に前記画像データが示す画像が前記ユーザ端末により表示されることを制限する処理である請求項7記載の画像処理システム。
  9. 前記制限処理は、
    前記画像データの前記ユーザ端末への送信を禁止する禁止処理と、
    前記画像データを制限指令とともに送信する制限送信処理と、
    の少なくとも1つの処理を含み、
    前記制限指令は、前記ユーザ端末において前記画像データが示す画像が警告とともに表示されるようにする指令、前記ユーザ端末において前記画像データが示す画像のうちの所定部位の露出にマスクをする指令、および前記ユーザ端末において前記画像データが示す画像を表示しないようにする指令のいずれかである請求項7記載の画像処理システム。
  10. 請求項1記載の画像評価装置における前記各処理を実行するステップを有する画像評価方法。
  11. 請求項1記載の画像評価装置における前記各処理をコンピュータに実行させる画像評価プログラム。
  12. ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、
    前記ユーザ端末により表示される画像の候補を示す画像データのうち、請求項1に記載の画像評価装置における前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、
    前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、
    を有する画像表示支援方法。
  13. ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、
    前記ユーザ端末は、指示処理を実行するように構成され、
    請求項1に記載の画像評価装置における前記評価処理は、前記異常の度合いを複数段階に評価する処理を含み、
    前記指示処理は、前記ユーザ端末において表示される画像の許容範囲を指示する処理であり、
    前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記画像評価装置における前記評価処理によって評価された前記異常の度合いが前記許容範囲内である場合に前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、
    前記ユーザ端末により表示される画像の候補を示す画像データのうち、前記評価処理によって評価された前記異常の度合いが前記許容範囲から外れる場合に前記画像データが示す画像が前記ユーザ端末により表示されることを制限する制限工程と、
    を有する画像表示支援方法。
  14. ユーザ端末において選択的に画像が表示されることを支援する画像表示支援方法であって、
    前記ユーザ端末により表示される画像の候補を示す画像データを取得する取得工程と、
    前記取得工程において取得された前記画像データのうち請求項1に記載の画像評価装置における前記評価処理によって前記異常がない旨の評価がなされた前記画像データが示す画像を前記ユーザ端末に表示可能とすべく、前記画像データを前記ユーザ端末に送信する提供工程と、
    前記取得工程において取得された前記画像データのうち、前記評価処理によって前記異常がある旨の評価がなされた前記画像データが示す画像が、前記ユーザ端末により表示されることを制限する制限工程と、
    を有する画像表示支援方法。
JP2022064668A 2022-04-08 2022-04-08 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法 Active JP7506109B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022064668A JP7506109B2 (ja) 2022-04-08 2022-04-08 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022064668A JP7506109B2 (ja) 2022-04-08 2022-04-08 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法

Publications (2)

Publication Number Publication Date
JP2023154981A JP2023154981A (ja) 2023-10-20
JP7506109B2 true JP7506109B2 (ja) 2024-06-25

Family

ID=88373254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022064668A Active JP7506109B2 (ja) 2022-04-08 2022-04-08 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法

Country Status (1)

Country Link
JP (1) JP7506109B2 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175527A (ja) 2000-12-06 2002-06-21 Gala Inc コンピュータ画像処理により猥褻ヌード画像を弁別する方法
JP2002189925A (ja) 2000-12-21 2002-07-05 Gala Inc インターネット上の広告管理サーバー
JP2008027424A (ja) 2006-06-21 2008-02-07 Sharp Corp データ送受信装置、サーバ装置、データ送受信システムおよびそれらの制御方法、制御プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP2008033656A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像処理装置
JP2008033654A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像判別方法、写真画像判別プログラム、及び、写真画像処理装置
JP2008033655A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像処理装置
JP2009169518A (ja) 2008-01-11 2009-07-30 Kddi Corp 領域識別装置およびコンテンツ識別装置
JP2009252243A (ja) 2008-04-04 2009-10-29 Nhn Corp 成人物判断方法及びシステム
WO2018109048A1 (en) 2016-12-16 2018-06-21 Glaxosmithkline Intellectual Property Development Limited A clothing compliance detection apparatus, and associated clothing standard enforcement apparatus
JP2023154980A (ja) 2022-04-08 2023-10-20 楽天グループ株式会社 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175527A (ja) 2000-12-06 2002-06-21 Gala Inc コンピュータ画像処理により猥褻ヌード画像を弁別する方法
JP2002189925A (ja) 2000-12-21 2002-07-05 Gala Inc インターネット上の広告管理サーバー
JP2008027424A (ja) 2006-06-21 2008-02-07 Sharp Corp データ送受信装置、サーバ装置、データ送受信システムおよびそれらの制御方法、制御プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP2008033656A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像処理装置
JP2008033654A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像判別方法、写真画像判別プログラム、及び、写真画像処理装置
JP2008033655A (ja) 2006-07-28 2008-02-14 Noritsu Koki Co Ltd 写真画像処理装置
JP2009169518A (ja) 2008-01-11 2009-07-30 Kddi Corp 領域識別装置およびコンテンツ識別装置
JP2009252243A (ja) 2008-04-04 2009-10-29 Nhn Corp 成人物判断方法及びシステム
WO2018109048A1 (en) 2016-12-16 2018-06-21 Glaxosmithkline Intellectual Property Development Limited A clothing compliance detection apparatus, and associated clothing standard enforcement apparatus
JP2023154980A (ja) 2022-04-08 2023-10-20 楽天グループ株式会社 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
報道発表 不適切コンテンツの自動フィルタリングシステムのトライアルを開始 -DeepLearning技術を活用して人間の感性に近い判定が可能に-[オンライン],日本,NTTコムウェア株式会社,2015年02月09日,https://www.nttcom.co.jp/news/pr15020901.html

Also Published As

Publication number Publication date
JP2023154981A (ja) 2023-10-20

Similar Documents

Publication Publication Date Title
Kao et al. Hierarchical aesthetic quality assessment using deep convolutional neural networks
US20200237266A1 (en) Action recognition and pose estimation method and apparatus
Jiang et al. Photohelper: portrait photographing guidance via deep feature retrieval and fusion
CN110263681A (zh) 面部表情的识别方法和装置、存储介质、电子装置
KR20190056720A (ko) 뉴럴 네트워크 학습 방법 및 디바이스
CN111127476A (zh) 一种图像处理方法、装置、设备及存储介质
KR20190114448A (ko) 사용자 맞춤형 의류 추천 방법 및 이를 실행하는 서버
JP7455889B2 (ja) 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、および画像評価プログラム
JP7506109B2 (ja) 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、画像評価プログラム、および画像表示支援方法
Kwon et al. Tailor me: An editing network for fashion attribute shape manipulation
Gupta et al. Intelligent Music Recommendation System Based on Face Emotion Recognition
US20220358752A1 (en) Apparatus and method for developing space analysis model based on data augmentation
CN116597317A (zh) 遥感图像变化检测数据生成方法、装置、设备及介质
CN111182295A (zh) 一种视频数据处理方法、装置、设备以及可读存储介质
Lee et al. Life chasing: A location-based game prototype for elderly health promotion
CN113379716B (zh) 一种色斑预测方法、装置、设备及存储介质
JP2020003879A (ja) 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム
JP7263864B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び製品開発システム
Nagai et al. Action quality assessment with ignoring scene context
US10991064B1 (en) System and method of applying watermark in a digital image
Goree et al. Correct for whom? subjectivity and the evaluation of personalized image aesthetics assessment models
CN112070662A (zh) 一种换脸模型的评价方法、装置、电子设备及存储介质
KR101117543B1 (ko) 표지판 평가 시스템
Yue et al. Subjective and objective quality assessment of multi-attribute retouched face images
Bourhim et al. Reshaping Sport with Extended Reality in an Era of Metaverse: Insights from XR the Moroccan Association Experts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240613