TWI746674B - 識別圖像中物件的類型預測方法、裝置及電子設備 - Google Patents

識別圖像中物件的類型預測方法、裝置及電子設備 Download PDF

Info

Publication number
TWI746674B
TWI746674B TW106136502A TW106136502A TWI746674B TW I746674 B TWI746674 B TW I746674B TW 106136502 A TW106136502 A TW 106136502A TW 106136502 A TW106136502 A TW 106136502A TW I746674 B TWI746674 B TW I746674B
Authority
TW
Taiwan
Prior art keywords
image
type
processed
feature data
prediction result
Prior art date
Application number
TW106136502A
Other languages
English (en)
Other versions
TW201832137A (zh
Inventor
潘攀
劉巍
李敏
張迎亞
華先勝
Original Assignee
香港商阿里巴巴集團服務有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 香港商阿里巴巴集團服務有限公司 filed Critical 香港商阿里巴巴集團服務有限公司
Publication of TW201832137A publication Critical patent/TW201832137A/zh
Application granted granted Critical
Publication of TWI746674B publication Critical patent/TWI746674B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本發明提供一種識別圖像中物件的類型預測方法、裝置及電子設備。所述方法包括:採用基於全圖的特徵資料識別圖像中物件的類型預測方法對待處理圖像進行處理,獲取第一類型預測結果;採用基於圖像中主體區域的特徵資料識別圖像中物件的類型預測方法對待處理圖像進行處理,獲取第二類型預測結果;比較所述待處理圖像的第一類型預測結果第一類型預測結果與所述第二類型預測結果是否匹配;若匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。利用本發明各個實施例,結合全圖和主體區域檢測方式,可以更加準確的識別出圖像中的物件,使圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度。

Description

識別圖像中物件的類型預測方法、裝置及電子設備
本發明屬於圖像識別處理技術領域,尤其關於一種識別圖像中物件的類型預測方法、裝置及電子設備。
隨著網際網路技術的發展,用戶不僅可以通過關鍵字的方式進行搜索,還可以通過圖片的方式進行搜索。在通過圖片進行搜索的場景中,用戶可以通過圖庫中選擇或即時拍攝圖片上傳至系統。在獲取用戶上傳的圖片之後,系統對圖片進行分析,識別圖片中的物件(人或物品等),以確定圖片所屬的分類資訊,並根據圖片的分類資訊和特徵進行搜索並將搜索結果返回給用戶。   目前,識別圖片中的物品以預測圖片所屬類型的方式主要有兩種方式,一種方式是基於全圖的特徵資料識別圖片中物件,輸出圖片的類型標籤,另一種方式是利用物體檢測技術確定圖片中的主體區域,識別出主體區域中的物件,以主體區域中物件的類型標籤作為識別出的整個圖片的類型。其中,基於全圖的特徵資料識別處理的過程主體包括:提取待處理圖片的視覺特徵,例如方向梯度長條圖(Histogram of Oriented Gradient,HOG)特徵、尺度不變特徵轉換(Scale-invariant feature transform,SIFT)等,接著通過對應的分類器例如SVM(Support Vector Machine,支援向量機)以生成待處理圖片的類型標籤。基於物體檢測技術對識別處理的過程主要包括:對全圖進行主體區域檢測,以確定出全圖中的主體區域,並提取主體區域對應的特徵,並根據主體區域的特徵確定出主體區域的類型標籤。   然而,上述識別圖片中的物品以預測圖片所屬類型的方式存在以下問題:(1)基於全圖特徵資料的處理方式,由於對全圖進行分析,不可避免會引入背景資訊,引入的背景資訊會干擾圖片中目標主體的識別,導致整個圖片分類結果的準確性降低,尤其在目標主體在全圖面積占比較小時,引入的背景資訊對預測結果影響更大。(2)基於主體區域的處理方式中,僅對主體區域進行分析,識別出主體區域中的物品等。由於主體區域中通常不包含圖片的場景資訊和上下文資訊,在主體區域中的目標主體的形狀、顏色等特徵比較相近時,無法準確預測出主體區域中的目標主體的類型標籤。並且檢測主體區域演算法本身存在一定的誤檢率,基於檢測區域的方式會將這部分的損失引入類型預測結果中,進一步降低圖片中物件的類型預測精度。
本發明目的在於提供一種識別圖像中物件的類型預測方法、裝置及電子設備,結合全圖和主體區域檢測方式,可以更加準確的識別出圖像中的物件,使圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度。   本發明提供的一種識別圖像中物件的類型預測方法、裝置及電子設備是這樣實現的:   一種識別圖像中物件的類型預測方法,所述方法包括:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   比較所述第一類型預測結果與所述第二類型預測結果是否匹配;   若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   一種識別圖像中物件的類型預測方法,所述方法包括:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   一種識別圖像中物件的類型預測裝置,所述裝置包括:   第一識別模組,用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   第二識別模組,用於採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   結果比較模組,用於比較所述第一類型預測結果與所述第二類型預測結果是否匹配;   第一輸出模組,用於在所述比較模組比較的結果為匹配時,將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   一種識別圖像中物件的類型預測裝置,所述裝置包括:   全圖特徵獲取模組,用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   主體特徵處理模組,用於採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   融合處理模組,用於將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   分類處理模組,用於利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   一種電子設備,包括處理器以及用於儲存處理器可執行指令的記憶體,   所述處理器執行所述指令時實現:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;比較所述第一類型預測結果與所述第二類型預測結果是否匹配;若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   一種電子設備,包括處理器以及用於儲存處理器可執行指令的記憶體,   所述處理器執行所述指令時實現,   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   比較所述第一類型預測結果與所述第二類型預測結果是否匹配;   若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   本發明提供的一種識別圖像中物件的類型預測方法、裝置及電子設備,採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法類型預測的結果,若結果相匹配,則可以將其中一種方式的類型預測結果作為識別出的待處理圖像中物件的類型。基於全圖特徵資料的處理方法對圖像中物品識別率較高,而基於主體區域的處理方法識別出圖像中真正用戶預期主體的準確性較高,使用本發明實施方案,結合兩者特點,可以獲取圖像中符合預期需要的主體並準確識別出該主體是什麼,減少背景雜訊的干擾的同時,解決主體區域檢測的資訊丟失和誤檢率問題,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度和可靠性。
為了使本技術領域的人員更好地理解本發明中的技術方案,下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例,而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒有作出進步性勞動前提下所獲得的所有其他實施例,都應當屬於本發明保護的範圍。   圖1是本發明所述一種識別圖像中物件的類型預測方法一種實施例的方法流程圖。雖然本發明提供了如下述實施例或附圖所示的方法操作步驟或裝置結構,但基於常規或者無需進步性的勞動在所述方法或裝置中可以包括更多或者部分合併後更少的操作步驟、模組單元。在邏輯性上不存在必要因果關係的步驟或結構中,這些步驟的執行順序或裝置的模組結構不限於本發明實施例或附圖所示的執行順序或模組結構。所述的方法或模組結構的在實際中的裝置或終端產品應用時,可以按照實施例或者附圖所示的方法或模組結構進行循序執行或者並存執行(例如並行處理器或者多執行緒處理的環境、甚至包括分散式處理的實施環境)。   本發明中所述的圖像可以包括電腦繪製的畫面,也可以包括人為的用外部設備所捕捉到的外部的景象所生成的圖像(包含圖片),如通過行動終端的攝像頭拍攝獲取的圖像。可以是靜態的向量或非向量圖片,也可以包括二維排列的像素圖像,如BMP、PCX格式的圖像。本發明實施方案中可以採用兩種識別圖像中物件的類型預測方式分別得到相應的預測結果,包括基於圖像的全圖特徵數識別圖像中物件的方法和基於圖像中主體區域的特徵資料識別圖像中物件的方法。接著比較兩種方法預測結果的結果,若結果匹配,則可以直接輸出圖像的識別結果。具體的,如圖1所示,本發明提供的一種識別圖像中物件的類型預測方法的一種實施例中,所述方法可以包括:   S1:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件。   本實施例中所述的全圖識別方法可以為基於全圖的特徵資料識別圖像中物件,通常以待處理圖像的全圖作為輸入、經過分類器或神經網路的輸出層得到整個待處理圖像所屬分類的處理方式。此時所述待處理圖像所屬的分類可以理解為從所述待處理圖像中識別出的物件,可以是圖像中的顯性的物品(人眼可見),也可以是圖像整體所要表達的場景資訊。本實施例中所述的物件可以理解為在需要識別待處理圖像中物件的實施場景中,計算出的所述待處理圖像的資料所要表徵的物件。例如識別待處理圖像中物品的場景中,所述物件可以是待處理圖像中出現的物品,如一件大衣,或一頂帽子,或一條船。那麼,相應的獲取的第一類型預測結果可以是一件大衣(或一頂帽子,或一條船),終端應用可以為用戶推薦展示大衣類別的產品。當然,本發明不排除在一些場景中,待處理圖像中物件不同的識別需求下(可以設置不同識別場景下的處理邏輯或分類規則等),同一張圖像中所識別出的物件的結果可能不同。例如同樣是上述出現大衣、帽子和船的圖像中,識別出的結果可以是“《江雪》_詩詞圖畫”,此時終端應用可以為用戶推薦展示古詩詞字畫類別的產品。   本實施例可以預先選取所使用的全圖識別方法,接著對待處理圖像進行處理,獲取採用基於全圖的特徵資料識別圖像中物件的類型預測方法得到的所述待處理圖像所屬的預測物件結果(為便於描述,在此稱為第一類型預測結果)。   本發明的一種實施例中,所述的全圖識別方法可以主要利用圖像視覺感知的特徵資料,如色彩(灰階、HSV、RGB)、紋理、形狀等的資料進行處理,基於這些全圖的視覺上的特徵資料識別出待處理圖像中的物件。本發明提供的所述方法具體的另一種實施例中,所述採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果可以包括:   S101:計算所述待處理圖像全圖的視覺特徵資料;   S102:基於所述視覺特徵資料進行分類預測,得到所述待處理圖像對應的第一類型預測結果。   所述的視覺特徵資料一種實施例中可以指的是如待處理圖像所有像素點的色彩(灰階、HSV、RGB)、紋理、形狀等資料,可以用來代表圖像本身參與後續的分析與處理。具體的視覺特徵資料可以包括通過可以如方向梯度長條圖(Histogram of Oriented Gradient,HOG)、尺度不變特徵轉換(Scale-invariant feature transform,SIFT)等演算法得到的特徵資料,或者CNN(Convolutional neural networks,卷積神經網路)深度學習等得到的特徵資料。HSV(Hue SaturationValue),一種色彩模型,也稱六角錐體模型(Hexcone Model),參數分別是:色調(H),飽和度(S),明度(V)。RGB是業界的一種顏色標準,是通過對紅(R)、綠(G)、藍(B)三個顏色通道的變化以及它們相互之間的疊加來得到各式各樣的顏色的,RGB即是代表紅、綠、藍三個通道的顏色。   接著可以利用獲取的全圖的視覺特徵資料進行分類預測,輸出預測結果。如將所述視覺特徵資料作為卷積神經網路的輸入資料,通過各個卷積層的處理後,由softmax層輸出待處理圖像所屬類別標籤資料。卷積神經網路具體的層結構、卷積核的選取、softmax層分類的規則等等,可以根據實際影像處理場景的設計需求進行設置,並且可以通過一定量的樣本資料進行訓練以及參數回饋、修正等。本發明中基於全圖的視覺特徵資料可以較為準確的識別出待處理圖像中所表徵的物品或其他類型的物件,可以輸出識別出的物件所屬的分類標籤(標籤資料)。   所述的視覺特徵資料以及後續所描述的主體特徵資料等,可以是向量的資料格式,具體的例如可以是N維的向量特徵資料。   S2:採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件。   本發明實施例所述的特徵識別方法可以基於圖像中主體區域的特徵資料識別圖像中物件。主要處理過程通常包括確定待處理圖像中包含主體的主體區域部分,接著對該主體區域部分進行分類預測,識別出主體區域中的物件,確定該主體區域中識別出的物件的標籤資料,得到第二類型預測結果。一些實施例中可以直接獲取待識別圖像中的主體區域(如圖像中僅包括一個主體)。其他實施例中也可以包括先識別出可能包含主體的候選區域(如通過Selective Search演算法、RPN演算法等得到候選區域),採用設計的篩選或匹配方式從所述候選區域中確定符合條件的主體區域,接著對主體區域進行分類預測(如利用HOG/SIFT+SVM演算法得到所述候選區域對應的分類標籤),得到主體區域對應的類型預測結果(為便於描述,在此稱為第二類型預測結果)。   本發明的一種實施例中所述圖像中主體的識別,可以與具體的內容識別需求相關,如圖像中人的臉部特徵、包、衣服、品牌的識別,通常是建立在對所描述圖像內容的某些先驗知識(或假設)的基礎上進行的。具體的,本發明提供的所述方法具體的另一種實施例中,所述採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,包括:   S201:檢測所述待處理圖像中的主體,確定包含所述主體的主體區域;   S202:計算所述主體區域的主體特徵資料,基於所述主體特徵資料進行分類預測,得到所述主體區域對應的第二類型預測結果。   在獲取待處理圖像之後,可通過相關的候選區域檢測演算法(例如選擇搜索Selective Search演算法,RPN(Region Proposal Network,區域生成網路)演算法等演算法)對待處理圖像進行處理,以確定出待處理圖像中包含主體的主體區域。接著計算所述主體區域的主體特徵資料,所述的主體特徵資料可以是色彩資料,也可以是其他類型的圖像資料,一般的,具體的計算主體區域的哪種特徵資料通常可以由選取的主體區域檢測方法決定。接著可以利用所述主體特徵資料進行圖像中物件的預測識別,例如的可以採用HOG/SIFT+SVM網路識別所述主體區域中的物件,輸出所述主體區域中的物件所屬的分類標籤(標籤資料)。需要理解的是,本發明實施例中所提及的搜索Selective Search演算法和RPN演算法僅是處於實例目的,本發明其他的實施例中的主體區域檢測演算法並不限制於此。當然,具體的主體檢測以及對主體特徵資料進行識別預測的實施過程中根據選取的演算法還可以包括其他的處理,如對所述主體區域進行回歸和修改。   另一種實施場景中,一個待識別圖像中可能存在多個主體,例如,一個待識別圖像中可以包括水果、衣服和刀具三個主體。此時可以採用從多個候選區域中選擇一個作為主體區域,例如選擇候選區域中像素點個數相對最多的候選區域作為待處理圖像的主體區域,或者選擇距離待處理圖像中心點位置距離最近的候選區域作為主體區域。因此,本發明提供的所述方法的另一種實施例中,當檢測出所述待處理圖像中包括兩個以上的主體時,所述確定包括主體的主體區域,可以包括:   S2011:從包含主體的候選區域中選取符合預設條件的候選區域作為待處理圖像的主體區域,所述候選區域為從所述待處理圖像中確定出的包含主體的圖像區域。   具體的一個實例中,如得到多個包含主體的候選區域A1、A2、A3之後,可確定每個候選區域占待處理圖像面積的比值K以及距離待處理圖像中心點像素的歐氏距離D,接著根據每個候選區域的比值K和歐氏距離D分別按照50%權重計算後將結果相加,數值最大的候選作為最終確定的所述待處理圖像的主體區域。或者,另一種實例性的實施方式中,對於同一個待識別圖像中的多個候選區域,可以分別計算出對應候選區域包含主體的概率值,接著根據概率值對對應的候選區域進行排序,並將概率值最高的候選區域作為主體區域。   所述的候選區域通常可以通過提取待處理圖像的特徵資料,接著利用圖像中目標主體的檢測方法識別出圖像中包含的主體,並在待處理圖像的像素範圍內確定出一個包括所述主體像素的區域範圍。通常的,這個包括主體的區域範圍可以為矩形。具體的,本發明提供的一種實施例中,可以採用下述方式確定候選區域:   採用選取的主體檢測方法對所述待處理圖像進行檢測,識別所述待處理圖像中包含的主體;   根據識別出的所述主體邊界像素的座標資訊確定出所述主體的區域範圍;   將所述區域範圍作為所述候選區域。   當然,其他的實施場景中,一些圖像中目標主體檢測的方法中本身可以得到包含主體的候選區域(如RPN演算法),因此可以通過在所述目標主體檢測的方法中設置或調整網路控制參數,得到不同的候選區域。   S3:比較所述第一類型預測結果與所述第二類型預測結果是否匹配。   獲取上述兩種方式得到的第一類型預測結果和第二類型預測結果後,可以比較兩個預測物件結果是否匹配。如可以比較第一類型預測結果和第二類型預測結果的字串資訊(例如物件所屬的分類標籤)是否相同,或者所述第一類型預測結果和第二類型預測結果所對應的資料庫中的分類標籤是否相同等。類型預測結果是否匹配具體的可以設置為包括類型預測結果資料是否相同或者類型預測結果是否相似,或者類型預測結果符合設置的某種對應關係。實際應用中可以根據場景需要或資料處理需要設置第一類型預測結果和第二類型預測結果的匹配條件以及比較方式。   一些實施場景中,雖然直接比較的第一類型預測結果與第二類型預測結果不相同(可能由於先前的分類規則不完善或兩者分類方式輸出同一物件的分類標籤資料不一致),但兩者相似度非常高或者統一到共同的分類規則中後屬於相同的分類,則本發明的一種實施例中也可以將其視為預測的結果相同,以滿足一些場景的實施需求,便於用戶管理和確定圖像分類。因此,本發明提供的所述方法具體的另一種實施例中,所述比較所述第一類型預測結果與所述第二類型預測結果是否匹配包括:   S301:比較所述第一類型預測結果的標籤資料與所述第二類型預測結果的標籤資料是否相同,若相同,則比較的結果為匹配;   或,   S302:比較所述第一類型預測結果的資料標籤與第二類型預測結果的資料標籤是否屬於相同的預設分類,若是,則比較的結果為匹配。   一般的,在進行圖像識別處理中,通常採用的演算法或網路模型輸出的結果是一種分類標籤,表示識別出的圖像中的物品的名稱或所屬分類,如“大衣”或“外套”。因此,在本發明的一些實施例中進行比較所述第一類型預測結果與第二類型預測結果時可以採用比較標籤資料是否相同的方式,具體的實施過程可以包括比較第一類型預測結果第一類型預測結果的字串(如包括字母或數位的分類標籤),若字串完全相同,則可以表示第一類型預測結果和第二類型預測結果相匹配。當然,本發明不排除其他的實施例中採用某種演算法將所述第一類型預測結果、第二類型預測結果轉化為對應的取值(數值、字元等資料類型),接著再進行比較是否相同的實施方式。   所述的預設分類可以根據設計需求或應用場景預先設計儲存,例如可以是資料庫中儲存各種物品分類的預設分類表。接著可以比較所述第一類型預測結果的標籤資料和第二類型預測結果的標籤資料在所述預設分類表中是否為相同的物件分類。具體的一個實例中,如通過全圖識別方法得到的第一類型預測結果為“風衣”,通過特徵識別方法得到的第二類型預測結果為“長款大衣”,而這兩個預測結果在設置的產品預設分類表中均屬於“大衣”這一類別,因此,此時可以確定第一類型預測結果與第二類型預測結果相匹配。進一步的可以為用戶展示預先分類表中推薦的TOPN個“大衣”產品資訊。   S4:若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   若通過兩種圖像分類處理所輸出的預測物件結果一致,則在本實施中可以表示採用基於全圖的特徵資料識別圖像中物件的類型預測方法和採用基於圖像中主體區域的特徵資料識別圖像中物件的類型預測方法的兩種物件識別方式均準確預測出了實施場景下待處理圖像中真正的物件,此時,可直接輸出待處理圖像的識別結果。由於兩種分類方式的結果相匹配,因此最終的識別結果可以是第一類型預測結果或第二類型預測結果。由此,可以為後續待分類處理過程(如產品搜索)提供了準確的分類標籤,為其他處理提供了準確的資料基礎。   本發明實施例具體的應用在識別圖像中物品的場景中,在獲取待處理圖像後,獲取採用基於全圖的特徵資料識別待處理圖像中物件的第一標籤資料,並對待處理圖像進行主體檢測,以獲得待處理圖像的主體區域,接著識別主體區域中的物件進而獲取主體區域對應的第二標籤資料。接著可以比較對第一標籤資料和第二標籤資料是否相同,若相同則可以直接將所述第一標籤資料或第二標籤資料作為待處理圖像的識別結果,輸出所述待處理圖像中的物件的類型標籤數。由此,使得圖像中物件的識別結果更加準確,有效提高了圖像中物件識別的準確度。   例如一個實例中,待處理圖像P1中有一個目標主體1。假設通過基於全圖的特徵資料識別圖像中物件的類型預測方法得到該待處理圖像的標籤資料為“水果”,通過基於圖像中主體區域的特徵資料識別圖像中物件的類型預測方法獲得的該待處理圖像P1中主體1對應的標籤資料為“水果”。通過比較可以確定兩種分類方式的輸出結果一致,則可以所確定所述待處理圖像P1物件的類型為“水果”。   本發明提供的一種識別圖像中物件的類型預測方法,可以採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法預測物件結果的結果,若結果相匹配,則可以輸出圖像的物件識別檢測結果。使用本發明實施方案,綜合考慮全圖的分類方式中背景雜訊的干擾、主體區域檢測的資訊丟失和誤檢率問題,結合了基於全圖特徵資料的處理方法對圖像中物品識別率較高和基於主體區域的處理方法識別出圖像中真正主體的準確性較高的特點,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度和可靠性。   前述描述的實施場景中,可能存在待處理圖片中包括多個主體的情況,例如待處理圖像中出現的物品,如一件大衣、一頂帽子、一條船。本發明的一種實施方式可以選擇其中一個包含主體的候選區域作為主體檢測處理時輸出的主體區域。本發明提供的另一種處理方法中,可以分別對識別的多個主體區域進行物件識別,獲取對應的多個第二類型預測結果,接著選擇多個第二類型預測結果中與採用全圖的特徵資料獲取的第一類型預測結果第一類型預測結果相匹配的第二類型預測結果作為輸出的物件識別結果。具體的,本發明提供的所述方法的另一種實施例中,   當採用全圖識別方法檢測出所述待處理圖像中包括兩個以上的主體時,分別確定包含所述主體的主體區域,獲取所述主體區域對應的第二類型預測結果;   相應的,所述比較所述第一類型預測結果與所述第二類型預測結果是否匹配包括:   比較所述第二類型預測結果中是否有與所述第一類型預測結果相匹配的第二類型預測結果,若有,則確定比較的結果為匹配;   相應的,將所述與所述第一類型預測結果相匹配的第二類型預測結果作為所述待處理圖像中的物件的類型。   這樣,在待處理圖像包含多個主體的實施場景下,在採用主體檢測的方式中選取與採用全圖的資料獲取的結果相同的輸出結果作為待處理圖像的輸出結果,全圖特徵資料的處理方法對圖像中物品識別率較高和基於主體區域的處理方法識別出圖像中真正主體的準確性較高的特點,可以提高圖像中物件識別結果的準確性和可靠性。   前述實施例描述了兩種物件預測方式預測結果相同的情況下的實施方式。本發明其他的實施例還提供了在比較所述第一類型預測結果與所述第二類型預測結果不相同時的處理方式。在預測結果不一致的情況下,可以將檢測到的待處理圖像的主體區域作為新的全圖,重新利用所述基於全圖的特徵資料識別圖像中物件的類型預測方法對所述待處理圖像的主體區域進行處理。圖2是本發明提供的所述方法的另一種實施例中,如圖2所示,所述方法還可以包括:   S5:若所述比較的結果為不匹配,則,   採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;   將所述第三類型預測結果作為所述待處理圖像中的物件的類型。   本發明實施例中,若所述第一類型預測結果與第二類型預測結果不匹配,例如不屬於相同的分類結果,則可以進一步的可將前述採用的主體區域檢測方法得到的主體區域作為全圖的特徵資料識別圖像中物件的類型預測方法的輸入,接著按照所述全圖的特徵資料識別圖像中物件的類型預測方法再次進行圖像物件識別處理,得到一個新的第二類型預測結果(在此稱為第三預測物件結果)。此時,可以以所述第三預測物件結果作為所述待處理圖像的物件識別結果。本發明實施例中,當上述兩種方式獲取的識別結果不一致時,由於基於主體區域的處理方法識別出圖像中真正主體的準確性較高,因此,本實施例可以將識別出的主體區域作為一個新的待處理物件,接著利用基於全圖的特徵資料識別圖像中物件的類型預測方法識別出圖像中的物件,確定所述待處理圖像中的物件的類型。而基於全圖特徵資料的處理方法對圖像中物品識別率較高,這樣,結合兩種方式的優點,在識別結果不一致的時候,可以有效提高識別圖像中物件的類型預測準確性和可靠性,提高圖像分類的準確度。   具體的一個實例場景中,如圖10所示,用戶通過終端拍照得到一張圖片P1,假如圖片P1中包括多個物品,如水壺、A形狀的咖啡杯、B形狀的玻璃水杯,本意是要查詢或搜索A形狀咖啡杯的相關資訊。P1中背景干擾較為複雜,包括其他物品干擾(部分紙巾)、光線強度、與物品顏色較近的牆壁等。若使用現有常規方式,例如全圖輸入識別處理可能可以識別出圖片P1中的包含的主體有水壺、咖啡杯和水杯,但由於背景資訊干擾,例如咖啡杯和擋板均為淺黃色,顏色較為接近,而玻璃水杯為透明的,與桌面白色很接近,甚至出現淺黃色紙巾的干擾。但水壺主體區域佔據全圖的面積比相比其他物品最大,因此可能最終將水壺作為輸出的識別主體,導致最終展示給用戶的識別出的物品是水壺。或者,因為紙巾佔據圖像的中心位置且面積相比咖啡杯大,也可能展示給用戶的識別出的物品是紙巾。現有全圖特徵識別方式對圖像中主體區域的識別準確性較低。而採用主體檢測方式時相比於全圖特徵的識別方式通常可以識別出包含了預期識別物件咖啡杯的主體區域P1_Obj,檢測到了符合用戶意圖的主體區域,但由於目前使用的圖像主體檢測識別物件的方式中,物件究竟是什麼物品的識別結果準確性相對較低,在主體區域中物件檢測時回饋給用戶的結果可能是A’形狀的咖啡杯,雖然與A形狀部分相似,但結果很有可能不符合用戶期望預期。甚至是出現雖然找對了用戶期望識別的主體區域位置,但識別出的結果與用戶期望相差較大,甚至識別錯誤(例如將咖啡杯識別為帶把手的水杯)。而採用本實施例方法後,若兩種方式識別出的結果一致,均為A形狀的咖啡杯,說明兩種方式均正確識別出實施場景下圖片中的物品。若不一致,則可以將識別出的主體區域P1_Obj這張圖片作為前述基於全圖特徵資料的識別圖像中物件的類型預測方法的輸入圖像,再次進行識別處理。由於新確認的圖片P1_Obj包含了正確的水杯主體區域,基於全圖特徵資料的識別圖像中物件的類型預測方法識別無圖像中物品的準確性較高,因而結合兩種方式可以相比前兩張方式單獨處理較高概率的輸出給用戶A形狀咖啡杯的相關查詢或搜索資訊。這樣,本實施例方案可以提高預測圖像中物件的類型預測精度,滿足用戶需求,提高用戶體驗。   圖3是本發明提供的所述方法具體的一個實施場景的流程示意圖。在圖3中,具體操作過程包括如下:   1)、將待處理圖像全圖作為輸入資料,借助分類模型預測得到分類標籤;   2)、對待處理圖像進行主體檢測,得到主體區域及對應的分類標籤;   3)、對上述1)、2)輸出的分類標籤進行校驗,若結果一致,則可以直接輸出檢測結果。否則以2)得到的主體區域作為輸入,再次執行步驟1)進行分類,得到最終的輸出結果。   由上述實施例及圖3的實例可以看出,本發明提供的一種識別圖像中物件(如物品)的方法,可以採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法預測物件結果的結果,若結果一致,則可以輸出圖像的物件識別結果。使用本發明實施方案,綜合考慮全圖的分類方式中背景雜訊的干擾、主體區域檢測的資訊丟失和誤檢率問題,結合了基於全圖特徵資料的處理方法對圖像中物品識別率較高和基於主體區域的處理方法識別出圖像中真正主體的準確性較高的特點,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件的類型預測結果更加準確和可靠。   基於本發明創新之一的基於兩種不同影像處理維度實現方式進行識別圖像中物品的思想,本發明還可以對基於全圖和主體區域分類的兩種處理方式獲取的特徵資料進行融合,接著以融合後的特徵資料進行圖像分類處理,得到所述待處理圖像中的物件的類型。基於全圖特徵資料的處理方法對圖像中物品識別率較高,而基於主體區域的處理方法識別出圖像中真正主體的準確性較高,本發明提供的另一種識別圖像物件的方法可以使得融合後的特徵資料結合兩者的特點,進而可以減少全圖的分類方式中背景雜訊的干擾的同時解決主體區域檢測的資訊丟失和誤檢率問題,最佳化輸出結果,可以有效提高識別圖像中物品的準確性。圖4是本發明提供的一種識別圖像中物件的類型預測方法另一種實施例的流程示意圖。如圖4所示,另一種實施例中,所述方法可以包括:   S100:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   S200:採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   S300:將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   S400:利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   具體的獲取所述全圖特徵資料或主體特徵資料的實現方式可以包括利用前述實施例所述的HOG、SIFT或深度卷積神網路、Selective Search演算法等。所述的將全圖特徵資料和主體特徵資料進行融合的預設方式具體的可以預先選取資料融合方式或使用自訂資料融合方式的處理方式,例如可以直接將全圖特徵資料和主體特徵資料進行拼接。   圖5是本發明提供的所述方法具體的一個實例實施場景的流程示意圖。如圖5的實例中,可以分別採用基於全圖的特徵資料識別圖像中物件的類型預測方法和基於圖像中主體區域的特徵資料識別圖像中物件的類型預測方法對待處理圖像進行處理,獲取28維的全圖特徵資料Data_All和28維的主體特徵資料Data_Sub。接著可以將28維的全圖特徵資料Data_All和28維的主體特徵資料Data_Sub拼接組合成56維的融合特徵資料Data_Mix,接著基於所述融合特徵資料Data_Mix識別待處理圖像中的物件,得到所述待處理圖像的識別結果。這樣,融合上述兩種實圖像分類方法的特徵資料進行物件識別,使得分類處理過程中滿足兩種分類方式的分類處理要求,使得圖像中物件類型的預測結果更加準確。   當然,所述的特徵資料融合也可以包括除組合、拼接外的其他實施方式,如全圖特徵資料Data_All和28維的主體特徵資料Data_Sub中對應維度的資料值相加獲得28維的融合特徵資料Data_Mix。具體的可以根據實施場景和設計需求進行選取演算法或自訂的處理方式。   本發明提供的一種識別圖像中物件的類型預測方法另一種實施例中,可以預先構建利用融合特徵資料進行圖像識別預測的融合特徵預測模型,在獲取待處理分類圖像的融合特徵資料後,可以直接輸入到融合特徵預測模型中進行識別待處理圖像中的物件,輸出識別結果。所述的融合特性分類模型可以預先根據樣本圖像進行訓練獲得。因此,本發明提供的一種識別圖像中物件的類型預測方法另一種實施例中,所述利用所述融合特徵資料識別所述待處理圖像中的物件,可以包括:   將所述融合特徵資料登錄獲取的融合特徵預測模型中進行分類預測,所述融合特徵預測模型包括採用下述方式構建生成:   S41:分別採用所述全圖識別方法、特徵識別方法計算預設資料量的樣本圖像的全圖特徵資料和主圖特徵資料,進行特徵資料融合後得到所述樣本圖像的融合特徵資料;   S42:將所述樣本圖像的融合特徵資料在選取的圖像分類模型中進行訓練,得到以所述融合特徵資料作為資料處理物件的融合特徵預測模型。   可以根據待處理圖像的應用場景和資料處理需求選取的訓練所述融合特徵資料的資料處理模型,如SVM分離器、包含SOFTMAX輸出層的深度卷積網路等。本實施例中處理融合特徵資料的所述融合特徵預測模型可以是本地訓練生成,也可以是獲取的第三方的融合特徵預測模型,例如識別圖像中物件的類型預測第一終端可以採用上述兩種方式處理待處理圖像、特徵資料融合處理,獲取融合特徵資料,接著可以將融合特徵資料登錄從第二終端(或其他資料模型的供應方)獲取的融合特徵預測模型,輸出待處理圖像的物件識別結果。   本發明提供的一種識別圖像中物件的類型預測方法,可以採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法類型預測的結果,若結果相匹配,則可以將其中一種方式的類型預測結果作為識別出的待處理圖像中物件的類型。基於全圖特徵資料的處理方法對圖像中物品識別率較高,而基於主體區域的處理方法識別出圖像中真正用戶預期主體的準確性較高,使用本發明實施方案,結合兩者特點,可以獲取圖像中符合預期需要的主體並準確識別出該主體是什麼,減少背景雜訊的干擾的同時,解決主體區域檢測的資訊丟失和誤檢率問題,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度和可靠性。   基於上述實施例或場景所述的識別圖像中物件(例如圖像中包含的物品)的方法,本發明還提供一種識別圖像中物件的類型預測裝置。所述裝置可以包括使用了本發明所述方法的系統(包括分散式系統)、軟體(應用)、模組、元件、伺服器等並結合必要的實施硬體的裝置。基於同一創新構思,本發明提供的一種實施例中的裝置如下面的實施例所述。由於裝置解決問題的實現方案與方法相似,因此本發明具體的裝置的實施可以參見前述方法的實施,重複之處不再贅述。以下所使用的,用語“單元”或者“模組”可以實現預定功能的軟體和/或硬體的組合。儘管以下實施例所描述的裝置較佳地以軟體來實現,但是硬體,或者軟體和硬體的組合的實現也是可能並被構想的。具體的,圖6是本發明提供的一種識別圖像中物件的類型預測裝置一種實施例的模組結構示意圖,如圖6所示,所述裝置可以包括:   第一識別模組101,可以用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   第二識別模組102,可以採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   結果比較模組103,可以用於比較所述第一類型預測結果與所述第二類型預測結果是否匹配;   第一輸出模組104,可以用於在所述比較模組比較的結果為匹配時,將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   本發明提供的一種識別圖像中物件的類型預測裝置,可以採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法類型預測的結果,若結果相匹配,則可以將其中一種方式的類型預測結果作為識別出的待處理圖像中物件的類型。基於全圖特徵資料的處理方法對圖像中物品識別率較高,而基於主體區域的處理方法識別出圖像中真正用戶預期主體的準確性較高,使用本發明實施方案,結合兩者特點,可以獲取圖像中符合預期需要的主體並準確識別出該主體是什麼,減少背景雜訊的干擾的同時,解決主體區域檢測的資訊丟失和誤檢率問題,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度和可靠性。   圖7是本發明提供的所述一種識別圖像中物件的類型預測裝置另一種實施例的模組結構示意圖,如圖7所示,所述裝置還可以包括:   第二輸出模組105,可以用於在所述比較模組103的比較的結果為不匹配時,採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;以及,將所述第三類型預測結果作為所述待處理圖像的物件的類型。   例如若兩種方式得到的結果不一致,則可以將識別出的主體區域作為全圖再次進行基於全圖特徵資料的圖像分類,獲得最終的圖像識別結果。使用本發明實施方案,綜合考慮全圖的分類方式中背景雜訊的干擾、主體區域檢測的資訊丟失和誤檢率問題,使得圖像中物件的類型預測結果更加準確和可靠。   另一種實施場景中,一個待識別圖像中可能存在多個主體,例如,一個待識別圖像中可以包括水果、衣服和刀具三個主體。此時可以採用從多個候選區域中選擇一個作為主體區域,例如選擇候選區域中像素點個數相對最多的候選區域作為待處理圖像的主體區域,或者選擇距離待處理圖像中心點位置距離最近的候選區域作為主體區域。具體的,本發明所述裝置的另一種實施例中,當所述第二識別模組102檢測出所述待處理圖像中包括兩個以上的主體時,   分別確定所述待處理圖像中包含主體的候選區域,從所述候選區域中選取符合預設條件的候選區域作為待處理圖像的主體區域。   參考前述方法所述,本實施所述裝置中的第二識別模組102可以採用下述方式確定候選區域:   採用選取的主體檢測方法對所述待處理圖像進行檢測,識別所述待處理圖像中包含的主體;   根據識別出的所述主體邊界像素的座標資訊確定出所述主體的區域範圍;   將所述區域範圍作為所述候選區域。   本發明其他的實施例還提供了在比較所述第一類型預測結果與所述第二類型預測結果不匹配時的識別圖像中物件的類型預測裝置。在預測結果不匹配的情況下,可以將檢測到的待處理圖像的主體區域作為新的全圖,重新使用第一預定分類方法做一次圖像分類處理。   另一些實施場景中,當採用基於圖像中主體區域的特徵資料識別圖像中物件的類型預測方法檢測出所述待處理圖像中包括兩個以上的主體時,可以分別確定包含所述主體的主體區域,獲取所述主體區域對應的第二類型預測結果;   相應的,所述結果比較模組103比較所述第一類型預測結果與所述第二類型預測結果是否相同匹配可以包括:比較所述第二類型預測結果中是否有與所述第一類型預測結果相同相匹配的第二類型預測結果,若有,則確定比較的結果為匹配;   相應的,第一輸出模組104可以將所述與所述第一類型預測結果相同相匹配的第二類型預測結果作為所述待處理圖像中的識別結果物件的類型。   當然,如前所述,本發明不排除可以採用從多個候選區域中選擇一個作為主體區域的實施方式,例如選擇候選區域中像素點個數相對最多的候選區域作為待處理圖像的主體區域,或者選擇距離待處理圖像中心點位置距離最近的候選區域作為主體區域。   基於本發明創新之一的基於兩種不同實現方式進行識別圖像中物品的思想,本發明還可以對基於全圖和主體區域分類的兩種物件檢測方式獲取的特徵資料進行融合,接著以融合後的特徵資料進行圖像中物件的識別處理。融合後的特徵資料包含了基於全圖和主體區域兩種實現方式處理的特徵。基於全圖特徵資料的處理方法對圖像中物品識別率較高,而基於主體區域的處理方法識別出圖像中真正主體的準確性較高,本發明提供的另一種識別圖像物件的方法可以使得融合後的特徵資料結合兩者的特點,進而可以減少全圖的分類方式中背景雜訊的干擾的同時解決主體區域檢測的資訊丟失和誤檢率問題,最佳化輸出結果,可以有效提高識別圖像中物品的準確性。圖8是本發明提供的所述一種識別圖像中物件的類型預測裝置另一種實施例的模組結構示意圖,如圖8所示,所述裝置可以包括:   全圖特徵獲取模組201,可以用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   主體特徵處理模組202,可以用於採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   融合處理模組203,可以用於將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   分類處理模組204,可以用於利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   獲取所述全圖特徵資料或主體特徵資料的實現方式可以包括利用前述實施例所述的HOG、SIFT或深度卷積神網路、Selective Search演算法等。所述的將全圖特徵資料和主體特徵資料進行融合的預設方式具體的可以預先選取某種資料融合或自訂資料融合的處理方式。例如可以直接拼接特徵資料。   根據本發明方法的描述所述的裝置還可以包括其他的實施方式,以及所述裝置具體的實現方式也可以參照對應方法的描述,在此不做贅述。   上述所述的裝置或方法可以用於多種以圖像資訊進行處理的終端電子設備中,如用戶行動終端中以圖搜圖或以圖獲取圖中物品相關資訊的APP(application,應用),實施本發明實施方案可以有效提高終端設備圖像中物件類型預測結果的準確性,為後續終端應用的圖像分類或物件搜索等的輸出結果提供更好的資料基礎。因此,本發明還提供一種電子設備,包括處理器以及用於儲存處理器可執行指令的記憶體,   所述處理器執行所述指令時實現:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;比較所述第一類型預測結果與所述第二類型預測結果是否匹配;若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   所述電子設備可以包括移動通訊終端、手持設備、車載設備、可穿戴設備、電視設備、計算設備等。   當然,所述電子設備的另一種實施方式中,所述處理器還可以實現:   若所述比較的結果為不匹配,則,採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;以及,將所述第三類型預測結果作為所述待處理圖像的物件的類型。   本發明還提供一種電子設備的另一種實施方式,採用全圖和主體區域特徵級資料的融合進行圖像中物件的識別處理,具體的,所述電子設備可以包括處理器以及用於儲存處理器可執行指令的記憶體,   所述處理器執行所述指令時實現,   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   圖9是本發明提供的所述電子設備一種實施例的結構示意圖。當然,根據本發明方法或裝置的描述所述電子設備還可以包括其他的實施方式,具體的可以參照對應方法或裝置實施例的描述,在此不做贅述。   本發明上述實施例所述的方法可以通過處理器執行電腦可讀儲存媒體上的電腦程式(電腦指令)的方式實現。所述的電腦程式可以儲存可以記錄在電腦可讀儲存媒體中,如磁帶、磁片、光碟、ROM或其他的電腦可讀媒體。因此,本發明還提供一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時可以實現以下步驟:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   比較所述第一類型預測結果與所述第二類型預測結果是否匹配;   若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型。   本發明其他的實施例還提供了在比較所述第一類型預測結果與所述第二類型預測結果不相同時的處理方式。在預測結果不一致的情況下,可以將檢測到的待處理圖像的主體區域作為新的全圖,重新利用所述基於全圖的特徵資料識別圖像中物件的類型預測方法對所述待處理圖像的主體區域進行處理。具體的,本發明所述電腦可讀儲存媒體的另一種實施例中,所述指令被執行時還可以實現:   若所述比較的結果為不匹配,則,   採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;   將所述第三類型預測結果作為所述待處理圖像中的物件的類型。   本發明提供的電腦可讀儲存媒體中儲存的電腦指令在被執行時,可以採用兩種不同識別圖像中物件的類型預測實現方式分別得到相應的預測結果,包括基於圖像的全圖特徵資料進行物件識別的方法和基於圖像中主體區域的特徵資料進行物件識別的方法。接著比較兩種方法預測物件結果的結果,若結果相匹配,則可以輸出圖像的物件識別檢測結果。使用本發明實施方案,綜合考慮全圖的分類方式中背景雜訊的干擾、主體區域檢測的資訊丟失和誤檢率問題,結合了基於全圖特徵資料的處理方法對圖像中物品識別率較高和基於主體區域的處理方法識別出圖像中真正主體的準確性較高的特點,使得識別圖像中物件的類型預測準確性和可靠性提高,進而使得圖像中物件類型的預測結果更加準確,提高識別圖像中物件的類型預測精度和可靠性。   本發明提供的另一種電腦可讀儲存媒體的實施方案中,可以採用全圖和主體區域特徵級資料的融合進行圖像中物件的識別處理。具體的,本發明提供的一種電腦可讀儲存媒體的另一種實施例中,其上儲存有電腦指令,所述指令被執行時可以實現以下步驟:   採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;   採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;   將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;   利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。   儘管本發明內容中提到HOG或SIFT的第一預定分類方法、RPN演算法計算候選區域、CNN網路輸出主體區域的分類標籤、特徵資料的計算獲取方式以及拼接的融合方式、第一類型預測結果和第二類型預測結果是否匹配的比較方式等之類的圖像資料計算、處理、判斷等的描述,但是,本發明並不局限於必須是符合圖像資料處理標準、標準圖像演算法的處理方式或實施例所描述的實施情況。某些行業標準或者使用自訂方式或實施例描述的實施基礎上略加修改後的實施方案也可以實現上述實施例相同、等同或相近、或變形後可預料的實施效果。應用這些修改或變形後的資料定義、計算、儲存、對話模式等獲取的實施例,仍然可以屬於本發明的可選實施方案範圍之內。   雖然本發明提供了如實施例或流程圖所述的方法操作步驟,但基於常規或者無進步性的手段可以包括更多或者更少的操作步驟。實施例中列舉的步驟順序僅僅為眾多步驟執行順序中的一種方式,不代表唯一的執行順序。在實際中的裝置或終端產品執行時,可以按照實施例或者附圖所示的方法循序執行或者並存執行(例如並行處理器或者多執行緒處理的環境,甚至為分散式資料處理環境)。用語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、產品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、產品或者設備所固有的要素。在沒有更多限制的情況下,並不排除在包括所述要素的過程、方法、產品或者設備中還存在另外的相同或等同要素。   上述實施例闡明的單元、裝置或模組等,具體可以由電腦晶片或實體實現,或者由具有某種功能的產品來實現。為了描述的方便,描述以上裝置時以功能分為各種模組分別描述。當然,在實施本發明時可以把各模組的功能在同一個或多個軟體和/或硬體中實現,也可以將實現同一功能的模組由多個子模組或子單元的組合實現等。以上所描述的裝置實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或元件可以結合或者可以整合到另一個系統,或一些特徵可以忽略,或不執行。另一點,實施例所關於到的方法或裝置或電子設備的通訊連接可以是通過一些介面,裝置或單元的間接耦接或通訊連接,可以是電性,機械或其它的形式。   在20世紀90年代,對於一個技術的改進可以很明顯地區分是硬體上的改進(例如,對二極體、電晶體、開關等電路結構的改進)還是軟體上的改進(對於方法流程的改進)。然而,隨著技術的發展,當今的很多方法流程的改進已經可以視為硬體電路結構的直接改進。設計人員幾乎都通過將改進的方法流程程式設計到硬體電路中來得到相應的硬體電路結構。因此,不能說一個方法流程的改進就不能用硬體實體模組來實現。例如,可程式設計邏輯裝置(Programmable Logic Device, PLD)(例如現場可程式設計閘陣列(Field Programmable Gate Array,FPGA))就是這樣一種積體電路,其邏輯功能由用戶對裝置程式設計來確定。由設計人員自行程式設計來把一個數位系統“整合”在一片PLD上,而不需要請晶片製造廠商來設計和製作專用的積體電路晶片。而且,如今,取代手工地製作積體電路晶片,這種程式設計也多半改用“邏輯編譯器(logic compiler)”軟體來實現,它與程式開發撰寫時所用的軟體編譯器相類似,而要編譯之前的原始代碼也得用特定的程式設計語言來撰寫,此稱之為硬體描述語言(Hardware Description Language,HDL),而HDL也並非僅有一種,而是有許多種,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby Hardware Description Language)等,目前最普遍使用的是VHDL(Very-High-Speed Integrated Circuit Hardware Description Language)與Verilog。本領域技術人員也應該清楚,只需要將方法流程用上述幾種硬體描述語言稍作邏輯程式設計並程式設計到積體電路中,就可以很容易得到實現該邏輯方法流程的硬體電路。   控制器可以按任何適當的方式實現,例如,控制器可以採取例如微處理器或處理器以及儲存可由該(微)處理器執行的電腦可讀程式碼(例如軟體或韌體)的電腦可讀媒體、邏輯閘、開關、專用積體電路(Application Specific Integrated Circuit,ASIC)、可程式設計邏輯控制器和嵌入微控制器的形式,控制器的例子包括但不限於以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,記憶體控制器還可以被實現為記憶體的控制邏輯的一部分。本領域技術人員也知道,除了以純電腦可讀程式碼方式實現控制器以外,完全可以通過將方法步驟進行邏輯程式設計來使得控制器以邏輯閘、開關、專用積體電路、可程式設計邏輯控制器和嵌入微控制器等的形式來實現相同功能。因此這種控制器可以被認為是一種硬體部件,而對其內包括的用於實現各種功能的裝置也可以視為硬體部件內的結構。或者甚至,可以將用於實現各種功能的裝置視為既可以是實現方法的軟體模組又可以是硬體部件內的結構。   上述實施例闡明的系統、裝置、模組或單元,具體可以由電腦晶片或實體實現,或者由具有某種功能的產品來實現。一種典型的實現設備為電腦。具體的,電腦例如可以為個人電腦、膝上型電腦、車載人機互動設備、蜂巢式電話、相機電話、智慧型電話、個人數位助理、媒體播放機、導航設備、電子郵件設備、遊戲控制台、平板電腦、可穿戴設備或者這些設備中的任何設備的組合。   雖然本發明提供了如實施例或流程圖所述的方法操作步驟,但基於常規或者無進步性的手段可以包括更多或者更少的操作步驟。實施例中列舉的步驟順序僅僅為眾多步驟執行順序中的一種方式,不代表唯一的執行順序。在實際中的裝置或終端產品執行時,可以按照實施例或者附圖所示的方法循序執行或者並存執行(例如並行處理器或者多執行緒處理的環境,甚至為分散式資料處理環境)。用語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、產品或者設備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、產品或者設備所固有的要素。在沒有更多限制的情況下,並不排除在包括所述要素的過程、方法、產品或者設備中還存在另外的相同或等同要素。   為了描述的方便,描述以上裝置時以功能分為各種模組分別描述。當然,在實施本發明時可以把各模組的功能在同一個或多個軟體和/或硬體中實現,也可以將實現同一功能的模組由多個子模組或子單元的組合實現等。以上所描述的裝置實施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實際實現時可以有另外的劃分方式,例如多個單元或元件可以結合或者可以整合到另一個系統,或一些特徵可以忽略,或不執行。另一點,所顯示或討論的相互之間的耦接或直接耦接或通訊連接可以是通過一些介面,裝置或單元的間接耦接或通訊連接,可以是電性,機械或其它的形式。   本領域技術人員也知道,除了以純電腦可讀程式碼方式實現控制器以外,完全可以通過將方法步驟進行邏輯程式設計來使得控制器以邏輯閘、開關、專用積體電路、可程式設計邏輯控制器和嵌入微控制器等的形式來實現相同功能。因此這種控制器可以被認為是一種硬體部件,而對其內部包括的用於實現各種功能的裝置也可以視為硬體部件內的結構。或者甚至,可以將用於實現各種功能的裝置視為既可以是實現方法的軟體模組又可以是硬體部件內的結構。   本發明是參照根據本發明實施例的方法、設備(系統)、和電腦程式產品的流程圖和/或方塊圖來描述的。應理解可由電腦程式指令實現流程圖和/或方塊圖中的每一流程和/或方塊、以及流程圖和/或方塊圖中的流程和/或方塊的結合。可提供這些電腦程式指令到通用電腦、專用電腦、嵌入式處理機或其他可程式設計資料處理設備的處理器以產生一個機器,使得通過電腦或其他可程式設計資料處理設備的處理器執行的指令產生用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的裝置。   這些電腦程式指令也可儲存在能引導電腦或其他可程式設計資料處理設備以特定方式工作的電腦可讀記憶體中,使得儲存在該電腦可讀記憶體中的指令產生包括指令裝置的製造品,該指令裝置實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能。   這些電腦程式指令也可裝載到電腦或其他可程式設計資料處理設備上,使得在電腦或其他可程式設計設備上執行一系列操作步驟以產生電腦實現的處理,從而在電腦或其他可程式設計設備上執行的指令提供用於實現在流程圖一個流程或多個流程和/或方塊圖一個方塊或多個方塊中指定的功能的步驟。   在一個典型的配置中,計算設備包括一個或多個處理器(CPU)、輸入/輸出介面、網路介面和記憶體。   記憶體可能包括電腦可讀媒體中的非永久性記憶體,隨機存取記憶體(RAM)和/或非揮發性記憶體等形式,如唯讀記憶體(ROM)或快閃記憶體(flash RAM)。記憶體是電腦可讀媒體的實例。   電腦可讀媒體包括永久性和非永久性、可移動和非可移動媒體可以由任何方法或技術來實現資訊儲存。資訊可以是電腦可讀指令、資料結構、程式的模組或其他資料。電腦的儲存媒體的例子包括,但不限於相變記憶體(PRAM)、靜態隨機存取記憶體(SRAM)、動態隨機存取記憶體(DRAM)、其他類型的隨機存取記憶體(RAM)、唯讀記憶體(ROM)、電可抹除可程式設計唯讀記憶體(EEPROM)、快閃記憶體或其他記憶體技術、唯讀光碟唯讀記憶體(CD-ROM)、數位多功能光碟(DVD)或其他光學儲存、磁盒式磁帶,磁帶磁磁片儲存或其他磁性存放裝置或任何其他非傳輸媒體,可用於儲存可以被計算設備存取的資訊。按照本文中的界定,電腦可讀媒體不包括暫存電腦可讀媒體(transitory media),如調變的資料訊號和載波。   本領域技術人員應明白,本發明的實施例可提供為方法、系統或電腦程式產品。因此,本發明可採用完全硬體實施例、完全軟體實施例或結合軟體和硬體態樣的實施例的形式。而且,本發明可採用在一個或多個其中包含有電腦可用程式碼的電腦可用儲存媒體(包括但不限於磁碟記憶體、CD-ROM、光學記憶體等)上實施的電腦程式產品的形式。   本發明可以在由電腦執行的電腦可執行指令的一般上下文中描述,例如程式模組。一般地,程式模組包括執行特定任務或實現特定抽象資料類型的常式、程式、物件、元件、資料結構等等。也可以在分散式運算環境中實踐本發明,在這些分散式運算環境中,由通過通訊網路而被連接的遠端處理設備來執行任務。在分散式運算環境中,程式模組可以位於包括存放裝置在內的本地和遠端電腦儲存媒體中。   本說明書中的各個實施例均採用遞進的方式描述,各個實施例之間相同相似的部分互相參見即可,每個實施例重點說明的都是與其他實施例的不同之處。尤其,對於系統實施例而言,由於其基本相似於方法實施例,所以描述的比較簡單,相關之處參見方法實施例的部分說明即可。   以上所述僅為本發明的實施例而已,並不用於限制本發明。對於本領域技術人員來說,本發明可以有各種更改和變化。凡在本發明的精神和原理之內所作的任何修改、等同替換、改進等,均應包含在本發明的申請專利範圍的範圍之內。
101‧‧‧第一識別模組102‧‧‧第二識別模組103‧‧‧結果比較模組104‧‧‧第一輸出模組105‧‧‧第二輸出模組201‧‧‧全圖特徵獲取模組202‧‧‧主體特徵處理模組203‧‧‧融合處理模組204‧‧‧分類處理模組
為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發明中記載的一些實施例,對於本領域普通技術人員來講,在不付出進步性勞動性的前提下,還可以根據這些附圖獲得其他的附圖。   圖1是本發明所述一種識別圖像中物件的類型預測方法一種實施例的方法流程示意圖;   圖2是本發明所述一種識別圖像中物件的類型預測方法另一種實施例的方法流程示意圖;   圖3是本發明提供的所述方法具體的一個實施場景的流程示意圖;   圖4是本發明提供的一種識別圖像中物件的類型預測方法另一種實施例的流程示意圖;   圖5是本發明提供的所述方法具體的另一個實施場景的流程示意圖;   圖6是本發明提供的一種識別圖像中物件的類型預測裝置一種實施例的模組結構示意圖;   圖7是本發明提供的所述一種識別圖像中物件的類型預測裝置另一種實施例的模組結構示意圖;   圖8是本發明提供的所述一種識別圖像中物件的類型預測裝置另一種實施例的模組結構示意圖;   圖9是本發明提供的所述電子設備一種實施例的結構示意圖;   圖10是本發明一個實例場景中需要識別的待處理圖片的示意圖。

Claims (18)

  1. 一種識別圖像中物件的類型預測方法,應用於伺服器,所述方法包括:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;比較所述第一類型預測結果與所述第二類型預測結果是否匹配;若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型;若所述比較的結果為不匹配,則,採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;將所述第三類型預測結果作為所述待處理圖像中的物件的類型。
  2. 如申請專利範圍第1項所述的識別圖像中物件的類型 預測方法,其中,所述採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,包括:計算所述待處理圖像全圖的視覺特徵資料;基於所述視覺特徵資料進行分類預測,得到所述待處理圖像對應的第一類型預測結果。
  3. 如申請專利範圍第1項所述的識別圖像中物件的類型預測方法,其中,所述採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,包括:檢測所述待處理圖像中的主體,確定包含所述主體的主體區域;計算所述主體區域的主體特徵資料,基於所述主體特徵資料進行分類預測,得到所述主體區域對應的第二類型預測結果。
  4. 如申請專利範圍第3項所述的識別圖像中物件的類型預測方法,其中,當檢測出所述待處理圖像中包括兩個以上的主體時,所述確定包括主體的主體區域,包括:從包含主體的候選區域中選取符合預設條件的候選區域作為待處理圖像的主體區域,所述候選區域為從所述待處理圖像中確定出的包含主體的圖像區域。
  5. 如申請專利範圍第4項所述的識別圖像中物件的類型預測方法,其中,採用下述方式確定候選區域:採用選取的主體檢測方法對所述待處理圖像進行檢測,識別所述待處理圖像中包含的主體;根據識別出的所述主體邊界像素的座標資訊確定出所述主體的區域範圍;將所述區域範圍作為所述候選區域。
  6. 如申請專利範圍第1項所述的識別圖像中物件的類型預測方法,其中,所述比較所述第一類型預測結果與所述第二類型預測結果是否匹配包括:比較所述第一類型預測結果的標籤資料與所述第二類型預測結果的標籤資料是否相同,若相同,則比較的結果為匹配;或,比較所述第一類型預測結果的資料標籤與第二類型預測結果的資料標籤是否屬於相同的預設分類,若是,則比較的結果為匹配。
  7. 如申請專利範圍第1項所述的識別圖像中物件的類型預測方法,其中,當採用全圖識別方法檢測出所述待處理圖像中包括兩個以上的主體時,分別確定包含所述主體的主體區域,獲取所述主體區域對應的第二類型預測結果;相應的,所述比較所述第一類型預測結果與所述第二 類型預測結果是否匹配包括:比較所述第二類型預測結果中是否有與所述第一類型預測結果相匹配的第二類型預測結果,若有,則確定比較的結果為匹配;相應的,將所述與所述第一類型預測結果相匹配的第二類型預測結果作為所述待處理圖像中的物件的類型。
  8. 一種識別圖像中物件的類型預測方法,應用於伺服器,所述方法包括:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。
  9. 如申請專利範圍第8項所述的識別圖像中物件的類型預測方法,其中,所述利用所述融合特徵資料識別所述待處理圖像中的物件,包括:將所述融合特徵資料登錄獲取的融合特徵預測模型中 進行分類預測,所述融合特徵預測模型包括採用下述方式構建生成:分別採用所述全圖識別方法、特徵識別方法計算預設資料量的樣本圖像的全圖特徵資料和主體特徵資料,進行特徵資料融合後得到所述樣本圖像的融合特徵資料;將所述樣本圖像的融合特徵資料在選取的圖像分類模型中進行訓練,得到以所述融合特徵資料作為資料處理物件的融合特徵預測模型。
  10. 一種識別圖像中物件的類型預測裝置,所述裝置包括:第一識別模組,用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;第二識別模組,用於採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;結果比較模組,用於比較所述第一類型預測結果與所述第二類型預測結果是否匹配;第一輸出模組,用於在所述比較模組比較的結果為匹配時,將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型; 第二輸出模組,用於在所述比較模組的比較的結果為不匹配時,採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;以及,將所述第三類型預測結果作為所述待處理圖像的物件的類型。
  11. 如申請專利範圍第10項所述的識別圖像中物件的類型預測裝置,其中,當所述第二識別模組檢測出所述待處理圖像中包括兩個以上的主體時,分別確定所述待處理圖像中包含主體的候選區域,從所述候選區域中選取符合預設條件的候選區域作為待處理圖像的主體區域。
  12. 如申請專利範圍第11項所述的識別圖像中物件的類型預測裝置,其中,採用下述方式確定候選區域:採用選取的主體檢測方法對所述待處理圖像進行檢測,識別所述待處理圖像中包含的主體;根據識別出的所述主體邊界像素的座標資訊確定出所述主體的區域範圍;將所述區域範圍作為所述候選區域。
  13. 如申請專利範圍第10項所述的識別圖像中物件的類型預測裝置,其中,當採用全圖識別方法檢測出所述待處理圖像中包括兩個以上的主體時,分別確定包含所述主體的 主體區域,獲取所述主體區域對應的第二類型預測結果;相應的,所述結果比較模組比較所述第一類型預測結果與所述第二類型預測結果是否相同匹配包括:比較所述第二類型預測結果中是否有與所述第一類型預測結果相同相匹配的第二類型預測結果,若有,則確定比較的結果為匹配;相應的,第一輸出模組將所述與所述第一類型預測結果相同相匹配的第二類型預測結果作為所述待處理圖像中的識別結果物件的類型。
  14. 一種識別圖像中物件的類型預測裝置,所述裝置包括:全圖特徵獲取模組,用於採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;主體特徵處理模組,用於採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;融合處理模組,用於將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;分類處理模組,用於利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類 型。
  15. 一種電子設備,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;比較所述第一類型預測結果與所述第二類型預測結果是否匹配;若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型;若所述比較的結果為不匹配,則,採用所述識別圖像中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;以及,將所述第三類型預測結果作為所述待處理圖像的物件的類型。
  16. 一種電子設備,包括處理器以及用於儲存處理器可執行指令的記憶體,所述處理器執行所述指令時實現:採用全圖識別方法對待處理圖像進行處理,獲取所述 待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。
  17. 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像中的物件的第一類型預測結果,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的物件的第二類型預測結果,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;比較所述第一類型預測結果與所述第二類型預測結果是否匹配;若所述比較的結果為匹配,則將所述第一類型預測結果或所述第二類型預測結果確定為所述待處理圖像中的物件的類型;若所述比較的結果為不匹配,則,採用所述識別圖像 中物件的全圖識別方法對所述待處理圖像的所述主體區域進行處理,得到所述主體區域中的物件的第三類型預測結果;以及,將所述第三類型預測結果作為所述待處理圖像的物件的類型。
  18. 一種電腦可讀儲存媒體,其上儲存有電腦指令,所述指令被執行時實現以下步驟:採用全圖識別方法對待處理圖像進行處理,獲取所述待處理圖像的全圖特徵資料,所述全圖識別方法基於全圖的特徵資料識別圖像中物件;採用特徵識別方法對所述待處理圖像的主體區域進行處理,獲取所述主體區域中的主體特徵資料,所述特徵識別方法基於圖像中主體區域的特徵資料識別圖像中物件;將所述全圖特徵資料和主體特徵資料按照預設方式的進行特徵資料融合,得到融合特徵資料;利用所述融合特徵資料識別所述待處理圖像中的物件,確定所述待處理圖像中的物件的類型。
TW106136502A 2017-02-20 2017-10-24 識別圖像中物件的類型預測方法、裝置及電子設備 TWI746674B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
??201710089723.7 2017-02-20
CN201710089723.7 2017-02-20
CN201710089723.7A CN108460389B (zh) 2017-02-20 2017-02-20 一种识别图像中对象的类型预测方法、装置及电子设备

Publications (2)

Publication Number Publication Date
TW201832137A TW201832137A (zh) 2018-09-01
TWI746674B true TWI746674B (zh) 2021-11-21

Family

ID=63167304

Family Applications (1)

Application Number Title Priority Date Filing Date
TW106136502A TWI746674B (zh) 2017-02-20 2017-10-24 識別圖像中物件的類型預測方法、裝置及電子設備

Country Status (4)

Country Link
US (1) US10706334B2 (zh)
CN (1) CN108460389B (zh)
TW (1) TWI746674B (zh)
WO (1) WO2018152532A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI814623B (zh) * 2022-10-26 2023-09-01 鴻海精密工業股份有限公司 圖像識別方法、電腦設備及儲存介質

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540390B1 (en) * 2017-08-07 2020-01-21 Amazon Technologies, Inc. Image-based item identification
RU2769888C2 (ru) * 2017-12-21 2022-04-07 ТИЛИТЕР ПиТиУай ЛТД Система идентификации свежих продуктов для кассового терминала розничной торговли
CN109271980A (zh) * 2018-08-28 2019-01-25 上海萃舟智能科技有限公司 一种车辆铭牌全信息识别方法、***、终端及介质
CN109389582B (zh) * 2018-09-11 2020-06-26 广东智媒云图科技股份有限公司 一种图像主体亮度的识别方法及装置
CN109189544B (zh) * 2018-10-17 2021-09-17 三星电子(中国)研发中心 用于生成表盘的方法和装置
CN109522947B (zh) * 2018-10-31 2022-03-25 联想(北京)有限公司 识别方法和设备
CN110163238B (zh) * 2018-12-13 2023-04-07 腾讯科技(深圳)有限公司 一种信息预测的方法、模型训练的方法以及服务器
CN109740019A (zh) * 2018-12-14 2019-05-10 上海众源网络有限公司 一种对短视频打标签的方法、装置及电子设备
US10929665B2 (en) 2018-12-21 2021-02-23 Samsung Electronics Co., Ltd. System and method for providing dominant scene classification by semantic segmentation
CN109768898A (zh) * 2018-12-25 2019-05-17 北京奇安信科技有限公司 一种终端设备类型的识别方法、***、设备及介质
CN109766823A (zh) * 2019-01-07 2019-05-17 浙江大学 一种基于深层卷积神经网络的高分辨率遥感船舶检测方法
CN109816439A (zh) * 2019-01-14 2019-05-28 珠海格力电器股份有限公司 果蔬智能计价方法、装置、存储介质及设备
CN111582002A (zh) * 2019-02-15 2020-08-25 北京小米移动软件有限公司 场景识别方法、装置及电子设备
CN109934214A (zh) * 2019-02-22 2019-06-25 深兰科技(上海)有限公司 一种对象类别的训练、检测方法及装置
CN110222260A (zh) * 2019-05-21 2019-09-10 深圳壹账通智能科技有限公司 一种搜索方法、装置及存储介质
CN110223325B (zh) * 2019-06-18 2021-04-27 北京字节跳动网络技术有限公司 对象跟踪方法、装置及设备
CN110276767B (zh) 2019-06-28 2021-08-31 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110543920B (zh) * 2019-09-12 2022-04-22 北京达佳互联信息技术有限公司 图像识别模型的性能检测方法、装置、服务器及存储介质
CN110689007B (zh) * 2019-09-16 2022-04-15 Oppo广东移动通信有限公司 主体识别方法和装置、电子设备、计算机可读存储介质
CN110992426B (zh) * 2019-12-09 2024-03-22 北京明略软件***有限公司 姿势识别方法和装置、电子设备及存储介质
CN111126384A (zh) * 2019-12-12 2020-05-08 创新奇智(青岛)科技有限公司 基于特征融合的商品分类***及分类方法
CN118334320A (zh) * 2019-12-27 2024-07-12 腾讯科技(深圳)有限公司 图像对象的识别处理方法、装置及设备、存储介质、产品
CN111582014A (zh) * 2020-02-29 2020-08-25 佛山市云米电器科技有限公司 容器识别方法、设备及计算机可读存储介质
CN111126367A (zh) * 2020-04-01 2020-05-08 国网电子商务有限公司 一种图像分类方法及***
CN112016740B (zh) * 2020-08-18 2024-06-18 京东科技信息技术有限公司 数据处理方法和装置
CN112364876B (zh) * 2020-11-25 2024-05-14 北京紫光青藤微***有限公司 一种高效的条码二值化方法及***
US11341698B1 (en) * 2020-12-18 2022-05-24 Tiliter Pty Ltd. Methods and apparatus for simulating images of produce with markings from images of produce and images of markings
US20220198321A1 (en) * 2020-12-21 2022-06-23 Fmr Llc Data Validation Systems and Methods
CN112634138A (zh) * 2020-12-31 2021-04-09 紫光展锐(重庆)科技有限公司 图像处理方法、装置、设备及存储介质、芯片、模组设备
CN112926438B (zh) * 2021-02-22 2024-04-05 深圳中科飞测科技股份有限公司 检测方法及装置、检测设备和存储介质
CN113128407A (zh) * 2021-04-21 2021-07-16 湖北微果网络科技有限公司 扫描识物方法、***、计算机设备及存储介质
CN113627422A (zh) * 2021-06-30 2021-11-09 华为技术有限公司 一种图像分类方法及其相关设备
CN113484884A (zh) * 2021-07-19 2021-10-08 航天科工海鹰集团有限公司 一种可定制的ppk算法
CN115170894B (zh) * 2022-09-05 2023-07-25 深圳比特微电子科技有限公司 一种烟火检测的方法及装置
CN116416522A (zh) * 2022-12-22 2023-07-11 杭州睿胜软件有限公司 植物物种确定方法、装置及计算机可读存储介质
CN117132843B (zh) * 2023-10-26 2024-04-09 长春中医药大学 野山参、林下山参、园参原位鉴别方法、***及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200802188A (en) * 2006-03-16 2008-01-01 Sony Corp Image processing apparatus and method, program recording medium and program
US20110103700A1 (en) * 2007-12-03 2011-05-05 National University Corporation Hokkaido University Image classification device and image classification program
WO2016107103A1 (zh) * 2014-12-30 2016-07-07 百度在线网络技术(北京)有限公司 图像主体区域的识别方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
JP6031736B2 (ja) 2011-07-21 2016-11-24 富士ゼロックス株式会社 物体識別システム及びプログラム
CN103207879B (zh) * 2012-01-17 2016-03-30 阿里巴巴集团控股有限公司 图像索引的生成方法及设备
CN103324949B (zh) * 2012-03-21 2016-09-28 阿里巴巴集团控股有限公司 从图像中识别物体的方法和装置
JP5959923B2 (ja) 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
WO2015022020A1 (en) 2013-08-13 2015-02-19 Logograb Limited Recognition process of an object in a query image
CN103559504B (zh) 2013-11-04 2016-08-31 北京京东尚科信息技术有限公司 图像目标类别识别方法及装置
CN104751198B (zh) 2013-12-27 2018-04-27 华为技术有限公司 图像中的目标物的识别方法及装置
US9122958B1 (en) 2014-02-14 2015-09-01 Social Sweepster, LLC Object recognition or detection based on verification tests
US10055670B2 (en) * 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
US10037712B2 (en) 2015-01-30 2018-07-31 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of detecting a classification of an object
JP6341124B2 (ja) 2015-03-16 2018-06-13 カシオ計算機株式会社 オブジェクト認識装置および認識結果提示方法
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
CN106257495A (zh) * 2015-06-19 2016-12-28 阿里巴巴集团控股有限公司 一种数字识别方法及装置
US9747512B2 (en) * 2015-06-25 2017-08-29 Toshiba Tec Kabushiki Kaisha Article recognition apparatus and image processing method for article recognition apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200802188A (en) * 2006-03-16 2008-01-01 Sony Corp Image processing apparatus and method, program recording medium and program
US20110103700A1 (en) * 2007-12-03 2011-05-05 National University Corporation Hokkaido University Image classification device and image classification program
WO2016107103A1 (zh) * 2014-12-30 2016-07-07 百度在线网络技术(北京)有限公司 图像主体区域的识别方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI814623B (zh) * 2022-10-26 2023-09-01 鴻海精密工業股份有限公司 圖像識別方法、電腦設備及儲存介質

Also Published As

Publication number Publication date
US20180239989A1 (en) 2018-08-23
WO2018152532A1 (en) 2018-08-23
CN108460389B (zh) 2021-12-03
CN108460389A (zh) 2018-08-28
TW201832137A (zh) 2018-09-01
US10706334B2 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
TWI746674B (zh) 識別圖像中物件的類型預測方法、裝置及電子設備
US10824916B2 (en) Weakly supervised learning for classifying images
US20190108447A1 (en) Multifunction perceptrons in machine learning environments
Kao et al. Visual aesthetic quality assessment with a regression model
CN108122239B (zh) 使用深度分割的图像数据中的对象检测
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
TWI618409B (zh) 視頻中之局部變化偵測技術
CN109658455A (zh) 图像处理方法和处理设备
CN106096542B (zh) 基于距离预测信息的图像视频场景识别方法
JP2020522807A (ja) セルフィーを撮影するためにユーザをガイドするためのシステム及び方法
WO2019079895A1 (en) SYSTEM AND METHOD FOR IMAGE PROCESSING THROUGH DEEP NEURAL NETWORKS
CN109643448A (zh) 机器人***中的细粒度物体识别
US20210312523A1 (en) Analyzing facial features for augmented reality experiences of physical products in a messaging system
CN111860494B (zh) 图像目标检测的优化方法、装置、电子设备和存储介质
US9575566B2 (en) Technologies for robust two-dimensional gesture recognition
US20240185460A1 (en) Augmented reality experiences of color palettes in a messaging system
JP2015533434A (ja) 教師あり形状ランク付けに基づく生物学的単位の識別
US11915305B2 (en) Identification of physical products for augmented reality experiences in a messaging system
JP6351243B2 (ja) 画像処理装置、画像処理方法
US20210312678A1 (en) Generating augmented reality experiences with physical products using profile information
Song et al. Depth-aware saliency detection using discriminative saliency fusion
KR20210098997A (ko) 자동화된 실시간 하이 다이나믹 레인지 콘텐츠 검토 시스템
US20180150716A1 (en) Object Detection In Image Data Using Color Segmentation
Martin et al. A learning approach for adaptive image segmentation
You et al. Salient object detection via point-to-set metric learning