KR20190137815A - Method and apparatus for recognizing technical attributes of apparent features - Google Patents

Method and apparatus for recognizing technical attributes of apparent features Download PDF

Info

Publication number
KR20190137815A
KR20190137815A KR1020197030463A KR20197030463A KR20190137815A KR 20190137815 A KR20190137815 A KR 20190137815A KR 1020197030463 A KR1020197030463 A KR 1020197030463A KR 20197030463 A KR20197030463 A KR 20197030463A KR 20190137815 A KR20190137815 A KR 20190137815A
Authority
KR
South Korea
Prior art keywords
feature
apparent
attribute
target
apparent feature
Prior art date
Application number
KR1020197030463A
Other languages
Korean (ko)
Other versions
KR102331651B1 (en
Inventor
춘펑 야오
바이란 펑
더펑 리
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20190137815A publication Critical patent/KR20190137815A/en
Application granted granted Critical
Publication of KR102331651B1 publication Critical patent/KR102331651B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치가 제공된다. 목표 이미지의 겉보기 특징의 위치 특징을 획득하여, 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 결정한다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다. 위치 특징에 기초하여 목표 구역이 인식된다. 목표 구역은 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.A method and apparatus are provided for recognizing the technical attributes of an apparent feature. The positional feature of the apparent feature of the target image is obtained to determine the position of the site of the object in the predetermined target model and dictated by the apparent feature. The location feature of the apparent feature is used to indicate the location of the site of the subject in the predetermined target model and dictated by the apparent feature. The target zone is recognized based on the location feature. The target zone includes the site of the subject. Then, feature analysis is performed on the target area, and the technical attributes of the apparent feature of the object are recognized. The positional feature of the apparent feature with local properties is determined. For the apparent feature having the local attribute, from the target image, the target zone indicated by the apparent feature and in which the site of the subject is located is intentionally selected as a recognition zone for feature analysis, thereby selecting a meaningless recognition zone. Reduce, simplify the image processing manipulation process, reduce the time to recognize technical attributes, and reduce the computer image processing workload.

Description

겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치Method and apparatus for recognizing technical attributes of apparent features

본 발명은 이미지 처리 기술들의 분야에 관한 것으로, 특히, 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치에 관한 것이다.TECHNICAL FIELD The present invention relates to the field of image processing techniques, and more particularly, to a method and apparatus for recognizing technical attributes of apparent features.

보행자 속성 인식은 감시 비디오에서 보행자의 겉보기 특징의 기술 속성을 인식하기 위해 사용되는 패턴 인식 기술이다. 보행자의 겉보기 특징은 성별, 연령, 체구, 복장, 머리카락, 액세서리, 및 배향과 같은 복수의 양태를 포함한다. 각각의 겉보기 특징은 복수의 기술 속성을 포함한다. 예를 들어, 겉보기 특징이 성별일 때, 성별의 기술 속성들은 남성 및 여성을 포함한다. 다른 예로서, 겉보기 특징이 머리카락일 때, 머리카락의 기술 속성들은 긴 머리카락 및 짧은 머리카락을 포함한다. 머리카락의 겉보기 특징은 다른 기술 속성들을 추가로 포함할 수 있다. 예를 들어, 머리카락의 기술 속성들은 색들에 기초하여 구별되고, 머리카락의 기술 속성들은 백색, 흑색, 갈색 등을 포함한다. 보행자 속성 인식의 대상은 카메라에 의해 임의의 각도로 랜덤하게 촬영되는 목표 이미지이다. 목적은 시각 정보 검색을 간소화하고 보행자의 겉보기 특징의 기술 속성을 인식함으로써 시각 정보 인식의 속도 및 정확도를 증가시키는 것이다.Pedestrian attribute recognition is a pattern recognition technique used to recognize the technical attributes of the pedestrian's apparent features in surveillance video. The apparent characteristics of the pedestrian include a plurality of aspects such as gender, age, body size, clothing, hair, accessories, and orientation. Each apparent feature includes a plurality of descriptive attributes. For example, when the apparent characteristic is gender, the technical attributes of gender include male and female. As another example, when the apparent feature is hair, the technical properties of the hair include long hair and short hair. The apparent characteristics of the hair may further include other technical attributes. For example, the technical properties of the hair are distinguished based on the colors, and the technical properties of the hair include white, black, brown and the like. The object of the pedestrian attribute recognition is a target image which is randomly photographed at an arbitrary angle by the camera. The aim is to increase the speed and accuracy of visual information recognition by simplifying visual information retrieval and recognizing the technical attributes of the apparent characteristics of pedestrians.

종래 기술에서는, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식될 때, 목표 이미지에 대해 특징 분석 및 분류 훈련이 수행된다. 상이한 겉보기 특징들의 기술 속성들의 인식, 예를 들어, 긴 머리카락 및 짧은 머리카락을 포함하는 기술 속성들의 인식은 또한 전체 목표 이미지에 대해 특징 분석을 수행하는 것을 의미하고, 무의미한 이미지 처리 조작을 포함하여, 컴퓨터 이미지 처리 작업부하를 증가시킨다.In the prior art, feature analysis and classification training is performed on the target image when the technical attribute of the apparent feature of the object in the target image is recognized. Recognition of technical properties of different apparent features, for example, recognition of technical properties, including long hair and short hair, also means performing a feature analysis on the entire target image, including meaningless image processing manipulations, Increase your image processing workload.

본 발명은 목표 이미지로부터 상이한 겉보기 특징들에 기초하여, 겉보기 특징의 기술 속성과 관련된 인식 구역을 의도적으로 선택하고, 이로써 무의미한 이미지 처리 조작을 감소시키고 컴퓨터 이미지 처리 작업부하들을 감소시키기 위해, 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 개시한다.The present invention intentionally selects a recognition zone associated with a technical attribute of an apparent feature based on different apparent features from a target image, thereby reducing the meaningless image processing operation and reducing computer image processing workloads. A method and apparatus for recognizing technical attributes is disclosed.

제1 양태는 겉보기 특징의 기술 속성을 인식하기 위한 방법을 제공한다. 이 방법은 이미지 처리 디바이스에 의해 수행되고 이는: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 상기 목표 이미지의 겉보기 특징의 위치 특징을 획득하여, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 결정하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.The first aspect provides a method for recognizing a description attribute of an apparent feature. The method is performed by an image processing device, comprising: obtaining a target image, the target image including an object; Obtaining a positional feature of the apparent feature of the target image and determining a position of the site of the subject in the predetermined object model and indicated by the apparent feature, wherein the apparent feature belongs to the apparent characteristic of the object. Used to indicate a type, a positional feature of the apparent feature is indicated by the apparent feature and used to indicate the location of the site of the subject in the predetermined object model, the apparent feature has local properties, The local attribute is used to instruct the image processing device to process the target image in a local processing manner; Recognizing a target zone based on the location feature, wherein the target zone includes a portion of the subject; And performing a feature analysis on the target zone, and recognizing a description attribute of the apparent feature of the object.

상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.The positional feature of the apparent feature with the local attribute is determined. For the apparent feature having the local attribute, from the target image, the target zone indicated by the apparent feature and in which the site of the subject is located is intentionally selected as a recognition zone for feature analysis, thereby selecting a meaningless recognition zone. Reduce, simplify the image processing manipulation process, reduce the time to recognize technical attributes, and reduce the computer image processing workload.

제1 양태에 기초하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Based on the first aspect, in a first implementation, the method further comprises: receiving a location attribute of the apparent feature, wherein the location attribute is to indicate that the apparent feature has the local property. Used.

제1 양태에 기초하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Based on the first aspect, in a first implementation, the method further comprises: obtaining, from a prestored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute Is used to indicate that the apparent feature has the local property.

제1 양태, 또는 제1 양태의 제1 또는 제2 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역의 위치는 왼쪽 방향, 오른쪽 방향, 위쪽 방향, 아래쪽 방향, 또는 다른 방향으로 조정된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역이 이동된 후에 상기 대상의 부위를 포함하는 오프셋 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.With respect to the first aspect, or to the first or second implementation of the first aspect, in a third implementation, the method further comprises: moving the target zone in a designated direction using the target zone as a center, thereby causing at least one offset zone. Obtaining a; Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is one of the description property and the other description property, the description property closest to the target data. to be. The position of the target zone is adjusted in a left direction, a right direction, an upward direction, a downward direction, or another direction. For a target zone that does not contain a portion of the subject or that contains only a portion of the portion of the subject and is obtained from an indistinct target image, an offset region comprising the portion of the subject may be obtained after the target region is moved. Can be. This reduces the risk of having a relatively large error in recognizing technical attributes, and increases the accuracy of recognizing technical attributes since a target zone comprising only a portion of the area of the object is obtained from the non-obvious target image.

제1 양태 또는 제1 양태의 제3 구현에 관련하여, 제4 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.Regarding the first aspect or the third implementation of the first aspect, in a fourth implementation, the method includes: extending the offset zone or the target zone outward, using the offset zone or the target zone as a center; Obtaining more than one candidate zone; Performing a feature analysis on the candidate zone and recognizing other descriptive attributes of the apparent feature of the subject; And determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is one of the description property and the other description property, the description property closest to the target data. to be. The target zone or the offset zone extends around for position adjustment. Candidates that include a site of the subject after the target zone or the offset zone is expanded, for a target zone that does not include a site of the subject or that includes only a portion of the site of the subject and is obtained from an unclear target image. Zones can be obtained. This reduces the risk of having a relatively large error in recognizing technical attributes, and increases the accuracy of recognizing technical attributes because a target zone or offset zone comprising only a portion of the area of the object is obtained from the non-obvious target image. Let's do it.

제1 양태의 제3 또는 제4 구현에 관련하여, 제5 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.Regarding the third or fourth implementation of the first aspect, in a fifth implementation, using the target zone as a center, moving the target zone in a designated direction to obtain one or more offset zones may include: Dividing a into a plurality of blocks, the plurality of blocks having the same shape, the plurality of blocks being contiguous; Moving one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain one or more offset zones, each offset zone The size of is equal to the size of the target zone and the quantity of offset units is a positive integer.

제1 양태 또는 제1 양태의 제1 내지 제5 구현 중 어느 하나에 관련하여, 제6 구현에서, 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.With regard to any of the first aspect or the first to fifth implementations of the first aspect, in a sixth implementation, obtaining a positional feature of the apparent feature comprises: receiving information comprising the positional feature of the apparent feature: And the information is used to indicate a positional feature of the apparent feature.

제1 양태 또는 제1 양태의 제1 내지 제5 구현 중 어느 하나에 관련하여, 제7 구현에서, 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하는 단계를 포함한다.With regard to any of the first aspect or the first to fifth implementations of the first aspect, in a seventh implementation, obtaining a positional feature of the apparent feature comprises: pre-stored correspondence between the apparent feature and the positional feature. Querying; And obtaining a positional feature of the apparent feature based on the apparent feature and the correspondence relationship.

제2 양태에 따르면, 겉보기 특징의 기술 속성을 인식하기 위한 방법이 제공된다. 이 방법은 이미지 처리 디바이스에 의해 수행되고 이는: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하여, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위 및 제2 부위의 위치를 결정하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 상기 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 상기 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하는 단계; 상기 최대 거리에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 제1 부위 및 제2 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.According to a second aspect, a method is provided for recognizing descriptive attributes of an apparent feature. The method is performed by an image processing device, comprising: obtaining a target image, the target image including an object; Acquiring a first positional feature and a second positional feature of the apparent feature of the object to determine the position of the first portion and the second portion of the object in a predetermined object model and dictated by the apparent feature; The apparent feature is used to indicate the type to which the apparent feature of the subject belongs, and the first location feature indicates the position of the first portion of the subject in the predetermined subject model and dictated by the apparent feature. Used to indicate, the second positional feature is dictated by the apparent feature and used to indicate the position of the second portion of the object in the predetermined object model, the apparent feature has a local property, The local attribute causes the image processing device to process the target image in a local processing manner. To be used for instruction; Obtaining a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature; Recognizing a target zone based on the maximum distance, the target zone including a first portion and a second portion; And performing a feature analysis on the target zone, and recognizing a description attribute of an apparent feature of the object in the target image.

상기 국소 속성을 갖는 상기 겉보기 특징의 복수의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 상기 대상의 복수의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.A plurality of positional features of the apparent feature with the local attribute are determined. For the apparent feature having the local attribute, from the target image, the target zone in which a plurality of portions of the object indicated by the apparent feature is located is intentionally selected as a recognition zone for feature analysis, thereby making a meaningless recognition zone Reduce the time for recognizing technical attributes, reduce the time for recognizing technical attributes, and reduce the computer image processing workload.

제2 양태에 기초하여, 제1 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다. 사전설정된 임계치는 이미지 처리 디바이스에게 목표 이미지에 대해 국소 처리 또는 전역 처리를 수행하도록 명령하기 위해 사용된다. 상기 최대 거리가 상기 사전설정된 임계치보다 작으면, 상기 이미지 처리 디바이스는 상기 목표 이미지에 대해 국소 처리를 수행하도록 명령받는다; 또는 상기 최대 거리가 상기 사전설정된 임계치 이상이면, 상기 이미지 처리 디바이스는 상기 목표 이미지에 대해 전역 처리를 수행하도록 명령받는다. 상기 전역 처리는 상기 목표 이미지를 처리하는 것이다.Based on the second aspect, in a first implementation, the maximum distance is less than a preset threshold. The preset threshold is used to instruct the image processing device to perform local processing or global processing on the target image. If the maximum distance is less than the preset threshold, the image processing device is instructed to perform local processing on the target image; Or if the maximum distance is greater than or equal to the preset threshold, the image processing device is instructed to perform global processing on the target image. The global processing is to process the target image.

제2 양태 또는 제2 양태의 제1 구현에 관련하여, 제2 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Regarding the second aspect or the first implementation of the second aspect, in a second implementation, the method further comprises: receiving a position attribute of the apparent feature, wherein the position attribute is the local feature of the local feature. Used to indicate that it has an attribute.

제2 양태 또는 제2 양태의 제1 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Regarding the second aspect or the first implementation of the second aspect, in a third implementation, the method further comprises: obtaining, from a pre-stored correspondence between the apparent feature and the position attribute, a position attribute of the apparent feature of the object. Further including, the location property is used to indicate that the apparent feature has the local property.

제2 양태 또는 제2 양태의 제1 내지 제3 구현들 중 어느 하나에 관련하여, 제4 구현에서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는: 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 지시하기 위해 사용된다.With regard to any of the second or first to third implementations of the second aspect, in a fourth implementation, acquiring the first positional feature and the second positional feature of the apparent feature of the subject may include: Receiving information including the first location feature and the second location feature of the feature, wherein the information is used to indicate the first location feature and the second location feature of the apparent feature.

제2 양태 또는 제2 양태의 제1 내지 제3 구현들 중 어느 하나에 관련하여, 제5 구현에서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는: 상기 제1 위치 특징 및 상기 제2 위치 특징 각각과 상기 겉보기 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하는 단계를 포함한다.With regard to any of the second or first to third implementations of the second aspect, in a fifth implementation, acquiring the first positional feature and the second positional feature of the apparent feature of the subject comprises: Querying a pre-stored correspondence between each of the first positional feature and the second positional feature and the apparent feature; And acquiring the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence relationship.

제2 양태 또는 제2 양태의 제1 내지 제5 구현들 중 어느 하나에 관련하여, 제6 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역의 위치는 왼쪽 방향, 오른쪽 방향, 위쪽 방향, 아래쪽 방향, 또는 다른 방향으로 조정된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역이 이동된 후에 상기 대상의 부위를 포함하는 오프셋 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.With regard to any of the second or first to fifth implementations of the second aspect, in a sixth implementation, the method includes: moving the target zone in a designated direction, using the target zone as a center, one Obtaining the above offset zones; Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is one of the description property and the other description property, the description property closest to the target data. to be. The position of the target zone is adjusted in a left direction, a right direction, an upward direction, a downward direction, or another direction. For a target zone that does not contain a portion of the subject or that contains only a portion of the portion of the subject and is obtained from an indistinct target image, an offset region comprising the portion of the subject may be obtained after the target region is moved. Can be. This reduces the risk of having a relatively large error in recognizing technical attributes, and increases the accuracy of recognizing technical attributes since a target zone comprising only a portion of the area of the object is obtained from the non-obvious target image.

제2 양태의 제6 구현에 관련하여, 제7 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 기술 속성을 인식하는 정확도를 증가시킨다.Regarding the sixth implementation of the second aspect, in a seventh implementation, the method includes: extending the offset zone or the target zone outwards using the offset zone or the target zone as a center, thereby expanding one or more candidate zones. Obtaining; Performing a feature analysis on the candidate zone and recognizing other descriptive attributes of the apparent feature of the subject; And determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is one of the description property and the other description property, the description property closest to the target data. to be. The target zone or the offset zone extends around for position adjustment. Candidates that include a site of the subject after the target zone or the offset zone is expanded, for a target zone that does not include a site of the subject or that includes only a portion of the site of the subject and is obtained from an unclear target image. Zones can be obtained. This reduces the risk of having a relatively large error in recognizing technical attributes, and increases the accuracy of recognizing technical attributes because a target zone or offset zone comprising only a portion of the area of the object is obtained from the non-obvious target image. Let's do it.

제2 양태의 제6 또는 제7 구현에 관련하여, 제8 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.Regarding the sixth or seventh implementation of the second aspect, in an eighth implementation, using the target zone as a center, moving the target zone in a designated direction to obtain one or more offset zones may include: Dividing a into a plurality of blocks, the plurality of blocks having the same shape, the plurality of blocks being contiguous; Moving one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain one or more offset zones, each offset zone The size of is equal to the size of the target zone and the quantity of offset units is a positive integer.

제3 양태에 따르면, 겉보기 특징의 기술 속성을 인식하기 위한 방법이 제공된다. 이 방법은 이미지 처리 디바이스에 의해 수행되고, 다음의 단계들: 목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -; 및 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함하고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다.According to a third aspect, a method is provided for recognizing descriptive attributes of an apparent feature. The method is performed by an image processing device, comprising the following steps: obtaining a target image, the target image comprising an object; And performing a feature analysis on the target image and recognizing a description attribute of an apparent feature of the object in the target image, wherein the apparent feature is used to indicate a type to which the apparent characteristic of the object belongs. The description attribute is used to identify an apparent characteristic of the object, the apparent characteristic has a global attribute, and the global attribute is used to indicate that the manner in which the target image is processed is a global process.

상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.It is determined that the apparent feature has a global attribute. For apparent features with global attributes, the target image is directly selected as the recognition zone for feature analysis, while block feature analysis does not need to be performed on the target image. This simplifies the image processing manipulation process, reduces the time for recognizing technical attributes, and reduces the computer image processing workload.

제3 양태에 관련하여, 제1 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.Regarding a third aspect, in a first implementation, the method further comprises: receiving a location attribute of the apparent feature, wherein the location attribute is to indicate that the apparent feature has the global attribute. Used.

제3 양태에 관련하여, 제2 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.With regard to a third aspect, in a second implementation, the method further comprises: obtaining, from a prestored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute Is used to indicate that the apparent feature has the global attribute.

제3 양태 또는 제3 양태의 제1 또는 제2 구현에 관련하여, 제3 구현에서, 상기 방법은: 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계; 및 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성을 수정하는 단계를 추가로 포함한다. 전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.Regarding the third aspect or the first or second implementation of the third aspect, in a third implementation, the method further comprises: obtaining another apparent feature associated with the apparent feature, the other apparent feature being a characteristic of the apparent feature. Used to indicate the type associated with and to which the apparently other characteristic of the subject belongs; Obtaining a description attribute of the other apparent feature; And modifying the description attribute of the apparent feature using the description attribute of the other apparent feature. The description attribute of an apparent feature with a global attribute may be modified by using the description attribute of another apparent feature with a local attribute and associated with the apparent feature with a global attribute to determine the accuracy of recognizing the description attribute of an apparent feature with a global attribute. Increase.

제3 양태의 제3 구현에 관련하여, 제4 구현에서, 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계는: 상기 겉보기 특징과 상기 다른 겉보기 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 단계를 포함한다.Regarding the third implementation of the third aspect, in a fourth implementation, obtaining another apparent feature associated with the apparent feature comprises: querying a pre-stored correspondence between the apparent feature and the other apparent feature; And obtaining the other apparent feature associated with the apparent feature.

제3 양태의 제3 구현에 관련하여, 제5 구현에서, 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계는: 상기 다른 겉보기 특징의 식별자를 포함하는 정보를 수신하는 단계; 및 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 단계를 포함한다.Regarding the third implementation of the third aspect, in a fifth implementation, obtaining another apparent feature associated with the apparent feature comprises: receiving information including an identifier of the other apparent feature; And obtaining the other apparent feature associated with the apparent feature.

제3 양태의 제3 내지 제5 구현들 중 어느 하나에 관련하여, 제6 구현에서, 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계는: 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 다른 겉보기 특징의 위치 특징은 상기 다른 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 다른 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -; 상기 다른 겉보기 특징의 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 다른 겉보기 특징의 기술 속성을 인식하는 단계를 포함한다.With regard to any of the third to fifth implementations of the third aspect, in a sixth implementation, obtaining the technical attribute of the other apparent feature may include: obtaining a location feature of the other apparent feature—the other An apparent feature is used to indicate the type to which the other feature of the subject belongs, and the position feature of the other apparent feature indicates the position of the site of the subject in the predetermined subject model and indicated by the other apparent feature. The other apparent feature has a local property, the local property being used to instruct the image processing device to process the target image in a local processing manner; Recognizing a target zone based on the location feature of the other apparent feature, wherein the target zone includes a portion of the subject; And performing a feature analysis on the target zone and recognizing a description attribute of another apparent feature of the object.

제3 양태의 제6 구현에 관련하여, 제7 구현에서, 상기 방법은: 상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 다른 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Regarding the sixth implementation of the third aspect, in a seventh implementation, the method further comprises: receiving a location attribute of the apparent feature, the location attribute wherein the other apparent feature has the local attribute. Is used to indicate.

제3 양태의 제6 구현에 관련하여, 제8 구현에서, 상기 방법은: 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 다른 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 다른 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Regarding the sixth implementation of the third aspect, in an eighth implementation, the method further comprises: obtaining, from a prestored correspondence between the apparent feature and the location attribute, a location attribute of another apparent feature of the subject And the location property is used to indicate that the other apparent feature has the local property.

제3 양태의 제6 내지 제8 구현들 중 어느 하나에 관련하여, 제9 구현에서, 상기 방법은: 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 상기 다른 겉보기 특징의 기술 속성으로서, 사전설정된 알고리즘에 따라 상기 다른 겉보기 특징의 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 다른 겉보기 특징의 기술 속성 및 상기 다른 기술 속성 중에, 상기 목표 데이터에 가장 가까운 기술 속성이다.With regard to any of the sixth to eighth implementations of the third aspect, in a ninth implementation, the method includes: moving the target zone in a designated direction using the target zone as a center, thereby creating one or more offset zones. Obtaining; Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And as a descriptive attribute of the other apparent feature, determining a target descriptive property among the descriptive property of the other apparent feature and the other descriptive property according to a predetermined algorithm, wherein the target descriptive property is the other apparent feature. Among the description attributes and the other description attributes, is the description attribute closest to the target data.

제3 양태 또는 제3 양태의 제9 구현에 관련하여, 제10 구현에서, 상기 방법은: 상기 오프셋 구역 또는 상기 목표 구역을 중심으로서 이용하여 상기 오프셋 구역 또는 상기 목표 구역을 바깥쪽으로 확장하여, 하나 이상의 후보 구역을 획득하는 단계; 상기 후보 구역에 대해 특징 분석을 수행하고, 상기 대상의 다른 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및 상기 다른 겉보기 특징의 기술 속성으로서, 사전설정된 알고리즘에 따라 상기 다른 겉보기 특징의 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 다른 겉보기 특징의 상기 기술 속성 및 상기 다른 기술 속성 중에, 상기 목표 데이터에 가장 가까운 기술 속성이다. 상기 목표 구역 또는 상기 오프셋 구역은 위치 조정을 위해 주위로 확장된다. 상기 대상의 부위를 포함하지 않거나 상기 대상의 부위의 부분만을 포함하는 그리고 뚜렷하지 않은 목표 이미지로부터 획득되는 목표 구역에 대해, 상기 목표 구역 또는 상기 오프셋 구역이 확장된 후에 상기 대상의 부위를 포함하는 후보 구역이 획득될 수 있다. 이는 상기 뚜렷하지 않은 목표 이미지로부터 상기 대상의 부위의 부분만을 포함하는 목표 구역 또는 오프셋 구역이 획득되기 때문에 상기 다른 겉보기 특징의 기술 속성을 인식하는 데 있어서 오차가 비교적 큰 위험을 감소시키고, 상기 다른 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.Regarding the third aspect or the ninth implementation of the third aspect, in a tenth embodiment, the method includes: extending the offset zone or the target zone outward, using the offset zone or the target zone as a center; Obtaining more than one candidate zone; Performing a feature analysis on the candidate zone and recognizing other descriptive attributes of another apparent feature of the subject; And as a descriptive attribute of the other apparent feature, determining a target descriptive attribute among the descriptive attribute of the other apparent feature and the other descriptive attribute according to a predetermined algorithm, wherein the target descriptive attribute is determined by the other apparent feature. Among the descriptive attributes and the other descriptive attributes of the feature, the descriptive attribute is closest to the target data. The target zone or the offset zone extends around for position adjustment. Candidates that include a site of the subject after the target zone or the offset zone is expanded, for a target zone that does not include a site of the subject or that includes only a portion of the site of the subject and is obtained from an unclear target image. Zones can be obtained. This reduces the risk that the error is relatively large in recognizing the technical properties of the other apparent feature since a target zone or offset zone comprising only a portion of the area of the subject is obtained from the non-obvious target image, and the other apparent Increase the accuracy of recognizing the technical properties of the feature.

제3 양태의 제9 또는 제10 구현에 관련하여, 제11 구현에서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는: 상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.Regarding the ninth or tenth implementation of the third aspect, in an eleventh implementation, using the target zone as a center, moving the target zone in a designated direction to obtain one or more offset zones may include: Dividing a into a plurality of blocks, the plurality of blocks having the same shape, the plurality of blocks being contiguous; Moving one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain one or more offset zones, each offset zone The size of is equal to the size of the target zone and the quantity of offset units is a positive integer.

제3 양태의 제6 내지 제11 구현들 중 어느 하나에 관련하여, 제12 구현에서, 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 다른 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 다른 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.With regard to any of the sixth to eleventh implementations of the third aspect, in a twelfth implementation, acquiring a location feature of the other apparent feature comprises: receiving information that includes the location feature of the other apparent feature; And the information is used to indicate a location feature of the other apparent feature.

제3 양태의 제6 내지 제11 구현들 중 어느 하나에 관련하여, 제13 구현에서, 상기 다른 겉보기 특징의 위치 특징을 획득하는 단계는: 상기 다른 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하는 단계; 및 상기 다른 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하는 단계를 포함한다.With regard to any of the sixth to eleventh implementations of the third aspect, in a thirteenth implementation, obtaining a location feature of the other apparent feature comprises: pre-stored correspondence between the other apparent feature and the location feature; Querying; And obtaining a positional feature of the apparent feature based on the other apparent feature and the correspondence relationship.

제4 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제1 양태 또는 제1 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.A fourth aspect provides an apparatus for recognizing a description attribute of an apparent feature. The apparatus includes modules configured to perform a method for recognizing a description attribute of an apparent feature in either the first aspect or possible implementations of the first aspect. The modules may be implemented using hardware or may be implemented by hardware by executing corresponding software.

제5 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제1 양태 또는 제1 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.A fifth aspect provides an apparatus for recognizing technical attributes of an apparent feature, the apparatus comprising a processor and a memory. The memory stores computer instructions and the processor is coupled to the memory. The processor is configured to execute the computer instructions in the memory to perform the method in either the first aspect or possible implementations of the first aspect.

제6 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제2 양태 또는 제2 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.A sixth aspect provides an apparatus for recognizing descriptive attributes of an apparent feature. The apparatus includes modules configured to perform a method for recognizing a description attribute of an apparent feature in either the second aspect or possible implementations of the second aspect. The modules may be implemented using hardware or may be implemented by hardware by executing corresponding software.

제7 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제2 양태 또는 제2 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.A seventh aspect provides an apparatus for recognizing technical attributes of an apparent feature, the apparatus comprising a processor and a memory. The memory stores computer instructions and the processor is coupled to the memory. The processor is configured to execute the computer instructions in the memory to perform the method in either the second aspect or possible implementations of the second aspect.

제8 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공한다. 이 장치는 제3 양태 또는 제3 양태의 가능한 구현들 중 어느 하나에서의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 수행하도록 구성되는 모듈들을 포함한다. 상기 모듈들은 하드웨어를 이용하여 구현될 수 있거나, 대응하는 소프트웨어를 실행함으로써 하드웨어에 의해 구현될 수 있다.An eighth aspect provides an apparatus for recognizing a description attribute of an apparent feature. The apparatus includes modules configured to perform a method for recognizing a description attribute of an apparent feature in either the third aspect or possible implementations of the third aspect. The modules may be implemented using hardware or may be implemented by hardware by executing corresponding software.

제9 양태는 겉보기 특징의 기술 속성을 인식하기 위한 장치를 제공하고, 이 장치는 프로세서 및 메모리를 포함한다. 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결된다. 상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여, 제3 양태 또는 제3 양태의 가능한 구현들 중 어느 하나에서의 방법을 수행하도록 구성된다.A ninth aspect provides an apparatus for recognizing technical attributes of an apparent feature, the apparatus comprising a processor and a memory. The memory stores computer instructions and the processor is coupled to the memory. The processor is configured to execute the computer instructions in the memory to perform the method in either the third aspect or possible implementations of the third aspect.

본 발명의 실시예들은 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 제공한다. 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되고, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치가 결정되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 상기 위치 특징에 기초하여 상기 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.Embodiments of the present invention provide a method and apparatus for recognizing technical attributes of an apparent feature. A positional feature of the apparent feature of the target image is obtained, the position of the site of the object in the predetermined object model and dictated by the apparent feature is determined, and the apparent feature is of a type to which the apparent feature of the object belongs. Wherein the positional feature of the apparent feature is dictated by the apparent feature and is used to indicate the location of the site of the subject in the predetermined object model, the apparent feature has a local property, Local attributes are used to instruct the image processing device to process the target image in a local processing manner. The target zone is recognized based on the location feature, wherein the target zone includes a site of the subject. Then, feature analysis is performed on the target area, and the technical attributes of the apparent feature of the object are recognized. The positional feature of the apparent feature with the local attribute is determined. For the apparent feature having the local attribute, from the target image, the target zone indicated by the apparent feature and in which the site of the subject is located is intentionally selected as a recognition zone for feature analysis, thereby selecting a meaningless recognition zone. Reduce, simplify the image processing manipulation process, reduce the time to recognize technical attributes, and reduce the computer image processing workload.

본 발명의 실시예들에서의 기술적 해결책들을 더 명확하게 설명하기 위해, 이하에서는 본 발명의 실시예들을 설명하기 위해 요구되는 첨부 도면들을 간단히 설명한다.
도 1은 본 발명의 실시예에 따른 이미지 처리 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 이미지 처리 디바이스(120)의 구조도이다.
도 3a는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법의 흐름도이다.
도 3b는 본 발명의 실시예에 따른 목표 구역을 결정하는 개략도이다.
도 3c는 본 발명의 실시예에 따른 목표 구역의 이동 후에 획득되는 개략도이다.
도 3d는 본 발명의 실시예에 따른 블록 분할 다이어그램들의 개략도이다.
도 4는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다.
도 5는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다.
도 6은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치의 구조도이다.
도 7은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 8은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 9는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 10은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
도 11은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다.
BRIEF DESCRIPTION OF DRAWINGS To describe the technical solutions in the embodiments of the present invention more clearly, the following briefly introduces the accompanying drawings required for describing the embodiments of the present invention.
1 is a block diagram of an image processing system according to an exemplary embodiment of the present invention.
2 is a structural diagram of an image processing device 120 according to an embodiment of the present invention.
3A is a flow diagram of a method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the present invention.
3B is a schematic diagram of determining a target zone according to an embodiment of the present invention.
3C is a schematic diagram obtained after the movement of the target zone according to an embodiment of the present invention.
3D is a schematic diagram of block division diagrams according to an embodiment of the present invention.
4 is a flowchart of another method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the invention.
5 is a flowchart of another method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the present invention.
6 is a structural diagram of an apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention.
7 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention.
8 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention.
9 is a structural diagram of another apparatus for recognizing description attributes of an apparent feature according to an embodiment of the present invention.
10 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention.
11 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention.

이하에서는 첨부 도면들을 참조하여 본 발명의 실시예들에서의 기술적 해결책들을 명확하고 완전하게 설명한다. 명백히, 설명된 실시예들은 본 발명의 실시예들의 전부가 아니라 일부에 불과하다.DESCRIPTION OF EMBODIMENTS The following clearly and completely describes the technical solutions in the embodiments of the present invention with reference to the accompanying drawings. Apparently, the described embodiments are merely some but not all of the embodiments of the present invention.

실시예들에서 제공되는 이미지 처리 디바이스, 장치, 및 방법은 주로 보행자 감시 분야에 적용되고, 감시 비디오에서의 보행자 및 보행자의 겉보기 특징의 기술 속성을 인식하기 위해 사용된다. 겉보기 특징은 감시 중인 사람의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용된다. 예를 들어, 겉보기 특징은 머리카락의 색 또는 사람의 머리카락의 길이, 또는 피부의 색, 신장, 성별, 착용한 의복의 유형, 또는 보행자의 휴대 가방의 유형일 수 있다. 대안적으로, 차량 감시 분야에서의 응용에서, 겉보기 특징은 차량의 색, 차량 번호판, 또는 얼굴 특징, 착용한 의복의 스타일, 또는 차량의 운전자의 성별 등일 수 있다. 기술 속성은 사람의 겉보기의 특성을 식별하기 위해 사용된다. 예를 들어, 겉보기 특징은 보행자의 피부의 색이다. 피부의 색은 복수의 기술 속성: 황색, 흑색, 및 백색을 포함한다.The image processing device, apparatus, and method provided in the embodiments apply mainly to the field of pedestrian surveillance and are used to recognize the technical properties of pedestrians and pedestrians' apparent features in surveillance video. The apparent feature is used to indicate the type to which the apparent characteristic of the person being monitored belongs. For example, the apparent feature may be the color of the hair or the length of the human hair, or the color of the skin, height, sex, type of clothing worn, or the type of carry bag of the pedestrian. Alternatively, in applications in the field of vehicular surveillance, the apparent feature may be the color of the vehicle, the license plate or face feature, the style of clothing worn, or the gender of the driver of the vehicle. Descriptive attributes are used to identify the apparent characteristics of a person. For example, the apparent feature is the color of the skin of a pedestrian. The color of the skin includes a plurality of technical attributes: yellow, black, and white.

실시예들에서 제공되는 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치가 이미지 처리 시스템에 적용된다. 도 1은 본 발명의 실시예에 따른 이미지 처리 시스템의 구성도이다. 도 1에 도시된 바와 같이, 이미지 처리 시스템은 초기 이미지 촬영 장치(110) 및 이미지 처리 디바이스(120)를 포함한다. 초기 이미지 촬영 장치(110)는 이미지 처리 디바이스(120)에 통신가능하게 연결된다. 초기 이미지 촬영 장치(110)는 상이한 촬영 각도들에서 초기 이미지를 모니터링하고 획득하도록 구성되고, 초기 이미지는 대상을 포함한다. 초기 이미지 촬영 장치(110)는 초기 이미지를 이미지 처리 디바이스(120)에 전송한다. 초기 이미지를 수신한 후에, 이미지 처리 디바이스(120)는 초기 이미지 내의 대상의 윤곽을 인식하고, 윤곽에 의해 형성된 윤곽 이미지를 획득한다. 윤곽 이미지는 대상을 포함한다.A method and apparatus for recognizing technical attributes of an apparent feature provided in embodiments is applied to an image processing system. 1 is a block diagram of an image processing system according to an exemplary embodiment of the present invention. As shown in FIG. 1, the image processing system includes an initial image capturing apparatus 110 and an image processing device 120. The initial image capturing apparatus 110 is communicatively coupled to the image processing device 120. The initial image capturing apparatus 110 is configured to monitor and acquire the initial image at different photographing angles, the initial image including an object. The initial image capturing apparatus 110 transmits the initial image to the image processing device 120. After receiving the initial image, the image processing device 120 recognizes the outline of the object in the initial image and obtains the outline image formed by the outline. The contour image includes the object.

윤곽 이미지를 획득한 후에, 이미지 처리 디바이스(120)는 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득한다. 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득하는 방식은 다음과 같다: 이미지 처리 디바이스(120)는 사전설정된 대상 모델에서의 대상의 각도에 기초하여 평면 상의 윤곽 이미지의 각도를 회전시키는데, 각도 회전 후에 획득되는 윤곽 이미지 내의 대상의 각도는 사전설정된 대상 모델에서의 대상의 각도와 동일하고, 윤곽 이미지 내의 대상 및 사전설정된 대상 모델에서의 대상은 동일한 대상 유형에 속한다. 예를 들어, 초기 이미지 내의 대상이 보행자이면, 사전설정된 대상 모델은 사전설정된 인체 모델, 구체적으로는, 직립 인체 모델이다. 예를 들어, 초기 이미지 내의 대상이 차량이면, 사전설정된 대상 모델은 사전설정된 차량 모델이다. 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득하는 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 사용자에 의해 입력된 목표 이미지를 수신하는데, 목표 이미지는 사용자가 단말 디바이스를 이용하여 윤곽 이미지를 회전시킨 후에 획득된 목표 이미지이고, 단말 디바이스는 이 실시예에서 제공된 이미지 처리 디바이스(120)일 수 있다. 이미지 처리 디바이스는 단말 디바이스로서 사용될 수 있고, 사용자에 의해 입력된 명령을 수신하고, 윤곽 이미지를 회전시켜 목표 이미지를 획득하도록 구성된다.After acquiring the outline image, the image processing device 120 acquires a target image that includes the object in the outline image. The manner of obtaining a target image including an object in the contour image is as follows: The image processing device 120 rotates the angle of the contour image on the plane based on the angle of the object in the preset object model, after the angle rotation. The angle of the object in the contour image obtained is the same as the angle of the object in the preset object model, and the object in the contour image and the object in the preset object model belong to the same object type. For example, if the object in the initial image is a pedestrian, the preset object model is a preset human model, specifically an upright human model. For example, if the object in the initial image is a vehicle, the preset object model is a preset vehicle model. Another way of obtaining a target image including an object in the outline image is as follows: The image processing device 120 receives the target image input by the user, which target image is obtained by the user using the terminal device. The target image obtained after the rotation, and the terminal device may be the image processing device 120 provided in this embodiment. The image processing device may be used as a terminal device and is configured to receive a command input by a user and to rotate a contour image to obtain a target image.

목표 이미지를 획득한 후에, 이미지 처리 디바이스(120)는 겉보기 특징의 위치 속성이 전역 속성인지 또는 국소 속성인지를 결정한다. 국소 속성은 이미지 처리 디바이스(120)에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고, 전역 속성은 이미지 처리 디바이스(120)에게 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용된다.After obtaining the target image, the image processing device 120 determines whether the positional attribute of the apparent feature is a global attribute or a local attribute. The local attribute is used to instruct the image processing device 120 to process the target image in a local processing manner, and the global attribute is used to instruct the image processing device 120 to process the target image in a global processing manner.

겉보기 특징의 위치 속성이 국소 속성이면, 이미지 처리 디바이스(120)는 겉보기 특징의 위치 특징과 매칭하는 목표 구역을 인식하고, 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식한다. 목표 구역은 대상의 부위를 포함한다.If the positional attribute of the apparent feature is a local attribute, the image processing device 120 recognizes a target zone that matches the positional feature of the apparent feature, performs a feature analysis on the target zone, and recognizes a descriptive attribute of the apparent feature of the object. do. The target zone includes the site of the subject.

겉보기 특징의 위치 속성이 전역 속성이면, 이미지 처리 디바이스(120)는 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.If the location attribute of the apparent feature is a global attribute, the image processing device 120 performs feature analysis on the target image and recognizes the descriptive attribute of the apparent feature of the object in the target image.

이 실시예에서 제공된 이미지 촬영 장치(110)는 이미지 촬영, 사진촬영 등을 통해 이미지를 획득하는 기능을 갖는 데스크톱 컴퓨터, 서버, 모바일 컴퓨터, 모바일 사진촬영 디바이스, 핸드헬드 단말 디바이스, 웨어러블 사진촬영 디바이스 등이다.The image capturing apparatus 110 provided in this embodiment includes a desktop computer, a server, a mobile computer, a mobile photographing device, a handheld terminal device, a wearable photographing device, and the like, which have a function of acquiring an image through image capturing, photographing, and the like. to be.

이 실시예에서 제공된 이미지 처리 디바이스(120)는 데스크톱 컴퓨터, 서버, 모바일 컴퓨터, 핸드헬드 단말 디바이스 등이다.The image processing device 120 provided in this embodiment is a desktop computer, server, mobile computer, handheld terminal device, or the like.

도 2는 본 발명의 실시예에 따른 이미지 처리 디바이스(120)의 구조도이다. 도 2에 도시된 바와 같이, 이 실시예에서 제공된 이미지 처리 디바이스(120)는 컴퓨터이고, 프로세서(11), 메모리(12), 통신 버스(13), 및 인터페이스(14)를 포함한다. 프로세서(11)는 통신 버스(13)를 이용하여 메모리(12)와 통신한다.2 is a structural diagram of an image processing device 120 according to an embodiment of the present invention. As shown in FIG. 2, the image processing device 120 provided in this embodiment is a computer and includes a processor 11, a memory 12, a communication bus 13, and an interface 14. The processor 11 communicates with the memory 12 using the communication bus 13.

인터페이스(14)는 단말 디바이스와 통신하도록 구성된다. 단말 디바이스에 의해 전송되는 데이터(122) 및 정보는 인터페이스(14)를 이용하여 수신될 수 있다. 데이터(122)는 목표 이미지를 포함한다.The interface 14 is configured to communicate with the terminal device. Data 122 and information transmitted by the terminal device may be received using the interface 14. Data 122 includes a target image.

메모리(12)는 프로그램(121)을 저장하도록 구성된다. 프로그램(121)은 대상의 겉보기 특징의 기술 속성을 인식하기 위해 사용된다. 프로그램(121)은 이미지 처리 기능의 프로그램을 포함한다. 이미지 처리 기능은 이미지 처리 모델을 이용하여 확률 형식으로 표현되는 그리고 기술 속성을 인식하는 것의 결과를 출력하는 기능이다. 이미지 처리 모델은 이미지를 처리하기 위해 사용되는 수학 모델, 예를 들어, 컨볼루션 뉴럴 네트워크일 수 있다.The memory 12 is configured to store the program 121. Program 121 is used to recognize the descriptive attributes of the apparent features of the object. The program 121 includes a program of an image processing function. An image processing function is a function that outputs the result of recognizing a technical property and expressed in probability form using an image processing model. The image processing model may be a mathematical model used to process an image, for example a convolutional neural network.

메모리(12)는 인터페이스(14)를 이용하여 전송되는 데이터(122), 및 정보를 저장하도록 추가로 구성된다.The memory 12 is further configured to store data 122, and information transmitted using the interface 14.

메모리(12)는 휘발성 메모리, 비휘발성 메모리, 또는 이들의 조합을 포함한다. 휘발성 메모리는, 예를 들어, 랜덤 액세스 메모리(영문: random-access memory, RAM)이다. 비휘발성 메모리는 플로피 디스크, 하드 디스크, 솔리드 스테이트 디스크(solid state disk, SSD), 또는 광 디스크와 같은, 프로그램 코드를 저장할 수 있는 임의의 머신 판독가능 매체이다.The memory 12 includes volatile memory, nonvolatile memory, or a combination thereof. Volatile memory is, for example, random-access memory (RAM). Non-volatile memory is any machine readable medium that can store program code, such as a floppy disk, hard disk, solid state disk (SSD), or optical disk.

프로세서(11)는 프로그램(121)을 실행하여 겉보기 특징의 기술 속성을 인식하도록 구성된다. 프로세서(11)는 겉보기 특징의 위치 속성이 전역 속성인지 또는 국소 속성인지를 결정하도록 구성된다. 위치 속성이 국소 속성이면, 프로세서(11)는 겉보기 특징의 위치 특징과 매칭하는 목표 구역을 인식하고, 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다. 목표 구역은 겉보기 특징에 의해 지시되는 그리고 대상의 부위를 포함한다. 위치 속성이 전역 속성이면, 프로세서(11)는 인터페이스(14)를 이용하여 수신되는 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.The processor 11 is configured to execute the program 121 to recognize technical attributes of the apparent features. The processor 11 is configured to determine whether the position attribute of the apparent feature is a global attribute or a local attribute. If the location attribute is a local attribute, the processor 11 recognizes a target zone that matches the position feature of the apparent feature, performs a feature analysis on the target zone, and recognizes a descriptive attribute of the apparent feature of the object in the target image. The location feature is used to indicate the location of the site of the object in the predetermined object model and dictated by the apparent feature. The target area includes the area of the subject and indicated by the apparent feature. If the location attribute is a global attribute, the processor 11 performs feature analysis on the received target image using the interface 14 and recognizes the description attribute of the apparent feature of the object in the target image.

프로세서(11)는 이미지 처리 디바이스(120)의 주요 디바이스들 중 하나이다. 프로세서(11)의 주요 기능들은 컴퓨터 명령어를 설명하고 컴퓨터 소프트웨어에서의 데이터를 처리하는 것이다. 프로세서(11)는 중앙 처리 유닛(영문: central processing unit, CPU), 복합 프로그래머블 로직 디바이스(영문: Complex Programmable Logic Device, CPLD), 또는 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA)일 수 있다.The processor 11 is one of the major devices of the image processing device 120. The main functions of the processor 11 are to describe computer instructions and to process data in computer software. The processor 11 may be a central processing unit (CPU), a complex programmable logic device (CPLD), or a field-programmable gate array (FPGA). .

이하에서는 본 발명의 실시예들에서 개시된 겉보기 특징의 기술 속성을 인식하기 위한 방법을 구체적으로 설명한다. 겉보기 특징의 기술 속성을 인식하기 위한 방법은 도 1 및 도 2에 도시된 이미지 처리 디바이스(120)에 적용되고, 이미지 처리 디바이스(120)에서 프로세서(11)에 의해 수행된다. 도 3a는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법의 흐름도이다. 도 3a에 도시된 바와 같이, 이 실시예는 보행자 감시 분야에 적용되고, 대상의 겉보기 특징의 위치 속성이 국소 속성인 경우 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 이 방법은 구체적으로 다음의 단계들을 포함한다.Hereinafter, a method for recognizing the technical attributes of the apparent features disclosed in the embodiments of the present invention will be described in detail. The method for recognizing the technical attributes of the apparent features is applied to the image processing device 120 shown in FIGS. 1 and 2, and is performed by the processor 11 in the image processing device 120. 3A is a flow diagram of a method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the present invention. As shown in FIG. 3A, this embodiment is applied to the field of pedestrian monitoring, and mainly describes a method for recognizing a description attribute of an apparent feature of an object when the position attribute of the apparent feature of the object is a local attribute. This method specifically includes the following steps.

S310. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 세부사항들에 대해서는, 도 1에 도시된 전술한 내용을 참조한다: 윤곽 이미지를 획득한 후에, 이미지 처리 시스템 내의 이미지 처리 디바이스(120)는 윤곽 이미지 내의 대상을 포함하는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.S310. Acquire a target image-the target image includes the object. For details of obtaining the target image in this step, refer to the foregoing description shown in FIG. 1: After obtaining the contour image, the image processing device 120 in the image processing system includes the object in the contour image. Acquire a target image. Details are not described herein again.

S320. 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 겉보기 특징은 국소 속성을 갖고, 국소 속성은 이미지 처리 디바이스에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 부위의 위치를 지시하기 위해 사용된다.S320. Obtain the positional feature of the apparent feature of the target image. The apparent feature has a local attribute, which is used to instruct the image processing device to process the target image in a local processing manner. The location feature of the apparent feature is used to indicate the location of the site of the subject in the predetermined target model and dictated by the apparent feature.

겉보기 특징의 위치 특징을 획득하는 방식은 겉보기 특징의 위치 특징을 포함하는 정보를 수신하고, 겉보기 특징의 위치 특징을 획득하는 것인데, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다. 겉보기 특징의 위치 특징을 획득하는 다른 방식은 겉보기 특징과 위치 특징 간의, 이미지 처리 디바이스(120)에 사전저장된 대응관계를 조회하고, 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 위치 특징을 획득하는 것이다.The manner of obtaining the positional feature of the apparent feature is to receive information comprising the positional feature of the apparent feature and to obtain the positional feature of the apparent feature, the information being used to indicate the positional feature of the apparent feature. Another way of obtaining the positional feature of the apparent feature is to query the correspondence prestored in the image processing device 120 between the apparent feature and the positional feature, and to obtain the positional feature of the apparent feature based on the apparent feature and the correspondence. .

이 실시예에서 사전설정된 대상 모델은 사전설정된 인체 모델이다. 겉보기 특징의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 인체 모델에서의 인체의 부위의 위치를 지시하기 위해 사용된다. 사전설정된 인체 모델에서 인체의 부위의 위치는 다음의 2가지 방식으로 결정된다.In this embodiment, the preset target model is a preset human body model. Positional feature of the apparent feature is used to indicate the position of the site of the human body in the predetermined human model and dictated by the apparent feature. The position of the part of the human body in the preset human model is determined in two ways.

하나의 방식에서는, 사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 위치 비율이 결정된다. 위치 비율은 사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 투영 관계를 획득하여, 사전설정된 인체 모델에서의 인체의 부위의 위치를 결정, 즉 겉보기 특징의 위치 특징을 결정하는 것에 의해 결정될 수 있다.In one approach, the positional ratio between the contour of the site of the human body and the contour of the preset human body model in the preset human body model is determined. The position ratio obtains a projection relationship between the contour of the human body part in the preset human body model and the contour of the predetermined human body model, thereby determining the position of the human body part in the predetermined human body model, that is, determining the positional feature of the apparent feature. Can be determined.

다른 방식에서는, 인체의 부위를 포함하는 기하 구역 및 인체의 부위를 포함하는 기하 구역과 사전설정된 인체 모델을 포함하는 기하 구역 간의 위치 비율을 결정하여, 사전설정된 인체 모델에서의 인체의 부위의 위치를 결정, 즉 겉보기 특징의 위치 특징을 결정한다. 인체의 부위를 포함하는 기하 구역은 사전설정된 인체 모델에서의 인체의 부위의 최상부 포인트와 최하부 포인트 간의 높이 라인, 및 사전설정된 인체 모델에서의 인체의 부위의 최좌측 포인트와 최우측 포인트 간의 폭 라인에 의해 형성되는 제1 대칭 기하 구역이다. 사전설정된 인체 모델을 포함하는 기하 구역은 사전설정된 인체 모델의 최상부 포인트와 최하부 포인트 간의 높이 라인, 및 사전설정된 인체 모델의 최좌측 포인트와 최우측 포인트 간의 폭 라인에 의해 형성되는 제2 대칭 기하 구역이다. 이 구현에서, 위치 비율은 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율에 기초하여, 또는 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율에 기초하여 결정될 수 있다. 대안적으로, 위치 비율은 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율, 및 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율 둘 다에 기초하여 결정된다. 대안적으로, 위치 비율은 제1 대칭 기하 구역과 제2 대칭 기하 구역 간의 투영 관계에 기초하여 결정된다.In another manner, the ratio of positions between a geometric region comprising a portion of the human body and a geometric region comprising a portion of the human body and a geometric region comprising a predetermined human model is determined to determine the position of the portion of the human body in the predetermined human model. Determination, ie the positional feature of the apparent feature. The geometric region comprising the part of the human body is defined by the height line between the top and bottom points of the part of the human body in the preset human model, and the width line between the leftmost and rightmost point of the part of the human body in the predetermined human model. It is the first symmetric geometric region formed by. The geometric region containing the preset human body model is a second symmetrical geometric region formed by a height line between the top and bottom points of the preset human body model and a width line between the left and rightmost points of the preset human body model. . In this implementation, the location ratio is determined based on the ratio between the height of the first symmetric geometry zone and the height of the second symmetry geometry zone, or based on the ratio between the width of the first symmetry geometry zone and the width of the second symmetry geometry zone. Can be. Alternatively, the location ratio is determined based on both the ratio between the height of the first symmetric geometry zone and the height of the second symmetry geometry zone, and the ratio between the width of the first symmetry geometry zone and the width of the second symmetry geometry zone. . Alternatively, the position ratio is determined based on the projection relationship between the first symmetric geometry zone and the second symmetry geometry zone.

S330. 위치 특징에 기초하여 목표 구역을 인식한다 - 목표 구역은 대상의 부위를 포함한다.S330. Recognize the target zone based on the location feature-the target zone includes the site of the subject.

사전설정된 인체 모델에서의 인체의 부위의 윤곽과 사전설정된 인체 모델의 윤곽 간의 투영 관계에 기초하여 겉보기 특징의 위치 특징이 결정되면, 단계 S330에서, 이미지 처리 디바이스(120)는 투영 관계를 포함하는 윤곽을 크기 확대 또는 축소한다 - 투영 관계를 포함하는 크기 조정된 윤곽과 목표 이미지 내의 대상의 윤곽 간의 차이는 특정 오차 범위 내에 속한다 -; 그리고 그 후 이미지 처리 디바이스(120)는, 투영 관계에 기초하여, 인체의 부위를 포함하는 목표 구역을 인식한다.If the positional feature of the apparent feature is determined based on the projection relationship between the contour of the part of the human body in the preset human body model and the contour of the predetermined human body model, in step S330, the image processing device 120 includes the contour including the projection relationship. Scale up or down, wherein the difference between the scaled outline including the projection relationship and the outline of the object in the target image falls within a certain error range; The image processing device 120 then recognizes the target area that includes the region of the human body based on the projection relationship.

이하에서는 예를 이용하여 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율에 기초하여 위치 비율을 결정함으로써 목표 구역을 인식하기 위한 방법을 설명한다.The following describes a method for recognizing a target zone by determining a position ratio based on the ratio between the height of the first symmetric geometry zone and the height of the second symmetry geometry zone using an example.

예를 들어, 겉보기 특징은 머리카락이고, 겉보기 특징의 기술 속성은 짧은 머리카락 및 긴 머리카락을 포함한다. 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 상부 1/2 구역에서의 제1 대칭 기하 구역의 위치 비율을 결정함으로써 머리카락의 겉보기 특징의 위치 특징이 획득된다. 겉보기 특징의 위치 특징을 획득한 후에, 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 상부 1/2 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역 및 하부 구역의 2개의 부분 구역으로 분할된다; 그리고 목표 이미지의 상부 구역이 목표 구역으로서 선택된다. 도 3b는 본 발명의 실시예에 따른 목표 구역을 결정하는 개략도이다. 도 3b에 도시된 우측 이미지에서, 목표 이미지는 상부 구역 및 하부 구역의 2개의 부분 구역으로 분할되고, 목표 이미지의 상부 구역이 목표 구역으로서 선택된다.For example, the apparent feature is hair, and the technical attributes of the apparent feature include short hair and long hair. The locational feature of the apparent feature of the hair is obtained by determining the proportion of the location of the first symmetrical geometrical zone in the upper half zone of the second symmetrical geometrical zone comprising the preset human body model. After acquiring the positional feature of the apparent feature, the target image is obtained from the upper and lower zones based on the ratio of the position of the first symmetric geometric zone in the upper half zone of the second symmetric geometric zone containing the preset human body model. Divided into two partial zones; And the upper region of the target image is selected as the target region. 3B is a schematic diagram of determining a target zone according to an embodiment of the present invention. In the right image shown in FIG. 3B, the target image is divided into two partial zones of the upper zone and the lower zone, and the upper zone of the target image is selected as the target zone.

제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여 지시될 수 있다. 예를 들어, 상부 1/2 구역의 위치 비율은 [0, 0] 및 [w, h/2]의 2개 좌표 쌍을 이용하여 지시된다. 이미지 처리 디바이스(120)는 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합에 기초하여, 목표 구역의 위치가 좌측 상부 모서리의 좌표 및 우측 하부 모서리의 좌표에 의해 형성된 목표 이미지의 상부 1/2 구역이라고 결정한다. 높이 비율에 기초하여 결정되는 위치 비율에 기초하여 위치 특징이 획득되면, 목표 구역의 폭은 디폴트로 목표 이미지의 폭 w일 수 있고, h는 목표 이미지의 수직 높이를 지시한다.The position ratio of the first symmetric geometry zone in the second symmetry geometry zone may be indicated using a combination of the coordinates of the upper left corner and the coordinates of the lower right corner. For example, the position ratio of the upper half zone is indicated using two coordinate pairs [0, 0] and [w, h / 2]. The image processing device 120 is based on the combination of the coordinates of the upper left corner and the coordinates of the lower right corner, so that the position of the target zone is the upper half of the target image formed by the coordinates of the upper left corner and the coordinates of the lower right corner. Decide on a zone. If the location feature is obtained based on the location ratio determined based on the height ratio, the width of the target zone may be the width w of the target image by default, and h indicates the vertical height of the target image.

위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여, 또는 다른 방식으로 지시될 수 있다. 예를 들어, 목표 구역의 위치는 위치 알고리즘을 이용하여 "상부 1/2" 또는 "목과 머리 부위"와 같은 획득된 형식 파라미터에 기초한 계산을 통해 결정되거나, 형식 파라미터와 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합 간의 사전저장된 대응관계를 조회하고 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 획득함으로써 결정된다.The position ratio can be indicated using a combination of the coordinates of the upper left corner and the coordinates of the lower right corner, or in other ways. For example, the location of the target zone is determined through a calculation based on acquired formal parameters such as "upper half" or "neck and head area" using a location algorithm, or the coordinates of the formal parameters and the upper left corner and the right It is determined by querying the pre-stored correspondence between the combinations of the coordinates of the lower edge and obtaining the combination of the coordinates of the upper left corner and the coordinates of the lower right corner.

다른 예로서, 겉보기 특징은 가방이고, 겉보기 특징의 기술 속성은 백팩, 메신저 가방, 및 어깨 가방을 포함한다. 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 중간 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율을 결정함으로써 가방의 겉보기 특징의 위치 특징이 획득된다. 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 중간 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 중간 구역이 목표 구역으로서 선택된다. 예를 들어, 중간 1/3 구역의 위치 비율은 좌측 상부 모서리의 좌표와 우측 하부 모서리의 좌표의 조합을 이용하여, 즉 [0, h/3] 및 [w, 2h/3]의 2개의 좌표 쌍을 이용하여 결정될 수 있다. 도 3b에 도시된 좌측 이미지에서, 목표 이미지는 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 중간 구역이 목표 구역으로서 선택된다.As another example, the apparent feature is a bag, and the technical attributes of the apparent feature include a backpack, a messenger bag, and a shoulder bag. The positional feature of the apparent feature of the bag is obtained by determining a positional ratio of the first symmetrical geometrical zone in the middle third zone of the second symmetrical geometrical zone comprising the preset human body model. The target image is divided into three partial zones of the upper zone, the middle zone, and the lower zone based on the ratio of the position of the first symmetric geometry zone in the middle third zone of the second symmetric geometry zone containing the preset human body model. And the middle zone of the target image is selected as the target zone. For example, the position ratio of the middle third section is determined using a combination of the coordinates of the upper left corner and the coordinates of the lower right corner, that is, two coordinates of [0, h / 3] and [w, 2h / 3]. Can be determined using a pair. In the left image shown in FIG. 3B, the target image is divided into three partial zones of the upper zone, the middle zone, and the lower zone, and the middle zone of the target image is selected as the target zone.

또 다른 예로서, 겉보기 특징은 하체 부위 상의 의복이고, 겉보기 특징의 기술 속성은 바지, 반바지, 짧은 치마, 긴 치마, 퀼로트 등을 포함한다. 하체 부위 상의 의복의 겉보기 특징의 위치 특징은 제1 대칭 기하 구역이 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 하부 1/3 구역에 있다고 결정함으로써 획득된다. 목표 이미지는 사전설정된 인체 모델을 포함하는 제2 대칭 기하 구역의 하부 1/3 구역에서의 제1 대칭 기하 구역의 위치 비율에 기초하여 상부 구역, 중간 구역, 및 하부 구역의 3개의 부분 구역으로 분할되고, 목표 이미지의 하부 구역이 목표 구역으로서 선택된다.As another example, the apparent feature is a garment on the lower body region, and the technical attributes of the apparent feature include pants, shorts, short skirts, long skirts, culottes and the like. The positional feature of the apparent feature of the garment on the lower body site is obtained by determining that the first symmetrical geometric zone is in the lower third zone of the second symmetric geometric zone including the preset human model. The target image is divided into three partial zones of the upper zone, the middle zone, and the lower zone based on the ratio of the position of the first symmetric geometric zone in the lower third zone of the second symmetric geometric zone containing the preset human body model. And the lower zone of the target image is selected as the target zone.

다른 구현에서, 제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 복수의 좌표 쌍의 조합을 이용하여 결정될 수 있다.In another implementation, the position ratio of the first symmetric geometric zone in the second symmetric geometric zone can be determined using a combination of a plurality of coordinate pairs.

위치 비율이 제1 대칭 기하 구역의 높이와 제2 대칭 기하 구역의 높이 간의 비율, 및 제1 대칭 기하 구역의 폭과 제2 대칭 기하 구역의 폭 간의 비율 둘 다에 기초하여 결정되는 경우, 좌측 상부 모서리의 좌표, 좌측 하부 모서리의 좌표, 우측 상부 모서리의 좌표, 및 우측 하부 모서리의 좌표에 기초하여 위치 비율을 결정하여, 목표 구역의 위치를 결정할 수 있다. 예를 들어, 좌표 조합은 좌측 상부 모서리의 좌표 [w/4, h/3], 좌측 하부 모서리의 좌표 [w/3, 2h/3], 우측 상부 모서리의 좌표 [3w/4, h/3], 및 우측 하부 모서리의 좌표 [2w/3, 2h/3]를 포함한다. 좌표 조합을 이용하여 결정된 목표 구역은 목표 이미지의 중간 부분에서의 역사다리꼴 구역이다. 다른 구현에서, 제2 대칭 기하 구역에서의 제1 대칭 기하 구역의 위치 비율은 좌측 상부 모서리의 좌표, 좌측 하부 모서리의 좌표, 우측 상부 모서리의 좌표, 및 우측 하부 모서리의 좌표 중 적어도 2개의 좌표 쌍의 조합을 이용하여 결정될 수 있다.If the location ratio is determined based on both the ratio between the height of the first symmetric geometry zone and the height of the second symmetry geometry zone, and the ratio between the width of the first symmetry geometry zone and the width of the second symmetry geometry zone, The position ratio may be determined based on the coordinates of the corners, the coordinates of the lower left corner, the coordinates of the upper right corner, and the coordinates of the lower right corner to determine the location of the target zone. For example, the combination of coordinates is the coordinate of the upper left corner [w / 4, h / 3], the coordinate of the lower left corner [w / 3, 2h / 3], the coordinate of the upper right corner [3w / 4, h / 3] ], And the coordinates [2w / 3, 2h / 3] of the lower right corner. The target zone determined using the coordinate combination is the trapezoidal zone in the middle of the target image. In another implementation, the position ratio of the first symmetric geometry zone in the second symmetry geometry zone is at least two coordinate pairs of the coordinates of the upper left corner, the coordinates of the lower left corner, the coordinates of the upper right corner, and the coordinates of the lower right corner. Can be determined using a combination of

S340. 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.S340. A feature analysis is performed on the target zone and the technical attributes of the apparent features of the object in the target image are recognized.

이미지 처리 기술을 이용하여 목표 구역에 대해 특징 분석을 수행하여, 확률 형식으로 표현되는 그리고 기술 속성의 인식 결과를 획득한다. 예를 들어, 겉보기 특징이 머리카락일 때, 머리카락 길이들의 적어도 2개의 기술 속성: 긴 머리카락의 기술 속성 및 짧은 머리카락의 기술 속성이 존재한다. 이 경우, 확률 형식으로 표현되는 그리고 기술 속성들의 획득된 인식 결과는 2개의 확률(즉, 짧은 머리카락의 기술 속성에 대한 0.9, 및 긴 머리카락의 기술 속성에 대한 0.1)의 조합이다. 그 후, 종합적 결정 규칙에 따라 종합적 결정 규칙에 따르는 확률에 대응하는 기술 속성이 인식되고, 이 기술 속성은 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용된다. 종합적 결정 규칙은: 비교 또는 조회 후에, 목표 데이터에 가까운 기술 속성을 선택하는 것일 수 있다. 예를 들어, 목표 데이터의 값은 1이고, 이는 대상의 겉보기 특징의 기술 속성이 짧은 머리카락이라는 것을 지시한다. 이 경우, 최고 확률 0.9에 대응하는 짧은 머리카락의 기술 속성에 대한 0.9가 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다.Feature analysis is performed on the target area using image processing techniques to obtain the recognition results of the description attributes and expressed in probability form. For example, when the apparent feature is hair, there are at least two technical properties of hair lengths: technical properties of long hair and technical properties of short hair. In this case, the obtained recognition result of the descriptive attributes and expressed in probability form is a combination of two probabilities (ie 0.9 for the descriptive attribute of the short hair and 0.1 for the descriptive attribute of the long hair). Thereafter, a description attribute corresponding to the probability according to the overall decision rule is recognized according to the comprehensive decision rule, and this description attribute is used as the description attribute of the apparent feature of the object in the target image. The comprehensive decision rule may be: selecting a technical attribute close to the target data after comparison or inquiry. For example, the value of the target data is 1, which indicates that the descriptive attribute of the subject's apparent feature is short hair. In this case, 0.9 for the descriptive attribute of the short hair corresponding to the highest probability 0.9 is selected as the descriptive attribute of the apparent feature of the object in the target image.

도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 획득하기 위한 방법은 단말 디바이스에 의해 전송되는 그리고 겉보기 특징의 위치 속성을 포함하는 정보를 수신하여, 겉보기 특징의 위치 속성을 획득하는 것이다. 예를 들어, 겉보기 특징이 머리카락이고, 머리카락의 기술 속성이 긴 머리카락 및 짧은 머리카락을 포함할 때, 머리카락의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 머리카락의 위치 속성이 국소 속성으로서 결정된다. 다른 예로서, 겉보기 특징이 가방의 유형이고, 가방의 유형의 기술 속성이 백팩 또는 핸드백을 포함하는 경우, 가방의 유형의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 가방의 유형의 위치 속성이 국소 속성으로서 결정된다. 또 다른 예로서, 겉보기 특징이 하체 부위 상의 의복이고, 하체 부위 상의 의복의 기술 속성이 바지 또는 긴 치마를 포함할 때, 하체 부위 상의 의복의 겉보기 특징의 위치 속성이 국소 속성이라는 것을 지시하기 위해 사용자에 의해 전송된 정보가 수신되고, 하체 부위 상의 의복의 위치 속성이 국소 속성으로서 결정된다.Based on the embodiment shown in FIG. 3A, before step S320, the image processing device 120 obtains a position attribute of the apparent feature of the object, the position attribute being used to indicate that the apparent feature has a local attribute. . A method for obtaining a location attribute of an apparent feature is to receive information sent by the terminal device and including the location attribute of the apparent feature, to obtain the location attribute of the apparent feature. For example, when the apparent feature is hair and the technical property of the hair includes long hair and short hair, information sent by the user is received to indicate that the location property of the apparent feature of hair is a local property, The positional properties of the hair are determined as local properties. As another example, if the apparent feature is a type of bag and the technical attribute of the type of bag includes a backpack or handbag, the information sent by the user to indicate that the location attribute of the apparent feature of the type of bag is a local attribute Is received and the location attribute of the type of bag is determined as a local attribute. As another example, when the apparent feature is a garment on the lower body region, and the technical attribute of the garment on the lower body region includes pants or a long skirt, the user is directed to indicate that the positional attribute of the apparent feature of the garment on the lower body region is a local attribute. The information sent by is received and the positional attribute of the garment on the lower body region is determined as a local attribute.

도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.Based on the embodiment shown in FIG. 3A, before step S320, the image processing device 120 obtains a position attribute of the apparent feature of the object from a prestored correspondence between the apparent feature and the position attribute, the position attribute being the apparent feature. It is used to indicate that it has local properties.

도 3a에 도시된 실시예에 기초하여, 단계 S320 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 하나의 방식에서, 이미지 처리 디바이스(120)는, 인터페이스(14)를 이용하여, 텍스트를 이용하여 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 다른 방식에서, 이미지 처리 디바이스(120)는 시각 인터페이스 상에서의 선택을 통해 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 또 다른 방식에서, 이미지 처리 디바이스(120)는 단말 디바이스에 의해 전송되는 그리고 겉보기 특징 및 겉보기 특징의 기술 속성을 포함하는 정보를 수신하여, 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다.Based on the embodiment shown in FIG. 3A, before step S320, the image processing device 120 obtains the apparent features of the object and the descriptive attributes of the apparent features. In one manner, the image processing device 120 receives the descriptive attributes of the apparent features and apparent features that are input by the user using the text, using the interface 14. In another manner, image processing device 120 receives an apparent feature and a description attribute of the apparent feature that is input by a user through selection on a visual interface. In another manner, the image processing device 120 receives information sent by the terminal device and including the descriptive attributes of the apparent and apparent features, to obtain the descriptive attributes of the apparent and apparent features of the object.

도 3a에 도시된 실시예에 기초하여, 단계 S330이 수행된 후에, 이미지 처리 디바이스(120)는, 목표 구역을 중심으로서 이용하여, 목표 구역을 임의의 방향으로, 복수의 상이한 지정 방향으로, 또는 복수의 지정 방향 중에서 선택된 복수의 랜덤 방향으로 이동시켜, 복수의 오프셋 구역을 획득한다. 도 3c는 본 발명의 실시예에 따른 목표 구역의 이동 후에 획득되는 개략도이다. 도 3c에 도시된 바와 같이, 실선 박스에 의해 형성된 목표 구역을 좌측 및 우측으로 이동시켜, 2개의 오프셋 구역(도면에서 좌측 파선 박스에 의해 형성된 오프셋 구역 및 우측 점선 박스에 의해 형성된 오프셋 구역)을 개별적으로 획득한다. 좌측 이동 후에 획득된 좌측 점선 박스에 의해 형성된 오프셋 구역은 전체 머리 부위를 포함하고, 우측 이동 후에 획득된 오프셋 구역 및 목표 구역은 각각 머리 부위의 부분만을 포함한다. 따라서, 목표 구역이 이동한 후에, 더 정확한 인식 구역이 획득될 수 있다. 그 후, 도 3c에 도시된 바와 같이, 이미지 처리 디바이스(120)는 이미지 처리 기술을 이용하여 오프셋 구역들에 대해 특징 분석을 수행하고, 겉보기 특징의 다른 기술 속성을 획득하고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.Based on the embodiment shown in FIG. 3A, after step S330 is performed, the image processing device 120 uses the target zone as a center, in any direction, in a plurality of different designated directions, or A plurality of offset zones are obtained by moving in a plurality of random directions selected from among a plurality of designated directions. 3C is a schematic diagram obtained after the movement of the target zone according to an embodiment of the present invention. As shown in FIG. 3C, the target zone formed by the solid line box is moved to the left and right, so that the two offset zones (the offset zone formed by the left dashed line box and the right dotted line box) in the drawing are separated. Obtained by. The offset zone formed by the left dashed box obtained after the left shift includes the entire head portion, and the offset zone and the target region obtained after the right shift respectively include only the portion of the head portion. Thus, after the target zone has moved, a more accurate recognition zone can be obtained. Then, as shown in FIG. 3C, the image processing device 120 performs a feature analysis on the offset regions using the image processing technique, obtains another technical attribute of the apparent feature, and according to a predetermined algorithm. A target description attribute is determined among the description attribute and the other description attributes, the target description attribute being the description attribute closest to the target data, among the description attributes and the other description attributes.

기술 속성 및 다른 기술 속성이 확률 형식으로 표현되는 경우, 목표 데이터의 값은 1일 수 있고, 사전설정된 알고리즘은 최고 확률을 이용하여 표현된 목표 기술 속성을 인식하고, 목표 기술 속성을 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용하는 것이다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다. 다른 예로서, 목표 구역 및 각각의 오프셋 구역과 매칭하는 동일한 기술 속성의 확률들에 대해 합계 연산을 수행함으로써 확률들의 합이 획득되고; 확률들의 합에 대해 평균화 처리 또는 서포트 벡터 머신 처리가 수행되고; 최고 확률을 이용하여 표현된 목표 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다. 다른 구현에서, 목표 데이터는 표준 이미지의 표준 파라미터일 수 있고, 상이한 방식들로 표준 이미지에 대해 특징 분석이 수행된 후에 획득되는 표준 파라미터일 수 있다.If the technical attributes and other technical attributes are expressed in probability form, the value of the target data may be 1, and the preset algorithm recognizes the target technical attributes expressed using the highest probability, and sets the target technical attributes to the target in the target image. It is used as a descriptive attribute of the apparent feature of. For example, after comparison or lookup, the description attribute expressed using the highest probability may be selected as the description attribute of the apparent feature of the object in the target image. As another example, the sum of the probabilities is obtained by performing a sum operation on the probabilities of the same technical attribute matching the target zone and each offset zone; An averaging process or a support vector machine process is performed on the sum of the probabilities; The target description attribute expressed using the highest probability is selected as the description attribute of the apparent feature of the object in the target image. In another implementation, the target data may be standard parameters of the standard image, and may be standard parameters obtained after feature analysis is performed on the standard image in different ways.

오프셋 구역을 획득하는 전술한 구현에서, 목표 구역을 목표 구역에 기초하여 이동시켜 하나 이상의 오프셋 구역을 획득하는 특정 구현은 목표 구역을 복수의 블록으로 분할하는 것인데, 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적이다. 예를 들어, 블록의 형상은 수평 바, 수직 바, 수직 그리드, 또는 수평 그리드일 수 있다. 도 3d는 본 발명의 실시예에 따른 블록 분할 다이어그램들의 개략도이다. 도 3d에 도시된 바와 같이, 각각의 이미지에서 두꺼운 라인들에 의해 형성된 구역이 목표 구역이다. 본 발명의 이 실시예에서 제공된 블록 분할 다이어그램은 도 3d의 좌측에 도시된 수직 바 형상 블록 분할 다이어그램일 수 있거나, 도 3d의 중간에 도시된 수평 바 형상 블록 분할 다이어그램일 수 있거나, 또는 도 3d의 우측에 도시된 수직 또는 수평 그리드 형상 블록 분할 다이어그램일 수 있다. 블록의 형상은 본 발명의 이 실시예에서 제한되지 않는다. 그 후, 도 3d에 도시된 3개의 이미지에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 하나 이상의 오프셋 구역을 획득하는데, 각각의 오프셋 구역의 크기는 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.In the foregoing implementation of obtaining an offset zone, a particular implementation of moving the target zone based on the target zone to obtain one or more offset zones is to divide the target zone into a plurality of blocks, wherein the plurality of blocks are the same shape, The blocks of are consecutive. For example, the shape of the block may be a horizontal bar, a vertical bar, a vertical grid, or a horizontal grid. 3D is a schematic diagram of block division diagrams according to an embodiment of the present invention. As shown in FIG. 3D, the region formed by the thick lines in each image is the target region. The block dividing diagram provided in this embodiment of the present invention may be a vertical bar shaped block dividing diagram shown on the left side of FIG. 3d, or may be a horizontal bar shaped block dividing diagram shown in the middle of FIG. 3d, or of FIG. 3d. It may be a vertical or horizontal grid-shaped block division diagram shown on the right. The shape of the block is not limited in this embodiment of the present invention. Then, in the three images shown in FIG. 3D, one or more offset units are moved by moving the target zone in one or more directions using the target zone as a center and one block as an offset unit, thereby making it possible to determine one or more offset zones. In obtaining, the size of each offset zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.

복수의 오프셋 구역이 획득된 후에, 오프셋 구역 또는 목표 구역을 하나 이상의 상이한 사전설정된 크기에 따라 주위로 확장하여, 오프셋 구역 또는 목표 구역을 포함하는 후보 구역을 획득한다. 후보 구역의 크기는 오프셋 구역의 크기보다 더 크다. 후보 구역이 획득된 후에, 이미지 처리 기술을 이용하여 후보 구역에 대해 특징 분석이 수행되고, 겉보기 특징의 다른 기술 속성이 획득되고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성이 결정되는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 다른 기술 속성은 후보 구역에 대해 특징 분석이 수행된 후에 획득되는 그리고 후보 구역과 매칭하는, 겉보기 특징의 기술 속성을 포함하거나, 또한 오프셋 구역에 대해 특징 분석이 수행된 후에 획득되는 그리고 오프셋 구역과 매칭하는, 겉보기 특징의 기술 속성을 추가로 포함한다.After the plurality of offset zones are obtained, the offset zone or target zone is expanded around according to one or more different predetermined sizes to obtain candidate zones including the offset zone or target zone. The size of the candidate zone is larger than the size of the offset zone. After the candidate zones are obtained, feature analysis is performed on the candidate zones using image processing techniques, other technical attributes of the apparent features are obtained, and the target technical attributes are determined among the technical attributes and other technical attributes according to a predetermined algorithm. The target description attribute is the description attribute closest to the target data, among the description attributes and other description attributes. Other descriptive attributes include descriptive attributes of the apparent feature that are obtained after the feature analysis has been performed on the candidate zone and matching the candidate zone, or also obtained after the feature analysis has been performed on the offset zone and matching with the offset zone. It further includes a description attribute of the apparent feature.

기술 속성 및 다른 기술 속성이 확률 형식으로 표현되는 경우, 목표 데이터의 값은 1일 수 있고, 사전설정된 알고리즘은 최고 확률을 이용하여 표현된 목표 기술 속성을 인식하고, 목표 기술 속성을 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용하는 것이다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다. 예를 들어, 머리카락의 겉보기 특징의 기술 속성은 짧은 머리카락 및 긴 머리카락을 포함하고, 목표 구역, 오프셋 구역, 및 후보 구역에 대해 특징 분석이 수행된다. 이 경우, 목표 데이터의 값이 1인 것이 짧은 머리카락의 기술 속성의 표준으로서 사용되고, 하나의 목표 구역, 하나의 오프셋 구역, 및 2개의 후보 구역에 대해 특징 분석이 개별적으로 수행된다. 목표 구역, 오프셋 구역, 및 후보 구역들에 대응하는 기술 속성의 획득된 확률들은 각각: [짧은 머리카락의 기술 속성: 0.7, 긴 머리카락의 기술 속성: 0.3], [짧은 머리카락의 기술 속성: 0.95, 긴 머리카락의 기술 속성: 0.05], [짧은 머리카락의 기술 속성: 0.6, 긴 머리카락의 기술 속성: 0.4], 및 [짧은 머리카락: 0.45의 기술 속성, 긴 머리카락의 기술 속성: 0.55]이다. 선택 결과는 max 연산을 통한 제1 기술 속성 0.95이다. 다시 말해서, 머리카락의 기술 속성은 짧은 머리카락의 기술 속성으로서 인식된다. 다른 예로서, 목표 구역, 각각의 오프셋 구역, 및 각각의 후보 구역과 매칭하는 동일한 기술 속성의 확률들에 대해 합계 연산을 수행함으로써 확률들의 합이 획득되고; 확률들의 합에 대해 평균화 처리 또는 서포트 벡터 머신 처리가 수행되고; 최고 확률을 이용하여 표현된 목표 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택된다. 다른 구현에서, 목표 데이터는 표준 이미지의 표준 파라미터일 수 있고, 상이한 방식들로 표준 이미지에 대해 특징 분석이 수행된 후에 획득되는 표준 파라미터일 수 있다.If the technical attributes and other technical attributes are expressed in probability form, the value of the target data may be 1, and the preset algorithm recognizes the target technical attributes expressed using the highest probability, and sets the target technical attributes to the target in the target image. It is used as a descriptive attribute of the apparent feature of. For example, after comparison or lookup, the description attribute expressed using the highest probability may be selected as the description attribute of the apparent feature of the object in the target image. For example, the technical attributes of the apparent characteristics of the hair include short hair and long hair, and feature analysis is performed on the target area, the offset area, and the candidate area. In this case, the value of the target data having a value of 1 is used as a standard for the technical attribute of the short hair, and the characteristic analysis is performed separately for one target zone, one offset zone, and two candidate zones. The obtained probabilities of the technical properties corresponding to the target area, the offset area, and the candidate areas are respectively: [technical property of short hair: 0.7, technical property of long hair: 0.3], [technical property of short hair: 0.95, long] Technical properties of hair: 0.05], [technical properties of short hair: 0.6, technical properties of long hair: 0.4], and [technical properties of short hair: 0.45, technical properties of long hair: 0.55]. The selection result is the first technical attribute 0.95 through the max operation. In other words, the technical property of the hair is recognized as the technical property of the short hair. As another example, the sum of the probabilities is obtained by performing a sum operation on the probabilities of the same descriptive attribute that matches the target zone, each offset zone, and each candidate zone; An averaging process or a support vector machine process is performed on the sum of the probabilities; The target description attribute expressed using the highest probability is selected as the description attribute of the apparent feature of the object in the target image. In another implementation, the target data may be standard parameters of the standard image, and may be standard parameters obtained after feature analysis is performed on the standard image in different ways.

다른 실시예에서, 복수의 오프셋 구역 또는 복수의 후보 구역이 획득된 후에, 목표 구역에서의 인체의 부위, 각각의 오프셋 구역에서의 인체의 부위, 및 각각의 후보 구역에서의 인체의 부위에 대해 윤곽 인식이 개별적으로 수행될 수 있다. 사전설정된 인체 모델의 인체의 부위와 동일한 윤곽 형상을 갖는 목표 구역, 오프셋 구역, 또는 후보 구역이 인식될 때, 목표 구역, 오프셋 구역, 또는 후보 구역이 보류되고, 사전설정된 인체 모델의 인체의 부위와 동일한 윤곽 형상을 갖는 목표 구역, 오프셋 구역, 또는 후보 구역에 대해 특징 분석을 개별적으로 수행하여, 보류된 목표 구역과 매칭하는 기술 속성, 각각의 보류된 오프셋 구역과 매칭하는 다른 기술 속성, 및 각각의 보류된 후보 구역과 매칭하는 다른 기술 속성을 획득한다. 목표 구역과 매칭하는 전술한 기술 속성 및 후보 구역 및 오프셋 구역과 매칭하는 복수의 다른 기술 속성을 획득한 후에, 이미지 처리 디바이스(120)는 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성들 중에 목표 기술 속성을 결정하는데, 목표 기술 속성은 기술 속성 및 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 사전설정된 알고리즘에 대해서는, 도 3a에 기초하여 설명된 세부사항들을 참조한다: 오프셋 구역 및 후보 구역에 대해 특징 분석이 수행된 후에, 겉보기 특징의 다른 기술 속성이 획득되고, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성이 결정된다. 세부사항들은 여기서 다시 설명되지 않는다.In another embodiment, after a plurality of offset zones or a plurality of candidate zones are obtained, contours to the site of the human body in the target zone, the site of the human body in each offset zone, and the site of the human body in each candidate zone Recognition can be performed separately. When a target zone, an offset zone, or a candidate zone having the same contour shape as that of the body of the preset human body model is recognized, the target zone, the offset zone, or the candidate zone is reserved, and the portion of the human body of the preset human body model and the like. Characterization is individually performed on target zones, offset zones, or candidate zones having the same contour shape, so that the technical attributes matching the reserved target zones, the other technical attributes matching each reserved offset zone, and each Obtain other descriptive attributes that match the reserved candidate zones. After obtaining the above-described technical attribute matching the target zone and a plurality of other technical attributes matching the candidate zone and the offset zone, the image processing device 120 performs the target description among the technical attribute and other technical attributes according to a predetermined algorithm. In determining the attribute, the target description attribute is the description attribute closest to the target data, among the description attributes and other description attributes. For a preset algorithm, refer to the details described based on FIG. 3A: After feature analysis is performed on the offset zone and the candidate zone, another descriptive attribute of the apparent feature is obtained, and the descriptive attribute according to the preset algorithm. And a target description attribute, among other description attributes. Details are not described herein again.

복수의 오프셋 구역이 획득된 후에, 인체의 부위의 특징 분석 또는 윤곽 인식을 위해 미리 결정된 순서에 따라 또는 랜덤하게 사전설정된 수량의 오프셋 구역들이 선택될 수 있다. 복수의 후보 구역 구역이 획득된 후에, 인체의 부위의 특징 분석 또는 윤곽 인식을 위해 미리 결정된 순서에 따라 또는 랜덤하게 사전설정된 수량의 후보 구역들이 또한 선택될 수 있다. 선택된 후보 구역의 사전설정된 수량은 오프셋 구역의 사전설정된 수량과 동일하거나 상이할 수 있다. 예를 들어, 사용자 요구에 따라 목표 구역에 대해서만 특징 분석이 수행될 수 있다; 또는 사용자의 선택에 기초하여 목표 구역 및 사전설정된 수량의 오프셋 구역들에 대해서만 특징 분석 또는 윤곽 인식이 수행될 수 있다; 또는 사용자의 선택에 기초하여 목표 구역 및 사전설정된 수량의 후보 구역들에 대해서만 특징 분석 또는 윤곽 인식이 수행될 수 있다; 또는 목표 구역, 사전설정된 수량의 오프셋 구역들, 및 사전설정된 수량의 후보 구역들에 대해 특징 분석이 수행될 수 있다. 오프셋 구역이 목표 이미지의 가장자리를 향해 주위로 확장될 때, 획득된 후보 구역은 목표 이미지이다. 다시 말해서, 오프셋 구역이 목표 구역과 동일한 폭 및 동일한 높이를 갖는 것으로 인식될 때, 획득된 후보 구역은 목표 이미지이다.After the plurality of offset zones are obtained, a predetermined amount of offset zones may be selected in a predetermined order or randomly for feature analysis or contour recognition of the site of the human body. After a plurality of candidate zone zones have been obtained, candidate zones of a predetermined quantity may also be selected in a predetermined order or randomly for feature analysis or contour recognition of the site of the human body. The preset quantity of the selected candidate zone may be the same as or different from the preset quantity of the offset zone. For example, feature analysis may be performed only on the target area according to user requirements; Or feature analysis or contour recognition may be performed only on the target zone and a predetermined quantity of offset zones based on the user's selection; Or feature analysis or contour recognition may be performed only on the target zone and a predetermined quantity of candidate zones based on the user's selection; Or feature analysis may be performed on the target zone, the predetermined quantity of offset regions, and the predetermined quantity of candidate regions. When the offset zone extends around towards the edge of the target image, the acquired candidate zone is the target image. In other words, when it is recognized that the offset zone has the same width and the same height as the target zone, the obtained candidate zone is the target image.

이하에서는 본 발명의 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법을 설명한다. 도 4는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다. 이 실시예는 보행자 감시 분야에 적용되고, 대상의 겉보기 특징의 위치 속성이 전역 속성인 경우 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 도 4에 도시된 바와 같이, 이 방법은 구체적으로 다음의 단계들을 포함한다.The following describes another method for recognizing the technical attributes of the apparent features provided in the embodiments of the present invention. 4 is a flowchart of another method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the invention. This embodiment applies to the field of pedestrian monitoring, and mainly describes a method for recognizing a description attribute of an apparent feature of an object when the position attribute of the apparent feature of the object is a global attribute. As shown in FIG. 4, the method specifically includes the following steps.

S410. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 특정 구현에 대해서는, 도 3a에 도시된 실시예에서의 단계 S310의 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.S410. Acquire a target image-the target image includes the object. For the specific implementation of obtaining the target image in this step, refer to the details of step S310 in the embodiment shown in FIG. 3A. Details are not described herein again.

S420. 목표 이미지에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 겉보기 특징은 전역 속성을 갖고, 전역 속성은 이미지 처리 디바이스에게 목표 이미지를 전역 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이미지 처리 기술을 이용하여 목표 이미지에 대해 특징 분석을 수행하여, 확률 형식으로 표현되는 그리고 기술 속성의 인식 결과를 획득한다. 종합적 결정 규칙에 따라 종합적 결정 규칙에 따르는 확률에 대응하는 기술 속성이 인식되고, 이 기술 속성은 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 사용된다. 예를 들어, 비교 또는 조회 후에, 최고 확률을 이용하여 표현된 기술 속성이 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서 선택될 수 있다.S420. Feature analysis is performed on the target image, and the technical attributes of the apparent features of the object in the target image are recognized. The apparent feature has a global attribute, which is used to instruct the image processing device to process the target image in a global manner. Feature analysis is performed on the target image using an image processing technique to obtain the recognition result of the description attribute and expressed in probability form. According to the comprehensive decision rule, a description attribute corresponding to a probability according to the comprehensive decision rule is recognized, and this description attribute is used as the description attribute of the apparent feature of the object in the target image. For example, after comparison or lookup, the description attribute expressed using the highest probability may be selected as the description attribute of the apparent feature of the object in the target image.

겉보기 특징의 위치 속성이 전역 속성일 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 획득하기 위한 방법은 단말 디바이스에 의해 전송되는 그리고 겉보기 특징의 위치 속성을 포함하는 정보를 수신하여, 겉보기 특징의 위치 속성을 획득하는 것이다.Based on the above-described method for recognizing the descriptive attribute of the apparent characteristic when the positional attribute of the apparent characteristic is a global attribute, before step S420, the method further includes: The image processing device 120 further comprises the apparent characteristic of the object. Obtain a position attribute of, where the position attribute is used to indicate that the apparent feature has a global attribute. A method for obtaining a location attribute of an apparent feature is to receive information sent by the terminal device and including the location attribute of the apparent feature, to obtain the location attribute of the apparent feature.

겉보기 특징의 위치 속성이 전역 속성일 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.Based on the above-described method for recognizing the descriptive attribute of the apparent characteristic when the positional attribute of the apparent characteristic is a global attribute, before step S420, the method further includes: The image processing device 120 further includes: From the pre-stored correspondence between the positional attributes, obtain a positional attribute of the apparent feature of the object, the positional attribute being used to indicate that the apparent feature has a global attribute.

또한, 대상의 겉보기 특징의 위치 속성을 획득하기 전에, 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 방식은 다음과 같다: 이미지 처리 디바이스(120)는, 인터페이스(14)를 이용하여, 텍스트를 이용하여 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 시각 인터페이스 상에서 선택을 통해 사용자에 의해 입력되는 겉보기 특징 및 겉보기 특징의 기술 속성을 수신한다. 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하기 위한 다른 방식은 다음과 같다: 이미지 처리 디바이스(120)는 단말 디바이스에 의해 전송되는 그리고 겉보기 특징 및 겉보기 특징의 기술 속성을 포함하는 정보를 수신하여, 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다.Further, before obtaining the positional attribute of the apparent feature of the object, the image processing device 120 obtains the descriptive attribute of the apparent feature and the apparent feature of the object. The manner of acquiring the apparent feature of the object and the descriptive attribute of the apparent feature is as follows: The image processing device 120 uses the interface 14 to display the apparent feature and the apparent feature input by the user using text. Receives the technical attributes of. Another way to obtain the apparent feature of the subject and the descriptive attribute of the apparent feature is as follows: Image processing device 120 receives the descriptive attribute of the apparent feature and the apparent feature input by the user through selection on the visual interface. . Another way to obtain an apparent feature and a descriptive attribute of an apparent feature of an object is as follows: The image processing device 120 receives information transmitted by the terminal device and including the descriptive attribute of the apparent feature and the apparent feature; Obtain the apparent characteristic of the object and the descriptive attributes of the apparent characteristic.

겉보기 특징이 전역 속성을 가질 때 겉보기 특징의 기술 속성을 인식하기 위한 전술한 방법에 기초하여, 단계 S420 후에, 방법은: 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 단계 - 상기 다른 겉보기 특징은 겉보기 특징의 특성과 연관되는 그리고 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성을 획득하는 단계; 및 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성을 수정하는 단계를 추가로 포함한다.Based on the foregoing method for recognizing the descriptive attribute of the apparent feature when the apparent feature has a global attribute, after step S420, the method includes: obtaining another apparent feature associated with the apparent feature, wherein the other apparent feature is an apparent feature. Used to indicate the type associated with the property of and to which the other property of the subject belongs; Obtaining a description attribute of the other apparent feature; And modifying the description attribute of the apparent feature using the description attribute of the other apparent feature.

이 실시예에서, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 구현은 겉보기 특징과 다른 겉보기 특징 간의, 이미지 처리 디바이스에 사전저장된 대응관계를 조회하고; 상기 겉보기 특징과 연관된 상기 다른 겉보기 특징을 획득하는 것이다. 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 다른 구현은 다른 겉보기 특징의 식별자를 포함하는 정보를 수신하고, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 것이다.In this embodiment, an implementation that obtains another apparent feature associated with the apparent feature queries the correspondence prestored in the image processing device between the apparent feature and the other apparent feature; Obtaining the other apparent feature associated with the apparent feature. Another implementation of obtaining another apparent feature associated with an apparent feature is to receive information that includes an identifier of another apparent feature, and to obtain another apparent feature associated with the apparent feature.

이 실시예에서 다른 겉보기 특징의 기술 속성을 획득하는 구현에 대해서는, 겉보기 특징의 위치 속성이 국소 속성일 때 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하는 전술한 방법을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.For implementations that obtain a description attribute of another apparent feature in this embodiment, refer to the foregoing method of recognizing the description attribute of the apparent feature shown in FIG. 3A when the location attribute of the apparent feature is a local attribute. Details are not described herein again.

이 실시예에서, 겉보기 특징과 연관된 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하는 특정 구현은: 상관도 가중 알고리즘을 이용하는 것; 상기 상관도 가중 알고리즘에서 가중을 수행하기 위한 가중치로서, 상기 겉보기 특징과 상기 다른 겉보기 특징 간의 연관 관계를 지시하는 상관도를 이용하는 것; 및 목표 이미지 내의 대상의 겉보기 특징의 기술 속성으로서, 상기 겉보기 특징의 기술 속성에 대해 가중 수정이 수행된 후에 획득된 기술 속성을 이용하는 것. 이 구현에서, 전역 속성을 갖는 겉보기 특징과 연관된 다른 겉보기 특징은 국소 속성을 갖는다.In this embodiment, a particular implementation that modifies the description attribute of an apparent feature using the description attribute of another apparent feature associated with the apparent feature comprises: using a correlation weighting algorithm; Using a correlation indicating an association between the apparent feature and the other apparent feature as a weight for performing weighting in the correlation weighting algorithm; And using the technical attribute obtained after the weighted modification is performed on the technical attribute of the apparent feature as the technical attribute of the apparent feature of the object in the target image. In this implementation, other apparent features associated with the apparent feature with global attributes have local attributes.

전술한 겉보기 특징이 전역 속성을 가질 때, 단계 420 후에, 겉보기 특징의 기술 속성을 인식하기 위한 방법은: 목표 이미지, 목표 구역, 오프셋 구역, 또는 후보 구역을 수학 모델에 입력하는 단계; 및 상기 목표 이미지 내의 상기 대상의 상기 겉보기 특징의 기술 속성으로서, 상기 수학 모델을 이용하여 출력되는 그리고 목표 데이터에 가까운 기술 속성을 이용하는 단계를 추가로 포함한다. 수학 모델은 훈련 데이터 세트를 이용하여 계산 모델에 대해 훈련 수정이 수행된 후에 획득되는 수학 모델이다. 훈련 데이터 세트는 다른 이미지 및 다른 이미지 내의 대상의 다른 겉보기 특징의 기술 속성을 포함하는데, 다른 이미지는 목표 이미지 내의 목표 구역, 오프셋 구역, 또는 후보 구역, 또는 목표 이미지와 상이한 그리고 다른 대상을 포함하는 다른 이미지를 포함한다. 다른 이미지 내의 대상의 다른 겉보기 특징은 전역 속성을 갖는 그리고 목표 이미지의 겉보기 특징과 연관된다. 이 구현에서, 다른 이미지 내의 대상의 다른 겉보기 특징은 전역 속성 또는 국소 속성을 갖는다. 다른 이미지 내에 포함된 대상 및 목표 이미지 내의 대상은 동일한 대상 유형에 속한다. 이 구현에서, 훈련 데이터 세트를 이용하여 계산 모델을 훈련시켜, 목표 데이터와 다른 이미지 내의 대상의 다른 겉보기 특징의 기술 속성 간의 차이를 획득하고; 그 차이에 기초하여 계산 모델의 계산 파라미터를 조정하여, 계산 파라미터가 조정된 계산 모델을 획득하고; 조정된 계산 모델을 이용하여 다른 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는데, 계산 모델에 대한 훈련 수정은 계산 모델을 이용하여 획득되는 그리고 목표 데이터와 다른 이미지 내의 대상의 겉보기 특징의 기술 속성 간의 차이가 목표 오차 이하일 때 종료한다.When the apparent feature described above has a global attribute, after step 420, a method for recognizing the descriptive attribute of the apparent feature comprises: inputting a target image, a target zone, an offset zone, or a candidate zone into a mathematical model; And using, as the description attribute of the apparent feature of the object in the target image, the description attribute output using the mathematical model and close to the target data. A mathematical model is a mathematical model obtained after training modifications are performed to a computational model using a training data set. The training data set includes descriptive attributes of other images and other apparent features of the subject in the other image, wherein the other image includes a target zone, an offset zone, or a candidate zone in the target image, or another target that is different and different from the target image. Contains an image. Another apparent feature of the object in the other image has a global attribute and is associated with the apparent feature of the target image. In this implementation, other apparent features of the object in other images have global or local attributes. Objects included in other images and objects in the target image belong to the same object type. In this implementation, the computational model is trained using the training data set to obtain a difference between the target data and the technical attributes of other apparent features of the subject in the other image; Adjust the calculation parameters of the calculation model based on the difference to obtain a calculation model with the calculation parameters adjusted; The adjusted computational model is used to recognize the technical properties of the apparent features of the object in another image, wherein a training modification to the computational model is obtained using the computational model and between the technical data of the target data and the apparent features of the object in the other image. It ends when the difference is less than the target error.

이하에서는 본 발명의 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법을 설명한다. 도 5는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 방법의 흐름도이다. 이 실시예는 보행자 감시 분야에 적용되고, 복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하기 위한 방법을 주로 설명한다. 도 5에 도시된 바와 같이, 이 방법은 구체적으로 다음의 단계들을 포함한다.The following describes another method for recognizing the technical attributes of the apparent features provided in the embodiments of the present invention. 5 is a flowchart of another method for recognizing a description attribute of an apparent feature in accordance with an embodiment of the present invention. This embodiment applies to the field of pedestrian monitoring, and mainly describes a method for recognizing a technical property of an apparent feature of an object using a plurality of location features. As shown in FIG. 5, the method specifically includes the following steps.

S510. 목표 이미지를 획득한다 - 목표 이미지는 대상을 포함한다. 이 단계에서 목표 이미지를 획득하는 특정 구현에 대해서는, 도 3a에 도시된 실시예에서의 단계 S310의 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.S510. Acquire a target image-the target image includes the object. For the specific implementation of obtaining the target image in this step, refer to the details of step S310 in the embodiment shown in FIG. 3A. Details are not described herein again.

S520. 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득한다. 대안적으로, 대상의 겉보기 특징의 복수의 위치 특징이 획득될 수 있는데, 각각의 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 각각의 부위의 위치를 지시하기 위해 사용되고, 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용된다. 예를 들어, 제1 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 제2 위치 특징은 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 겉보기 특징은 국소 속성을 갖고, 국소 속성은 이미지 처리 디바이스에게 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 단계에서 대상의 겉보기 특징의 위치 특징들을 획득하는 구현에 대해서는, 도 3a에 도시된 실시예에 기초하여 단계 S320에서 구현된 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.S520. Acquire a first positional feature and a second positional feature of the apparent feature of the subject. Alternatively, a plurality of positional features of the apparent feature of the subject may be obtained, wherein each positional feature is used to indicate the position of each portion of the subject in the predetermined subject model and dictated by the apparent feature, The apparent feature is used to indicate the type to which the apparent property of the object belongs. For example, the first positional feature is used to indicate the position of the first portion of the object in the preset object model and indicated by the apparent feature, and the second positional feature is indicated by the apparent feature and the predetermined object It is used to indicate the position of the second portion of the object in the model, the apparent feature has a local attribute, and the local attribute is used to instruct the image processing device to process the target image in a local processing manner. For the implementation of obtaining the positional features of the apparent feature of the object in this step, reference is made to the details implemented in step S320 based on the embodiment shown in FIG. 3A. Details are not described herein again.

S530. 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득한다. 최대 거리는 사전설정된 임계치보다 작다. 최대 거리는 2개의 부위(제1 부위 및 제2 부위) 간의 최대 수직 높이 및/또는 2개의 부위(제1 부위 및 제2 부위) 간의 최대 폭을 포함한다. 사전설정된 임계치는 최대 거리를 분석하는 효율이 모든 목표 이미지들을 분석하는 효율보다 더 높다는 것을 보장하기 위한 값이다. 복수의 위치 특징이 존재하는 경우, 최대 거리는 임의의 2개의 부위 간의 최대 수직 높이 이상이거나, 또는 임의의 2개의 부위 간의 최대 폭 이상이다.S530. Obtain a maximum distance between the first site and the second site based on the first location feature and the second location feature. The maximum distance is less than the preset threshold. The maximum distance includes the maximum vertical height between two sites (first site and second site) and / or the maximum width between two sites (first site and second site). The preset threshold is a value to ensure that the efficiency of analyzing the maximum distance is higher than the efficiency of analyzing all target images. If there are a plurality of location features, the maximum distance is above the maximum vertical height between any two sites, or above the maximum width between any two sites.

S540. 최대 거리에 기초하여 목표 구역을 인식한다 - 목표 구역은 제1 부위 및 제2 부위를 포함한다. 최대 거리가 2개의 부위 간의 최대 수직 높이이면, 목표 구역의 폭은 디폴트로 목표 이미지의 폭이다. 최대 거리가 2개의 부위 간의 최대 폭이면, 목표 구역의 높이는 디폴트로 목표 이미지의 높이이다. 최대 거리가 2개의 부위 간의 최대 수직 높이 및 최대 폭을 포함한다면, 목표 구역의 높이는 2개의 부위 간의 최대 수직 높이이고, 목표 구역의 폭은 2개의 부위 간의 최대 폭이다. 복수의 위치 특징이 존재하는 경우, 목표 구역은 겉보기 특징에 의해 지시되는 그리고 대상의 각각의 부위를 포함한다.S540. Recognize the target zone based on the maximum distance-the target zone includes a first portion and a second portion. If the maximum distance is the maximum vertical height between the two regions, the width of the target zone is by default the width of the target image. If the maximum distance is the maximum width between the two parts, the height of the target zone is the height of the target image by default. If the maximum distance includes the maximum vertical height and the maximum width between the two sites, the height of the target zone is the maximum vertical height between the two sites and the width of the target zone is the maximum width between the two sites. If there are a plurality of location features, the target zone includes each portion of the object and indicated by the apparent feature.

S550. 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다.S550. A feature analysis is performed on the target zone and the technical attributes of the apparent features of the object in the target image are recognized.

복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 실시예에 기초하여, 단계 S520 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 위치 속성을 획득하는데, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 실시예에서 겉보기 특징의 위치 속성을 획득하는 방식에 대해서는, 도 3a에 도시된 실시예에 기초하여 겉보기 특징의 위치 속성을 획득하는 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Based on the embodiment of recognizing the descriptive attribute of the apparent feature of the object using the plurality of positional features, before step S520, the method further includes: The image processing device 120 further comprises: the position attribute of the apparent feature of the object. The location attribute is used to indicate that the apparent feature has a local attribute. For the manner of obtaining the positional attribute of the apparent feature in this embodiment, reference is made to specific implementation details of obtaining the positional attribute of the apparent feature based on the embodiment shown in FIG. 3A. Details are not described herein again.

복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 실시예에 기초하여, 단계 S520 전에, 방법은 다음을 추가로 포함한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득한다. 이 실시예에서 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하는 방식에 대해서는, 도 3a에 도시된 실시예에 기초하여 대상의 겉보기 특징 및 겉보기 특징의 기술 속성을 획득하는 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Based on an embodiment of recognizing a descriptive attribute of an apparent feature of an object using a plurality of location features, before step S520, the method further includes: The image processing device 120 further includes an apparent feature and an apparent feature of the object. Obtain the technical attributes of. For specific aspects of obtaining the apparent feature of the object and the descriptive attribute of the object in this embodiment, refer to specific implementation details of obtaining the descriptive attribute of the apparent feature and the apparent feature of the object based on the embodiment shown in FIG. 3A. do. Details are not described herein again.

복수의 위치 특징을 이용하여 대상의 겉보기 특징의 기술 속성을 인식하는 전술한 실시예에 기초하여, 단계 S540 후에, 방법은: 오프셋 구역을 획득하고, 오프셋 구역에 대해 특징 분석이 수행된 후에 다른 기술 속성을 인식하는 단계; 및 그 후, 목표 구역에 대해 특징 분석이 수행된 후에 인식되는 기술 속성, 및 오프셋 구역에 대해 특징 분석이 수행된 후에 인식되는 다른 기술 속성 중에 사전설정된 알고리즘에 따라 목표 기술 속성을 결정하는 단계를 추가로 포함한다. 이 구현에서는, 오프셋 구역이 획득되고, 오프셋 구역에 기초하여 다른 기술 속성이 인식되고; 그 후 목표 구역에 기초하여 인식된 기술 속성 및 오프셋 구역에 기초하여 인식된 다른 기술 속성에 기초하여 목표 속성이 결정된다. 특정 구현 세부사항들에 대해서는, 도 3a에 도시된 실시예에서의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다. 또한, 오프셋 구역에 기초하여 후보 구역이 획득되고, 후보 구역에 기초하여 다른 기술 속성이 획득되고; 그 후, 기술 속성 및 복수의 다른 기술 속성에 기초하여 목표 기술 속성이 결정된다. 특정 구현 세부사항들에 대해서는, 도 3a에 도시된 실시예에서의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Based on the above-described embodiment of recognizing the technical property of the apparent feature of the object using the plurality of positional features, after step S540, the method includes: obtaining an offset zone and performing another technique after feature analysis is performed on the offset zone. Recognizing an attribute; And thereafter, determining the target technical property according to a predetermined algorithm among the technical properties recognized after the feature analysis is performed on the target zone, and other technical properties recognized after the feature analysis is performed on the offset zone. It includes. In this implementation, an offset zone is obtained and other technical attributes are recognized based on the offset zone; The target attribute is then determined based on the recognized technical attributes based on the target zone and the other technical attributes recognized based on the offset zone. For specific implementation details, refer to specific implementation details in the embodiment shown in FIG. 3A. Details are not described herein again. Further, a candidate zone is obtained based on the offset zone, and another technical attribute is obtained based on the candidate zone; Then, the target description attribute is determined based on the description attribute and the plurality of other description attributes. For specific implementation details, refer to specific implementation details in the embodiment shown in FIG. 3A. Details are not described herein again.

프로세스들의 순서 번호들은 본 발명의 실시예들에서 실행 순서들을 의미하지 않는다는 것을 이해해야 한다. 프로세스들의 실행 순서들은 프로세스들의 기능들 및 내부 로직에 기초하여 결정되어야 하고, 본 발명의 실시예들의 구현 프로세스들에 대한 임의의 제한으로서 해석되어서는 안 된다.It should be understood that the order numbers of the processes do not mean the order of execution in embodiments of the present invention. The order of execution of the processes should be determined based on the functions and internal logic of the processes and should not be construed as any limitation on the implementation processes of embodiments of the present invention.

간단한 설명을 위해, 전술한 방법 실시예들은 일련의 동작 조합들로서 표현된다는 점에 유의해야 한다. 그러나, 본 기술분야의 통상의 기술자는 본 발명이 설명된 동작들의 순서로 제한되지 않는다는 것을 이해할 것이다. 또한, 본 기술분야의 통상의 기술자는 또한 본 명세서에 설명된 모든 실시예들이 바람직한 실시예들이고, 관련 동작들이 본 발명에 의해 불필요하게 요구된다는 것을 이해할 것이다.For simplicity, it should be noted that the foregoing method embodiments are represented as a series of operational combinations. However, one skilled in the art will understand that the present invention is not limited to the order of the described operations. Moreover, those skilled in the art will also understand that all the embodiments described herein are preferred embodiments, and that the related operations are unnecessarily required by the present invention.

전술한 내용에 기초하여 본 기술분야의 통상의 기술자에 의해 안출될 수 있는 다른 적당한 단계 조합도 본 발명의 보호 범위 내에 속한다. 또한, 본 기술분야의 통상의 기술자는 또한 본 명세서에 설명된 모든 실시예들이 바람직한 실시예들이고, 관련 동작들이 본 발명에 의해 불필요하게 요구된다는 것을 이해할 것이다.Other suitable combinations of steps that can be devised by those skilled in the art based on the foregoing are also within the protection scope of the present invention. Moreover, those skilled in the art will also understand that all the embodiments described herein are preferred embodiments, and that the related operations are unnecessarily required by the present invention.

도 3a 내지 도 5를 참조하여, 전술한 내용은 본 발명의 실시예들에 따른 겉보기 특징의 기술 속성을 인식하기 위한 방법을 상세히 설명한다. 도 6 내지 도 11을 참조하여, 이하에서는 본 발명의 실시예들에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치를 설명한다.With reference to FIGS. 3A-5, the foregoing details a method for recognizing technical attributes of apparent features in accordance with embodiments of the present invention. 6 to 11, an apparatus for recognizing a technical property of an apparent feature according to embodiments of the present invention will be described below.

도 6은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 장치의 구조도이다. 도 6에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(610)는 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(610)는 프로세서(611) 및 메모리(612)를 포함한다. 상기 메모리(612)는 컴퓨터 명령어를 저장하고, 상기 프로세서(611)는 상기 메모리(612)에 연결된다. 프로세서(611)는 메모리(612) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:6 is a structural diagram of an apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 6, an apparatus 610 for recognizing the technical attributes of the apparent features provided in this embodiment of the present invention is implemented based on a method for recognizing the technical attributes of the apparent features shown in FIG. 3A. . Device 610 includes a processor 611 and a memory 612. The memory 612 stores computer instructions, and the processor 611 is coupled to the memory 612. Processor 611 is configured to execute computer instructions in memory 612 to perform the following steps:

목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(611)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.The target image is obtained-the target image includes the object. In this implementation, the processor 611 obtains a target image. For details, refer to the description at step S310 shown in FIG. 3A. Details are not described herein again.

상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되는데, 상기 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 프로세서(611)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S320에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.A positional feature of the apparent feature of the target image is obtained, the apparent feature being used to indicate the type to which the apparent feature of the object belongs, the positional feature of the apparent feature indicated by the apparent feature and a predetermined target model. Used to indicate the location of the site of the subject in E, wherein the apparent feature has a local property, and the local property is used to instruct the image processing device to process the target image in a local processing manner. In this implementation, the processor 611 obtains the positional feature of the apparent feature of the target image. For details, refer to the description at step S320 shown in FIG. 3A. Details are not described herein again.

상기 위치 특징에 기초하여 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 이 구현에서, 프로세서(611)는 위치 특징에 기초하여 목표 구역을 인식한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.A target zone is recognized based on the location feature, wherein the target zone includes a portion of the subject. In this implementation, the processor 611 recognizes the target zone based on the location feature. For details, refer to the description at step S330 shown in FIG. 3A. Details are not described herein again.

상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 이 구현에서, 프로세서(611)는 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Feature analysis is performed on the target zone and the descriptive attributes of the apparent features of the object are recognized. In this implementation, processor 611 performs feature analysis on the target area and recognizes the technical attributes of the apparent feature of the object. For details, refer to the description at step S330 shown in FIG. 3A. Details are not described herein again.

옵션 구현에서, 프로세서(611)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 611 is further configured to receive a location attribute of the apparent feature, where the location attribute is used to indicate that the apparent feature has a local attribute.

옵션 구현에서, 프로세서(611)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 611 is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, the location attribute of the apparent feature of the object, wherein the location attribute is adapted to the local attribute. It is used to indicate that it has.

옵션 구현에서, 프로세서(611)는 다음의 단계들:In an optional implementation, the processor 611 performs the following steps:

상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;

상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And

사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is the description that is closest to the target data among the description property and the other description property. Property.

이 구현에서, 프로세서(611)는 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하고; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하고; 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 상기 목표 기술 속성을 결정한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330 후의 관련 구현들의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.In this implementation, the processor 611 moves the target zone in a designated direction using the target zone as a center to obtain one or more offset zones; Perform a feature analysis on the offset zone and recognize other descriptive attributes of the apparent feature of the object; The target description attribute is determined among the description attribute and the other description attribute according to a predetermined algorithm. For details, refer to the description of related implementations after step S330 shown in FIG. 3A. Details are not described herein again.

옵션 구현에서, 프로세서(611)는: 목표 구역을 복수의 블록으로 분할하고 - 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.In an optional implementation, the processor 611 divides the target area into a plurality of blocks, the plurality of blocks being the same shape, the plurality of blocks being contiguous; Further configured to obtain one or more offset zones by moving the target zone in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.

옵션 구현에서, 프로세서(611)는 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다.In an optional implementation, the processor 611 is further configured to receive information that includes the location feature of the apparent feature, wherein the information is used to indicate the location feature of the apparent feature.

옵션 구현에서, 프로세서(611)는: 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성된다.In an optional implementation, the processor 611 may: query a prestored correspondence between the apparent feature and the location feature; And to obtain a positional feature of the apparent feature based on the apparent feature and the correspondence.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(610)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 3a에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(610) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 3a에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.The apparatus 610 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspond to the image processing device 120 in the embodiments of the present invention, and FIG. 3A in embodiments of the present invention. It should be understood that it may correspond to a corresponding entity for performing the method shown in FIG. In addition, the foregoing and other manipulations and / or functions of the modules in the apparatus 610 for recognizing the technical attributes of the apparent features are used separately to implement the procedures related to the method shown in FIG. 3A. For brevity, the details are not described herein again.

도 7은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 7에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(710)는 도 5에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(710)는 프로세서(711) 및 메모리(712)를 포함한다. 상기 메모리(712)는 컴퓨터 명령어를 저장하고, 상기 프로세서(711)는 상기 메모리(712)에 연결된다. 프로세서(711)는 메모리(712) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:7 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 7, the apparatus 710 for recognizing the description attribute of the apparent feature provided in this embodiment of the present invention is implemented based on the method for recognizing the description attribute of the apparent feature shown in FIG. 5. . Device 710 includes a processor 711 and a memory 712. The memory 712 stores computer instructions, and the processor 711 is coupled to the memory 712. Processor 711 is configured to execute computer instructions in memory 712 to perform the following steps:

목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(711)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.The target image is obtained-the target image includes the object. In this implementation, the processor 711 obtains a target image. For details, refer to the description at step S310 shown in FIG. 3A. Details are not described herein again.

상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징이 획득되는데, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 프로세서(711)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S320에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.A first positional feature and a second positional feature of the apparent feature of the object are obtained, wherein the apparent feature is used to indicate the type to which the apparent feature of the object belongs, and the first positional feature is indicated by the apparent feature. And used to indicate the position of the first portion of the subject in the predetermined subject model, wherein the second positional feature is indicated by the apparent feature and of the second portion of the subject in the preset subject model. Used to indicate location, the apparent feature has a local attribute, and the local attribute is used to instruct the image processing device to process the target image in a local processing manner. In this implementation, the processor 711 obtains the positional feature of the apparent feature of the target image. For details, refer to the description at step S320 shown in FIG. 3A. Details are not described herein again.

상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리가 획득된다. 이 구현에서, 프로세서(711)는 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S530에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.A maximum distance between the first portion and the second portion is obtained based on the first position feature and the second position feature. In this implementation, the processor 711 obtains a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature. For details, refer to the description at step S530 shown in FIG. 5. Details are not described herein again.

최대 거리에 기초하여 목표 구역이 인식되는데, 목표 구역은 제1 부위 및 제2 부위를 포함한다. 이 구현에서, 프로세서(711)는 최대 거리에 기초하여 목표 구역을 인식한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S540에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.The target zone is recognized based on the maximum distance, which target zone includes a first portion and a second portion. In this implementation, the processor 711 recognizes the target zone based on the maximum distance. For details, refer to the description at step S540 shown in FIG. 5. Details are not described herein again.

상기 목표 구역에 대해 특징 분석이 수행되고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식된다. 이 구현에서, 프로세서(711)는 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 5에 도시된 단계 S550에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Feature analysis is performed on the target zone and the descriptive attributes of the apparent features of the object in the target image are recognized. In this implementation, the processor 711 performs feature analysis on the target area and recognizes the technical attributes of the apparent features of the object in the target image. For details, refer to the description at step S550 shown in FIG. 5. Details are not described herein again.

옵션 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다.In an optional implementation, the maximum distance is less than a preset threshold.

옵션 구현에서, 프로세서(711)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 711 is further configured to receive a location attribute of the apparent feature, where the location attribute is used to indicate that the apparent feature has a local attribute.

옵션 구현에서, 프로세서(711)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 711 is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, the location attribute of the apparent feature of the object, wherein the location attribute is adapted to the local attribute. It is used to indicate that it has.

옵션 구현에서, 프로세서(711)는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 지시하기 위해 사용된다.In an optional implementation, the processor 711 is further configured to receive information including the first location feature and the second location feature of the apparent feature, wherein the information indicates the first location feature and the second location feature of the apparent feature. Used for.

옵션 구현에서, 프로세서(711)는: 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성된다.In an optional implementation, the processor 711 may: query a prestored correspondence between the apparent feature and each of the first location feature and the second location feature; And to obtain the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence.

옵션 구현에서, 프로세서(711)는 다음의 단계들:In an optional implementation, processor 711 includes the following steps:

상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;

상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And

사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다.Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is the description that is closest to the target data among the description property and the other description property. Property.

이 구현에서, 프로세서(711)는 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하고; 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하고; 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 상기 목표 기술 속성을 결정한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S330 후의 관련 구현들의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.In this implementation, the processor 711 moves the target zone in a designated direction using the target zone as a center to obtain one or more offset zones; Perform a feature analysis on the offset zone and recognize other descriptive attributes of the apparent feature of the object; The target description attribute is determined among the description attribute and the other description attribute according to a predetermined algorithm. For details, refer to the description of related implementations after step S330 shown in FIG. 3A. Details are not described herein again.

옵션 구현에서, 프로세서(711)는: 목표 구역을 복수의 블록으로 분할하고 - 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다.In an optional implementation, the processor 711 may: divide the target area into a plurality of blocks, the plurality of blocks being the same shape, the plurality of blocks being contiguous; Further configured to obtain one or more offset zones by moving the target zone in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(710)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 5에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(710) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 5에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.The apparatus 710 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspond to the image processing device 120 in the embodiments of the present invention, and FIG. 5 in the embodiments of the present invention. It should be understood that it may correspond to a corresponding entity for performing the method shown in FIG. In addition, the foregoing and other manipulations and / or functions of the modules in the apparatus 710 for recognizing the technical attributes of the apparent features are used separately to implement the procedures related to the method shown in FIG. 5. For brevity, the details are not described herein again.

도 8은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 8에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 도 3a에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(810)는 획득 유닛(811) 및 처리 유닛(812)을 포함하는데, 처리 유닛(812)은 획득 유닛(811)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 내의 각각의 모듈의 기능을 상세히 설명한다.8 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 8, the apparatus 810 for recognizing the technical attributes of the apparent features provided in this embodiment of the present invention is implemented based on the method for recognizing the technical attributes of the apparent features shown in FIG. 3A. . The apparatus 810 includes an acquisition unit 811 and a processing unit 812, which are coupled to the acquisition unit 811. The function of each module in the apparatus 810 for recognizing the technical attributes of the apparent features is described in detail below.

획득 유닛(811)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 이 구현에서, 목표 이미지를 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(811)의 기능에 대해서는, 도 3a에 도시된 단계 S310에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.The obtaining unit 811 is configured to acquire a target image, the target image including an object. In this implementation, the functionality of the acquisition unit 811 in acquiring the target image may be implemented using the interface 14 in the image processing device 120. For the function of the acquisition unit 811 in acquiring the target image, refer to specific details described in step S310 shown in FIG. 3A: The image processing device 120 acquires the target image. Details are not described herein again.

획득 유닛(811)은 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득하도록 추가로 구성되고, 상기 겉보기 특징은 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능에 대해서는, 도 3a에 도시된 단계 S320에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지의 겉보기 특징의 위치 특징을 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.The acquiring unit 811 is further configured to acquire a positional feature of the apparent feature of the target image, the apparent feature being used to indicate a type to which the apparent feature of the object belongs, and the positional feature of the apparent feature is the apparent feature. Used to indicate the location of the site of the object in the predetermined object model and dictated by the feature, wherein the apparent feature has a local attribute, the local attribute to the image processing device in a local processing manner. Used to command to process. In this implementation, the function of the acquiring unit 811 in acquiring the positional feature of the apparent feature of the target image may be implemented using the interface 14 in the image processing device 120. For the function of the obtaining unit 811 in obtaining the positional feature of the apparent feature of the target image, refer to specific details described in step S320 shown in FIG. 3A: The image processing device 120 refers to the target image. Obtain the positional feature of the apparent feature of the. Details are not described herein again.

처리 유닛(812)은 위치 특징에 기초하여 목표 구역을 인식하도록 구성되고, 목표 구역은 대상의 부위를 포함한다. 이 구현에서, 위치 특징에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 위치 특징에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(812)의 기능에 대해서는, 도 3a에 도시된 단계 S330에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 위치 특징에 기초하여 목표 구역을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.The processing unit 812 is configured to recognize the target zone based on the location feature, wherein the target zone includes a portion of the subject. In this implementation, the functionality of the processing unit 812 in recognizing the target zone based on the location feature may be implemented using the processor 11 in the image processing device 120. For the function of the processing unit 812 in recognizing the target zone based on the positional feature, reference is made to the specific details described in step S330 shown in FIG. 3A: The image processing device 120 is directed to the positional feature. Recognize the target zone on the basis. Details are not described herein again.

처리 유닛(812)은: 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 목표 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(812)의 기능에 대해서는, 도 3a에 도시된 단계 S340에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.The processing unit 812 is further configured to: perform a feature analysis on the target area and recognize the descriptive attributes of the apparent feature of the subject. In this implementation, the functionality of the processing unit 812 in performing feature analysis on the target area and recognizing the technical attributes of the apparent feature of the object may be implemented using the processor 11 in the image processing device 120. Can be. For the function of the processing unit 812 in performing feature analysis on the target area and recognizing the technical attributes of the apparent feature of the object, reference is made to the specific details described in step S340 shown in FIG. 3A: image Processing device 120 performs a feature analysis on the target area and recognizes the descriptive attributes of the apparent feature of the subject. Details are not described herein again.

옵션 구현에서, 획득 유닛(811)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 811 is further configured to receive a positional attribute of the apparent feature, where the positional attribute is used to indicate that the apparent feature has a local attribute. In this implementation, the function of the obtaining unit 811 in receiving the positional attribute of the apparent feature may be implemented using the interface 14 in the image processing device 120.

옵션 구현에서, 획득 유닛(811)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 811 is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, the location attribute of the apparent feature of the object, wherein the location attribute is the local attribute. It is used to indicate that it has. In this implementation, the function of the obtaining unit 811 in obtaining the position attribute of the apparent feature of the object from the prestored correspondence between the apparent feature and the position attribute utilizes the processor 11 in the image processing device 120. Can be implemented.

옵션 구현에서, 처리 유닛(812)은 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the processing unit 812 is further configured to move the target zone in a designated direction using the target zone as a center to obtain one or more offset zones. In this implementation, the function of the processing unit 812 in moving the target zone in the designated direction using the target zone as a center to obtain one or more offset zones may cause the processor 11 in the image processing device 120 to operate. It can be implemented using.

처리 유닛(812)은: 오프셋 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.The processing unit 812 is further configured to perform feature analysis on the offset zone and to recognize other descriptive attributes of the apparent feature of the subject. In this implementation, the function of the processing unit 812 in moving the target zone in the designated direction using the target zone as a center to obtain one or more offset zones may cause the processor 11 in the image processing device 120 to operate. It can be implemented using.

처리 유닛(812)은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 이 구현에서, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.The processing unit 812 is further configured to determine a target description attribute among the description attribute and the other description attribute according to a preset algorithm, wherein the target description attribute is most suitable for the target data, among the description attribute and the other description attribute. It is a near technical property. In this implementation, the function of the processing unit 812 in determining the target technical attribute among the technical attributes and other technical attributes according to a preset algorithm may be implemented using the processor 11 in the image processing device 120. have.

옵션 구현에서, 처리 유닛(812)은 목표 구역을 복수의 블록으로 분할하도록 추가로 구성된다. 이 구현에서, 목표 구역을 복수의 블록으로 분할하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the processing unit 812 is further configured to divide the target zone into a plurality of blocks. In this implementation, the function of the processing unit 812 in dividing the target area into a plurality of blocks may be implemented using the processor 11 in the image processing device 120.

처리 유닛(812)은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(812)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.The processing unit 812 is further configured to move one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones. And the size of each offset zone is equal to the size of the target zone and the quantity of offset units is a positive integer. In this implementation, the processing unit in moving the target zone in one or more directions by using one target as a center and one block as an offset unit to obtain the one or more offset zones ( The functionality of 812 can be implemented using the processor 11 in the image processing device 120, where the quantity of offset units is a positive integer.

옵션 구현에서, 획득 유닛(811)은 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 위치 특징을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.In an optional implementation, the acquiring unit 811 is further configured to receive information comprising the positional feature of the apparent feature, wherein the information is used to indicate the positional feature of the apparent feature. In this implementation, the function of the acquiring unit 811 in receiving information including the positional feature of the apparent feature may be implemented using the interface 14 in the image processing device 120.

옵션 구현에서, 획득 유닛(811)은: 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성된다. 이 구현에서, 겉보기 특징과 위치 특징 간의 사전저장된 대응관계를 조회하고 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 위치 특징을 획득하는 데 있어서의 획득 유닛(811)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the acquiring unit 811 may: query a prestored correspondence between the apparent feature and the location feature; And to obtain a positional feature of the apparent feature based on the apparent feature and the correspondence. In this implementation, the function of the obtaining unit 811 in querying the pre-stored correspondence between the apparent feature and the position feature and obtaining the position feature of the apparent feature based on the apparent feature and the correspondence is performed by the image processing device 120. It can be implemented using the processor 11 in the.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 3a에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 및 장치(810)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.The apparatus 810 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may be implemented using an application specific integrated circuit (ASIC) or a programmable logic device (PLD). It must be understood. The PLD may be a Complex Programmable Logic Device (CPLD), a Field Programmable Gate Array (FPGA), a Generic Array Logic (GAL), or any combination thereof. If the method for recognizing the technical attribute shown in FIG. 3A is implemented using software, the apparatus 810 and the modules of the apparatus 810 for recognizing the technical attribute of the apparent feature may alternatively be software modules. .

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(810)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(810) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 3a의 방법 및 도 3a의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.The apparatus 810 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspondingly perform the method described in the embodiments of the present invention. In addition, the foregoing and other manipulations and / or functions of the units in the apparatus 810 for recognizing the technical attributes of the apparent features may be used separately to implement the method of FIG. 3A and the corresponding procedure associated with the method of FIG. 3A. do. For brevity, the details are not described herein again.

도 9는 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 9에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 도 5에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(910)는 획득 유닛(911) 및 처리 유닛(912)을 포함하는데, 처리 유닛(912)은 획득 유닛(911)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 내의 각각의 모듈의 기능을 상세히 설명한다.9 is a structural diagram of another apparatus for recognizing description attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 9, the apparatus 910 for recognizing the description attribute of the apparent feature provided in this embodiment of the present invention is implemented based on the method for recognizing the description attribute of the apparent feature shown in FIG. 5. . Apparatus 910 includes an acquisition unit 911 and a processing unit 912, which is coupled to the acquisition unit 911. The function of each module in the device 910 for recognizing the technical attributes of the apparent features is described in detail below.

획득 유닛(911)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 이 구현에서, 목표 이미지를 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(911)의 기능에 대해서는, 도 3a에 도시된 단계 S310에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 이미지를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.The obtaining unit 911 is configured to acquire a target image, the target image including an object. In this implementation, the function of the acquisition unit 911 in acquiring the target image may be implemented using the interface 14 in the image processing device 120. For the function of the acquisition unit 911 in acquiring the target image, refer to specific details described in step S310 shown in FIG. 3A: The image processing device 120 acquires the target image. Details are not described herein again.

획득 유닛(911)은 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하도록 추가로 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 이 구현에서, 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능에 대해서는, 도 5에 도시된 단계 S520에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.The acquiring unit 911 is further configured to acquire a first positional feature and a second positional feature of the apparent feature of the object, wherein the apparent feature is used to indicate the type to which the apparent feature of the object belongs, A first positional feature is used to indicate the position of the first portion of the object in the predefined object model and dictated by the apparent feature, and the second positional feature is indicated by the apparent feature and the predetermined object Used to indicate the position of the second portion of the object in the model, the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner. . In this implementation, the function of the acquiring unit 911 in acquiring the first positional feature and the second positional feature of the apparent feature of the object may be implemented using the interface 14 in the image processing device 120. . For the function of the acquiring unit 911 in acquiring the first positional feature and the second positional feature of the apparent feature of the object, reference is made to the specific details described in step S520 shown in FIG. 5: an image processing device 120 obtains a first positional feature and a second positional feature of the apparent feature of the subject. Details are not described herein again.

처리 유닛(912)은 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하도록 구성된다. 이 구현에서, 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S530에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 제1 위치 특징 및 제2 위치 특징에 기초하여 제1 부위와 제2 부위 간의 최대 거리를 획득한다. 세부사항들은 여기서 다시 설명되지 않는다.The processing unit 912 is configured to obtain a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature. In this implementation, the function of the processing unit 912 in obtaining the maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature is the processor 11 in the image processing device 120. Can be implemented using Regarding the function of the processing unit 912 in obtaining the maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature, the specific details described in step S530 shown in FIG. See details: The image processing device 120 obtains a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature. Details are not described herein again.

처리 유닛(912)은 최대 거리에 기초하여 목표 구역을 인식하도록 추가로 구성되고, 목표 구역은 제1 부위 및 제2 부위를 포함한다. 이 구현에서, 최대 거리에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 최대 거리에 기초하여 목표 구역을 인식하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S540에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 최대 거리에 기초하여 목표 구역을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.The processing unit 912 is further configured to recognize the target zone based on the maximum distance, wherein the target zone includes a first portion and a second portion. In this implementation, the functionality of the processing unit 912 in recognizing the target zone based on the maximum distance may be implemented using the processor 11 in the image processing device 120. For the function of the processing unit 912 in recognizing the target area based on the maximum distance, refer to specific details described in step S540 shown in FIG. 5: The image processing device 120 is connected to the maximum distance. Recognize the target zone on the basis. Details are not described herein again.

처리 유닛(912)은: 목표 구역에 대해 특징 분석을 수행하고, 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다. 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능에 대해서는, 도 5에 도시된 단계 S550에서 설명된 특정 세부사항들을 참조한다: 이미지 처리 디바이스(120)는 목표 구역에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들은 여기서 다시 설명되지 않는다.The processing unit 912 is further configured to: perform a feature analysis on the target area and recognize the descriptive attributes of the apparent feature of the object in the target image. In this implementation, the function of the processing unit 912 in performing feature analysis on the target area and recognizing the technical attributes of the apparent feature of the object in the target image utilizes the processor 11 in the image processing device 120. Can be implemented. For the function of the processing unit 912 in performing feature analysis on the target area and recognizing the technical attributes of the apparent features of the object in the target image, refer to the specific details described in step S550 shown in FIG. 5. The image processing device 120 performs feature analysis on the target area and recognizes the descriptive attributes of the apparent feature of the object in the target image. Details are not described herein again.

옵션 구현에서, 상기 최대 거리는 사전설정된 임계치보다 작다.In an optional implementation, the maximum distance is less than a preset threshold.

옵션 구현에서, 획득 유닛(911)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 911 is further configured to receive a positional attribute of the apparent feature, wherein the positional attribute is used to indicate that the apparent feature has a local attribute. In this implementation, the function of the acquiring unit 911 in receiving the location attribute of the apparent feature may be implemented using the interface 14 in the image processing device 120.

옵션 구현에서, 획득 유닛(911)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 911 is further configured to obtain a position attribute of the apparent feature of the object from a prestored correspondence between the apparent feature and the position attribute, wherein the position attribute is the local attribute. It is used to indicate that it has. In this implementation, the function of the obtaining unit 911 in obtaining the position attribute of the apparent feature of the object from the prestored correspondence between the apparent feature and the position attribute uses the processor 11 in the image processing device 120. Can be implemented.

옵션 구현에서, 획득 유닛(911)은 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 정보는 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 포함하는 정보를 수신하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 911 is further configured to receive information comprising the first positional feature and the second positional feature of the apparent feature, the information indicating the first positional feature and the second positional feature of the apparent feature. Used to In this implementation, the function of the acquiring unit 911 in receiving information comprising the first positional feature and the second positional feature of the apparent feature may be implemented using the interface 14 in the image processing device 120. Can be.

옵션 구현에서, 획득 유닛(911)은: 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성된다. 이 구현에서, 겉보기 특징과 제1 위치 특징 및 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고 겉보기 특징 및 대응관계에 기초하여 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 데 있어서의 획득 유닛(911)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 911 may: query a prestored correspondence between the apparent feature and each of the first and second location features; And to obtain the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence. In this implementation, in querying a pre-stored correspondence between the apparent feature and each of the first and second location features and obtaining the first and second location features of the apparent feature based on the apparent feature and the correspondence relationship. The function of the acquiring unit 911 may be implemented using the processor 11 in the image processing device 120.

옵션 구현에서, 처리 유닛(912)은 목표 구역을 중심으로서 이용하여 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성된다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.In an optional implementation, the processing unit 912 is further configured to move the target zone in a designated direction using the target zone as a center to obtain one or more offset zones. In this implementation, the processing unit in moving the target zone in one or more directions by using one target as a center and one block as an offset unit to obtain the one or more offset zones ( The functionality of 912 can be implemented using the processor 11 in the image processing device 120, where the quantity of offset units is a positive integer.

처리 유닛(912)은: 오프셋 구역에 대해 특징 분석을 수행하고, 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성된다. 이 구현에서, 오프셋 구역에 대해 특징 분석을 수행하고 대상의 겉보기 특징의 다른 기술 속성을 인식하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.Processing unit 912 is further configured to: perform a feature analysis on the offset zone and recognize other descriptive attributes of the apparent feature of the subject. In this implementation, the function of the processing unit 912 in performing feature analysis on the offset zone and in recognizing other technical attributes of the apparent feature of the object is implemented using the processor 11 in the image processing device 120. Can be.

처리 유닛(912)은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성이다. 이 구현에서, 사전설정된 알고리즘에 따라 기술 속성 및 다른 기술 속성 중에 목표 기술 속성을 결정하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.The processing unit 912 is further configured to determine a target description attribute among the description attribute and the other description attribute according to a preset algorithm, wherein the target description attribute is most suitable for the target data, among the description attribute and the other description attribute. It is a near technical property. In this implementation, the function of the processing unit 912 in determining the target technical attribute among the technical attributes and other technical attributes according to a preset algorithm may be implemented using the processor 11 in the image processing device 120. have.

옵션 구현에서, 처리 유닛(912)은 목표 구역을 복수의 블록으로 분할하도록 추가로 구성되고, 복수의 블록은 동일한 형상이고, 복수의 블록은 연속적이다. 이 구현에서, 목표 구역을 복수의 블록으로 분할하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the processing unit 912 is further configured to divide the target area into a plurality of blocks, the plurality of blocks having the same shape, and the plurality of blocks are continuous. In this implementation, the function of the processing unit 912 in dividing the target area into a plurality of blocks may be implemented using the processor 11 in the image processing device 120.

처리 유닛(912)은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수이다. 이 구현에서, 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 데 있어서의 처리 유닛(912)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있는데, 오프셋 단위의 수량은 양의 정수이다.The processing unit 912 is further configured to move one or more offset units in one or more directions using the target zone as a center and one block as offset units to obtain the one or more offset zones. And the size of each offset zone is equal to the size of the target zone and the quantity of offset units is a positive integer. In this implementation, the processing unit in moving the target zone in one or more directions by using one target as a center and one block as an offset unit to obtain the one or more offset zones ( The functionality of 912 can be implemented using the processor 11 in the image processing device 120, where the quantity of offset units is a positive integer.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 5에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 및 장치(910)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.Apparatus 910 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may be implemented using an Application Specific Integrated Circuit (ASIC) or a Programmable Logic Device (PLD). It must be understood. The PLD may be a Complex Programmable Logic Device (CPLD), a Field Programmable Gate Array (FPGA), a Generic Array Logic (GAL), or any combination thereof. If the method for recognizing the technical attributes shown in FIG. 5 is implemented using software, the apparatus 910 and the modules of the apparatus 910 for recognizing the technical attributes of the apparent feature may alternatively be software modules. .

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(910)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(910) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 5의 방법 및 도 5의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.Apparatus 910 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspondingly perform the method described in embodiments of the present invention. In addition, the foregoing and other manipulations and / or functions of the units in the apparatus 910 for recognizing the technical attributes of the apparent features may be used separately to implement the method of FIG. 5 and the corresponding procedure associated with the method of FIG. 5. do. For brevity, the details are not described herein again.

도 10은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 10에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에 기초하여 구현된다. 장치(1010)는 프로세서(1011) 및 메모리(1012)를 포함한다. 상기 메모리(1012)는 컴퓨터 명령어를 저장하고, 상기 프로세서(1011)는 상기 메모리(1012)에 연결된다. 프로세서(1011)는 메모리(1012) 내의 컴퓨터 명령어를 실행하여, 다음의 단계들을 수행하도록 구성된다:10 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 10, the apparatus 1010 for recognizing the descriptive attributes of the apparent features provided in this embodiment of the present invention is implemented based on the method for recognizing the descriptive attributes of the apparent features shown in FIG. 4. . The apparatus 1010 includes a processor 1011 and a memory 1012. The memory 1012 stores computer instructions, and the processor 1011 is coupled to the memory 1012. Processor 1011 is configured to execute computer instructions in memory 1012 to perform the following steps:

목표 이미지가 획득된다 - 목표 이미지는 대상을 포함한다. 이 구현에서, 프로세서(1011)는 목표 이미지를 획득한다. 세부사항들에 대해서는, 도 3a에 도시된 단계 S310에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.The target image is obtained-the target image includes the object. In this implementation, the processor 1011 obtains a target image. For details, refer to the description at step S310 shown in FIG. 3A. Details are not described herein again.

상기 목표 이미지에 대해 특징 분석이 수행되고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다.Feature analysis is performed on the target image, and the descriptive attribute of the apparent feature of the object in the target image is recognized. The apparent characteristic is used to indicate the type to which the apparent characteristic of the subject belongs, the technical attribute is used to identify the apparent characteristic of the subject, the apparent characteristic has a global attribute, and the global attribute is the target Used to indicate that the way the image is processed is global.

이 구현에서, 프로세서(1011)는 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식한다. 세부사항들에 대해서는, 도 4에 도시된 단계 S420에서의 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.In this implementation, the processor 1011 performs feature analysis on the target image and recognizes the descriptive attribute of the apparent feature of the object in the target image. For details, refer to the description at step S420 shown in FIG. 4. Details are not described herein again.

상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.It is determined that the apparent feature has a global attribute. For apparent features with global attributes, the target image is directly selected as the recognition zone for feature analysis, while block feature analysis does not need to be performed on the target image. This simplifies the image processing manipulation process, reduces the time for recognizing technical attributes, and reduces the computer image processing workload.

옵션 구현에서, 프로세서(1011)는 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 1011 is further configured to receive a location attribute of the apparent feature, where the location attribute is used to indicate that the apparent feature has a global attribute.

옵션 구현에서, 프로세서(1011)는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다.In an optional implementation, the processor 1011 is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, the location attribute of the apparent feature of the object, wherein the location attribute is the global attribute. It is used to indicate that it has.

옵션 구현에서, 프로세서(1011)는 다음의 단계들을 수행하도록 추가로 구성된다:In an optional implementation, the processor 1011 is further configured to perform the following steps:

상기 겉보기 특징과 연관된 다른 겉보기 특징이 획득되고 - 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용됨 -; 상기 다른 겉보기 특징의 기술 속성이 획득되고; 상기 다른 겉보기 특징의 기술 속성을 이용하여 상기 겉보기 특징의 기술 속성이 수정된다. 이 구현에서, 프로세서(1011)는 겉보기 특징과 연관된 다른 겉보기 특징을 획득하고, 상기 다른 겉보기 특징의 기술 속성을 획득하고, 상기 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정한다. 세부사항들에 대해서는, 도 4에 도시된 단계 S420 후의 관련 단계들의 상세한 설명을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Another apparent feature associated with the apparent feature is obtained, the other apparent feature being used to indicate a type associated with the characteristic of the apparent feature and belonging to the other characteristic of the subject; Technical attributes of the other apparent feature are obtained; The description attribute of the apparent feature is modified using the description attribute of the other apparent feature. In this implementation, the processor 1011 obtains another apparent feature associated with the apparent feature, obtains the description attribute of the other apparent feature, and modifies the description attribute of the apparent feature using the description attribute of the other apparent feature. For details, refer to the detailed description of the relevant steps after step S420 shown in FIG. 4. Details are not described herein again.

전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다.The description attribute of an apparent feature with a global attribute may be modified by using the description attribute of another apparent feature with a local attribute and associated with the apparent feature with a global attribute to determine the accuracy of recognizing the description attribute of an apparent feature with a global attribute. Increase.

옵션 구현에서, 프로세서(1011)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 수행하도록 추가로 구성된다. 특정 구현 세부사항들에 대해서는, 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.In an optional implementation, the processor 1011 is further configured to perform the relevant steps in the method for recognizing the technical attributes of the apparent feature shown in FIG. 4. For specific implementation details, refer to the relevant steps in the method for recognizing the description attribute of the apparent feature shown in FIG. 4. Details are not described herein again.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010)는 본 발명의 실시예들에서의 이미지 처리 디바이스(120)에 대응할 수 있고, 본 발명의 실시예들에서 도 4에 도시된 방법을 수행하기 위한 대응하는 엔티티에 대응할 수 있다는 것을 이해해야 한다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1010) 내의 모듈들의 전술한 및 다른 조작들 및/또는 기능들은 도 4에 도시된 방법에 관련된 절차들을 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.The apparatus 1010 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspond to the image processing device 120 in the embodiments of the present invention, and in FIG. 4 in embodiments of the present invention. It should be understood that it may correspond to a corresponding entity for performing the method shown in FIG. In addition, the foregoing and other operations and / or functions of the modules in the apparatus 1010 for recognizing the technical attributes of the apparent feature are used separately to implement the procedures related to the method shown in FIG. 4. For brevity, the details are not described herein again.

도 11은 본 발명의 실시예에 따른 겉보기 특징의 기술 속성을 인식하기 위한 다른 장치의 구조도이다. 도 11에 도시된 바와 같이, 본 발명의 이 실시예에서 제공된 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 획득 유닛(1111) 및 처리 유닛(1112)을 포함하는데, 처리 유닛(1112)은 획득 유닛(1111)에 연결된다. 이하에서는 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 내의 각각의 모듈의 기능을 상세히 설명한다.11 is a structural diagram of another apparatus for recognizing technical attributes of an apparent feature according to an embodiment of the present invention. As shown in FIG. 11, the apparatus 1110 for recognizing the technical attributes of the apparent features provided in this embodiment of the present invention includes an acquisition unit 1111 and a processing unit 1112, which is a processing unit 1112. Is connected to the acquisition unit 1111. The function of each module in the device 1110 for recognizing the description attributes of the apparent features is described in detail below.

획득 유닛(1111)은 목표 이미지를 획득하도록 구성되고, 목표 이미지는 대상을 포함한다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다. 목표 이미지를 획득하는 데 있어서의 획득 유닛(1111)의 기능에 대해서는, 도 3a에 도시된 단계 S310의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.The obtaining unit 1111 is configured to acquire a target image, the target image including an object. The function of the acquisition unit 1111 in acquiring the target image may be implemented using the interface 14 in the image processing device 120. For the function of the obtaining unit 1111 in acquiring the target image, refer to specific implementation details of step S310 shown in FIG. 3A. Details are not described herein again.

처리 유닛(1112)은: 상기 목표 이미지에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하도록 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 기술 속성은 상기 대상의 겉보기의 특성을 식별하기 위해 사용되고, 상기 겉보기 특징은 전역 속성을 갖고, 상기 전역 속성은 상기 목표 이미지를 처리하는 방식이 전역 처리인 것을 지시하기 위해 사용된다. 목표 이미지에 대해 특징 분석을 수행하고 목표 이미지 내의 대상의 겉보기 특징의 기술 속성을 인식하는 데 있어서의 처리 유닛(1112)의 기능에 대해서는, 도 4에 도시된 단계 S420의 특정 구현 세부사항들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.Processing unit 1112 is configured to: perform a feature analysis on the target image and to recognize a descriptive attribute of an apparent feature of the object in the target image, the apparent feature indicating a type to which the apparent characteristic of the object belongs. Used to indicate, the description attribute is used to identify an apparent characteristic of the object, the apparent characteristic has a global attribute, and the global attribute is used to indicate that the manner in which the target image is processed is a global process. do. For the function of the processing unit 1112 in performing feature analysis on the target image and recognizing the technical attributes of the apparent features of the object in the target image, refer to the specific implementation details of step S420 shown in FIG. 4. . Details are not described herein again.

상기 겉보기 특징이 전역 속성을 갖는 것이 결정된다. 전역 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지는 특징 분석을 위한 인식 구역으로서 직접 선택되는 반면, 상기 목표 이미지에 대해 블록 특징 분석이 수행될 필요가 없다. 이는 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.It is determined that the apparent feature has a global attribute. For apparent features with global attributes, the target image is directly selected as the recognition zone for feature analysis, while block feature analysis does not need to be performed on the target image. This simplifies the image processing manipulation process, reduces the time for recognizing technical attributes, and reduces the computer image processing workload.

옵션 구현에서, 획득 유닛(1111)은 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 위치 속성은 겉보기 특징이 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징의 위치 속성을 수신하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 1111 is further configured to receive the location attribute of the apparent feature, where the location attribute is used to indicate that the apparent feature has a global attribute. The function of the obtaining unit 1111 in receiving the location attribute of the apparent feature may be implemented using the interface 14 in the image processing device 120.

옵션 구현에서, 획득 유닛(1111)은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 전역 속성을 갖는다는 것을 지시하기 위해 사용된다. 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 대상의 겉보기 특징의 위치 속성을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the obtaining unit 1111 is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute is the global attribute. It is used to indicate that it has. From the pre-stored correspondence between the apparent feature and the positional attribute, the function of the acquiring unit 1111 in acquiring the positional attribute of the apparent feature of the object may be implemented using the processor 11 in the image processing device 120. have.

옵션 구현에서, 획득 유닛(1111)은 상기 겉보기 특징과 연관된 다른 겉보기 특징을 획득하도록 추가로 구성되고, 상기 다른 겉보기 특징은 상기 겉보기 특징의 특성과 연관되는 그리고 상기 대상의 겉보기의 다른 특성이 속하는 유형을 지시하기 위해 사용된다. 이 구현에서, 겉보기 특징과 연관된 다른 겉보기 특징을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스(120) 내의 인터페이스(14)를 이용하여 구현될 수 있거나, 겉보기 특징과 다른 겉보기 특징 간의 사전저장된 대응관계를 조회하고 겉보기 특징과 연관된 다른 겉보기 특징을 획득함으로써 이미지 처리 디바이스(120) 내의 프로세서(11)를 이용하여 구현될 수 있다.In an optional implementation, the acquiring unit 1111 is further configured to acquire another apparent feature associated with the apparent feature, wherein the other apparent feature is associated with the characteristic of the apparent feature and the type to which the other characteristic of the subject belongs. It is used to indicate. In this implementation, the function of the acquiring unit 1111 in acquiring other apparent features associated with the apparent features may be implemented using the interface 14 in the image processing device 120, or may be different from the apparent features. It may be implemented using the processor 11 in the image processing device 120 by querying a pre-stored correspondence between the two and obtaining other apparent features associated with the apparent features.

획득 유닛(1111)은 다른 겉보기 특징의 기술 속성을 획득하도록 추가로 구성된다. 이 구현에서, 다른 겉보기 특징의 기술 속성을 획득하는 데 있어서의 획득 유닛(1111)의 기능은 이미지 처리 디바이스 내의 프로세서(11)를 이용하여 구현될 수 있다.Acquisition unit 1111 is further configured to acquire technical attributes of other apparent features. In this implementation, the function of the acquiring unit 1111 in acquiring the technical attributes of other apparent features may be implemented using the processor 11 in the image processing device.

처리 유닛(1112)은 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하도록 추가로 구성된다. 전역 속성을 갖는 겉보기 특징과 연관되는 그리고 국소 속성을 갖는 다른 겉보기 특징의 기술 속성을 이용하여 전역 속성을 갖는 겉보기 특징의 기술 속성을 수정하여, 전역 속성을 갖는 겉보기 특징의 기술 속성을 인식하는 정확도를 증가시킨다. 이 구현에서, 다른 겉보기 특징의 기술 속성을 이용하여 겉보기 특징의 기술 속성을 수정하는 데 있어서의 처리 유닛(1112)의 기능은 이미지 처리 디바이스 내의 프로세서(11)를 이용하여 구현될 수 있다.Processing unit 1112 is further configured to modify the description attribute of the apparent feature using the description attribute of the other apparent feature. The description attribute of an apparent feature with a global attribute may be modified by using the description attribute of another apparent feature with a local attribute and associated with the apparent feature with a global attribute to determine the accuracy of recognizing the description attribute of an apparent feature with a global attribute. Increase. In this implementation, the functionality of the processing unit 1112 in modifying the technical attributes of the apparent features using other technical features may be implemented using the processor 11 in the image processing device.

옵션 구현에서, 프로세서(1112)는 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 수행함으로써 기능을 구현하도록 추가로 구성된다. 특정 구현 세부사항들에 대해서는, 도 4에 도시된 겉보기 특징의 기술 속성을 인식하기 위한 방법에서의 관련 단계들을 참조한다. 세부사항들은 여기서 다시 설명되지 않는다.In an optional implementation, the processor 1112 is further configured to implement the function by performing the relevant steps in the method for recognizing the technical attributes of the apparent feature shown in FIG. 4. For specific implementation details, refer to the relevant steps in the method for recognizing the description attribute of the apparent feature shown in FIG. 4. Details are not described herein again.

본 발명의 실시예들은 겉보기 특징의 기술 속성을 인식하기 위한 방법 및 장치를 제공한다. 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득되고, 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치가 결정되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용된다. 상기 위치 특징에 기초하여 상기 목표 구역이 인식되는데, 상기 목표 구역은 상기 대상의 부위를 포함한다. 그 후, 상기 목표 구역에 대해 특징 분석이 수행되고, 상기 대상의 겉보기 특징의 기술 속성이 인식된다. 상기 국소 속성을 갖는 상기 겉보기 특징의 위치 특징이 결정된다. 상기 국소 속성을 갖는 겉보기 특징에 대해, 상기 목표 이미지로부터, 상기 겉보기 특징에 의해 지시되는 그리고 상기 대상의 부위가 위치하는 상기 목표 구역을 특징 분석을 위한 인식 구역으로서 의도적으로 선택하여, 무의미한 인식 구역을 감소시키고, 이미지 처리 조작 프로세스를 간소화하고, 기술 속성을 인식하기 위한 시간을 감소시키고, 컴퓨터 이미지 처리 작업부하를 감소시킨다.Embodiments of the present invention provide a method and apparatus for recognizing technical attributes of an apparent feature. A positional feature of the apparent feature of the target image is obtained, the position of the site of the object in the predetermined object model and dictated by the apparent feature is determined, and the apparent feature is of a type to which the apparent feature of the object belongs. Wherein the positional feature of the apparent feature is dictated by the apparent feature and is used to indicate the location of the site of the subject in the predetermined object model, the apparent feature has a local property, Local attributes are used to instruct the image processing device to process the target image in a local processing manner. The target zone is recognized based on the location feature, wherein the target zone includes a site of the subject. Then, feature analysis is performed on the target area, and the technical attributes of the apparent feature of the object are recognized. The positional feature of the apparent feature with the local attribute is determined. For the apparent feature having the local attribute, from the target image, the target zone indicated by the apparent feature and in which the site of the subject is located is intentionally selected as a recognition zone for feature analysis, thereby selecting a meaningless recognition zone. Reduce, simplify the image processing manipulation process, reduce the time to recognize technical attributes, and reduce the computer image processing workload.

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 주문형 집적 회로(Application Specific Integrated Circuit, ASIC) 또는 프로그래머블 로직 디바이스(Programmable Logic Device, PLD)를 이용하여 구현될 수 있다는 것을 이해해야 한다. PLD는 복합 프로그래머블 로직 디바이스(Complex Programmable Logic Device, CPLD), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA), 일반 어레이 로직(Generic Array Logic, GAL), 또는 이들의 임의의 조합일 수 있다. 도 5에 도시된 기술 속성을 인식하기 위한 방법이 소프트웨어를 이용하여 구현되는 경우, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 및 장치(1110)의 모듈들은 대안적으로 소프트웨어 모듈들일 수 있다.Apparatus 1110 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may be implemented using an Application Specific Integrated Circuit (ASIC) or a Programmable Logic Device (PLD). It must be understood. The PLD may be a Complex Programmable Logic Device (CPLD), a Field Programmable Gate Array (FPGA), a Generic Array Logic (GAL), or any combination thereof. If the method for recognizing the technical attribute shown in FIG. 5 is implemented using software, the apparatus 1110 and the modules of the apparatus 1110 for recognizing the technical attribute of the apparent feature may alternatively be software modules. .

본 발명의 이 실시예에서의 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110)는 본 발명의 실시예들에서 설명된 방법을 대응적으로 수행할 수 있다. 또한, 겉보기 특징의 기술 속성을 인식하기 위한 장치(1110) 내의 유닛들의 전술한 및 다른 조작들 및/또는 기능들은 도 4의 방법 및 도 4의 방법과 관련된 대응하는 절차를 구현하기 위해 개별적으로 사용된다. 간결함을 위해, 세부사항들은 여기서 다시 설명되지 않는다.The apparatus 1110 for recognizing the technical attributes of the apparent features in this embodiment of the present invention may correspondingly perform the method described in the embodiments of the present invention. In addition, the foregoing and other manipulations and / or functions of the units in the apparatus 1110 for recognizing the technical attributes of the apparent feature are used separately to implement the method of FIG. 4 and the corresponding procedure associated with the method of FIG. 4. do. For brevity, the details are not described herein again.

전술한 실시예들의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합을 이용하여 구현될 수 있다. 실시예들을 구현하기 위해 소프트웨어가 사용될 때, 실시예들의 전부 또는 일부는 컴퓨터 프로그램 제품의 형식으로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령어를 포함한다. 컴퓨터 프로그램 명령어들이 컴퓨터 상에서 로딩되거나 실행될 때, 본 발명의 실시예들에 따른 절차 또는 기능들은 완전히 또는 부분적으로 생성된다. 컴퓨터는 범용 컴퓨터, 전용 컴퓨터, 컴퓨터 네트워크, 또는 다른 프로그램 가능한 장치일 수 있다. 컴퓨터 명령어들은 컴퓨터 판독가능 저장 매체에 저장될 수 있거나, 컴퓨터 판독가능 저장 매체로부터 다른 컴퓨터 판독가능 저장 매체로 송신될 수 있다. 예를 들어, 컴퓨터 명령어들은 유선(예를 들어, 적외선, 무선, 또는 마이크로파) 방식으로 웹사이트, 컴퓨터, 서버, 또는 데이터 센터로부터 다른 웹사이트, 컴퓨터, 서버 또는 데이터 센터로 송신될 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 사용가능한 매체, 또는 하나 이상의 사용가능한 매체를 통합하는, 서버 또는 데이터 센터와 같은, 데이터 저장 디바이스일 수 있다. 사용가능한 매체는 자기 매체(예를 들어, 플로피 디스크, 하드 디스크 또는 자기 테이프), 광학 매체(예를 들어, DVD), 또는 반도체 매체일 수 있다. 반도체 매체는 솔리드 스테이트 디스크(Solid State Disk, SSD)일 수 있다.All or some of the above-described embodiments may be implemented using software, hardware, firmware, or any combination thereof. When software is used to implement the embodiments, all or part of the embodiments may be implemented in the form of a computer program product. The computer program product includes one or more computer instructions. When computer program instructions are loaded or executed on a computer, the procedure or functions in accordance with embodiments of the present invention are generated in whole or in part. The computer may be a general purpose computer, dedicated computer, computer network, or other programmable device. The computer instructions can be stored in a computer readable storage medium or transmitted from the computer readable storage medium to another computer readable storage medium. For example, computer instructions may be transmitted from a website, computer, server, or data center to another website, computer, server, or data center in a wired (eg, infrared, wireless, or microwave) manner. A computer readable storage medium can be any available medium accessible by a computer, or a data storage device, such as a server or a data center, incorporating one or more available media. Usable media can be magnetic media (eg, floppy disks, hard disks or magnetic tape), optical media (eg, DVD), or semiconductor media. The semiconductor medium may be a solid state disk (SSD).

본 기술분야의 통상의 기술자는, 본 명세서에 개시된 실시예들에서 설명된 예들과 조합하여, 유닛들 및 알고리즘 단계들이 전자 하드웨어 또는 컴퓨터 소프트웨어와 전자 하드웨어의 조합에 의해 구현될 수 있다는 것을 인식할 수 있다. 기능들이 하드웨어에 의해 수행되는지 또는 소프트웨어에 의해 수행되는지는 기술적 해결책들의 특정 응용들 및 설계 제약들에 의존한다. 본 기술분야의 통상의 기술자는 각각의 특정 응용에 대해 상이한 방법을 이용하여 설명된 기능들을 구현할 수 있다.One of ordinary skill in the art, in combination with the examples described in the embodiments disclosed herein, may recognize that the units and algorithm steps may be implemented by electronic hardware or a combination of computer software and electronic hardware. have. Whether the functions are performed by hardware or by software depends on the specific applications and design constraints of the technical solutions. One skilled in the art can implement the described functions using different methods for each particular application.

편리하고 간단한 설명을 위해, 전술한 시스템, 장치 및 유닛의 특정 작업 프로세스에 대해서는, 전술한 방법 실시예들에서의 대응하는 프로세스가 참조될 수 있다는 것이 본 기술분야의 통상의 기술자에 의해 명확하게 이해될 수 있다. 세부사항들은 여기서 다시 설명되지 않는다.For the sake of convenience and simplicity, for a particular working process of the system, apparatus and unit described above, it is clearly understood by those skilled in the art that the corresponding process in the foregoing method embodiments may be referred to. Can be. Details are not described herein again.

본 출원에서 제공되는 몇몇 실시예들에서, 개시된 시스템, 장치, 및 방법은 다른 방식들로 구현될 수 있다는 것을 이해해야 한다. 예를 들어, 설명된 장치 실시예들은 예들에 불과하다. 예를 들어, 유닛 구분은 논리적 기능 구분에 불과하고 실제 구현에서는 다른 구분일 수 있다. 예를 들어, 복수의 유닛 또는 컴포넌트들이 다른 시스템에 결합 또는 통합될 수 있거나, 또는 일부 특징들이 무시되거나 수행되지 않을 수 있다. 또한, 디스플레이되거나 논의된 상호 결합들 또는 직접 결합들 또는 통신 연결들은 일부 인터페이스들을 통해 구현될 수 있다. 장치들 또는 유닛들 간의 간접 결합들 또는 통신 연결들은 전기, 기계, 또는 다른 형식들로 구현될 수 있다.In some embodiments provided in the present application, it should be understood that the disclosed system, apparatus, and method may be implemented in other manners. For example, the described apparatus embodiments are merely examples. For example, unit division is merely logical function division and may be other division in actual implementation. For example, a plurality of units or components may be combined or integrated into another system, or some features may be ignored or not performed. In addition, the displayed or discussed mutual couplings or direct couplings or communication connections may be implemented through some interfaces. Indirect couplings or communication connections between the devices or units may be implemented in electrical, mechanical, or other forms.

분리된 부분들로서 설명된 유닛들은 물리적으로 분리되어 있을 수 있거나 그렇지 않을 수 있고, 유닛들로서 디스플레이된 부분들은 물리적 유닛들일 수 있거나 그렇지 않을 수 있고, 하나의 위치에 위치할 수 있거나, 또는 복수의 네트워크 유닛들 상에 분산될 수 있다. 유닛들 중 일부 또는 전부는 실시예들의 해결책들의 목적들을 달성하기 위한 실제 요건들에 따라 선택될 수 있다.Units described as separate parts may or may not be physically separate, and parts displayed as units may or may not be physical units, may be located in one location, or a plurality of network units Can be dispersed on the field. Some or all of the units may be selected according to actual requirements for achieving the objectives of the solutions of the embodiments.

전술한 설명들은 본 발명의 특정 구현들에 불과하고, 본 발명의 보호 범위를 제한하려고 의도된 것은 아니다. 본 발명의 특정 구현들에 기초하여 본 기술분야의 통상의 기술자에 의해 임의의 변형 또는 치환이 안출될 수 있다.The foregoing descriptions are merely specific implementations of the present invention, but are not intended to limit the protection scope of the present invention. Any modification or substitution may be made by one of ordinary skill in the art based on the specific implementations of the present invention.

Claims (45)

겉보기 특징의 기술 속성을 인식하기 위한 방법으로서, 상기 방법은 이미지 처리 디바이스에 의해 수행되고, 다음의 단계들:
목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -;
상기 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -;
상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및
상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함하는, 방법.
A method for recognizing a description attribute of an apparent feature, the method is performed by an image processing device, the following steps:
Obtaining a target image, the target image including an object;
Obtaining a positional feature of the apparent feature of the target image, wherein the apparent feature is used to indicate the type to which the apparent feature of the object belongs, the positional feature of the apparent feature is indicated and preset by the apparent feature Used to indicate the location of the site of the subject in the subject model, the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner;
Recognizing a target zone based on the location feature, wherein the target zone includes a portion of the subject; And
Performing a feature analysis on the target area and recognizing a description attribute of an apparent feature of the object.
제1항에 있어서,
상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
The method of claim 1,
Receiving a location attribute of the apparent feature, wherein the location attribute is used to indicate that the apparent feature has the local attribute.
제1항에 있어서,
상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
The method of claim 1,
Obtaining, from a pre-stored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute is used to indicate that the apparent feature has the local attribute. How.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 방법.
The method according to any one of claims 1 to 3,
Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And
Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is a description property that is closest to the target data among the description property and the other description property. , Way.
제4항에 있어서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는:
상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 및
상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 방법.
The method of claim 4, wherein moving the target zone in a designated direction using the target zone as a center to obtain at least one offset zone includes:
Dividing the target zone into a plurality of blocks, the plurality of blocks having the same shape and the plurality of blocks being contiguous; And
Using the target zone as a center and one block as an offset unit to move the target zone in one or more directions in one or more directions to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.
제1항 내지 제5항 중 어느 한 항에 있어서, 겉보기 특징의 위치 특징을 획득하는 단계는:
상기 겉보기 특징의 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 위치 특징을 지시하기 위해 사용되는, 방법.
6. The method of claim 1, wherein acquiring the positional feature of the apparent feature comprises:
Receiving information comprising a location feature of the apparent feature, wherein the information is used to indicate a location feature of the apparent feature.
제1항 내지 제5항 중 어느 한 항에 있어서, 겉보기 특징의 위치 특징을 획득하는 단계는:
상기 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하는 단계; 및
상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하는 단계를 포함하는, 방법.
6. The method of claim 1, wherein acquiring the positional feature of the apparent feature comprises:
Querying a pre-stored correspondence between the apparent feature and the location feature; And
Obtaining a positional feature of the apparent feature based on the apparent feature and the correspondence relationship.
겉보기 특징의 기술 속성을 인식하기 위한 방법으로서, 상기 방법은 이미지 처리 디바이스에 의해 수행되고, 다음의 단계들:
목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -;
상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -;
상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하는 단계;
상기 최대 거리에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 제1 부위 및 상기 제2 부위를 포함함 -; 및
상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 포함하는, 방법.
A method for recognizing a description attribute of an apparent feature, the method is performed by an image processing device, the following steps:
Obtaining a target image, the target image including an object;
Obtaining a first positional feature and a second positional feature of the apparent feature of the subject, wherein the apparent feature is used to indicate a type to which the apparent characteristic of the subject belongs; Used to indicate the position of the first portion of the subject in the indicated and predetermined subject model, wherein the second positional feature is indicated by the apparent feature and the second portion of the subject in the preset subject model Used to indicate the location of the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner;
Obtaining a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature;
Recognizing a target zone based on the maximum distance, the target zone including the first portion and the second portion; And
Performing a feature analysis on the target zone and recognizing a description attribute of an apparent feature of the object in the target image.
제8항에 있어서, 상기 최대 거리는 사전설정된 임계치보다 작은, 방법.The method of claim 8, wherein the maximum distance is less than a predetermined threshold. 제8항 또는 제9항에 있어서,
상기 겉보기 특징의 위치 속성을 수신하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
The method according to claim 8 or 9,
Receiving a location attribute of the apparent feature, wherein the location attribute is used to indicate that the apparent feature has the local attribute.
제8항 또는 제9항에 있어서,
상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하는 단계를 추가로 포함하고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 방법.
The method according to claim 8 or 9,
Obtaining, from a pre-stored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute is used to indicate that the apparent feature has the local attribute. How.
제8항 내지 제11항 중 어느 한 항에 있어서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는:
상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 포함하는 정보를 수신하는 단계를 포함하고, 상기 정보는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 지시하기 위해 사용되는, 방법.
12. The method of any of claims 8-11, wherein acquiring a first positional feature and a second positional feature of the apparent feature of the subject comprises:
Receiving information including the first location feature and the second location feature of the apparent feature, wherein the information is used to indicate the first location feature and the second location feature of the apparent feature. How.
제8항 내지 제11항 중 어느 한 항에 있어서, 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계는:
상기 겉보기 특징과 상기 제1 위치 특징 및 상기 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하는 단계; 및
상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하는 단계를 포함하는, 방법.
12. The method of any of claims 8-11, wherein acquiring a first positional feature and a second positional feature of the apparent feature of the subject comprises:
Querying a pre-stored correspondence between the apparent feature and each of the first location feature and the second location feature; And
Obtaining the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence relationship.
제8항 내지 제13항 중 어느 한 항에 있어서,
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 추가로 포함하고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 방법.
The method according to any one of claims 8 to 13,
Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And
Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is a description property that is closest to the target data among the description property and the other description property. , Way.
제14항에 있어서, 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계는:
상기 목표 구역을 복수의 블록으로 분할하는 단계 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 및
상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하는 단계를 포함하고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 방법.
15. The method of claim 14, wherein using the target zone as a center to move the target zone in a designated direction to obtain one or more offset zones:
Dividing the target zone into a plurality of blocks, the plurality of blocks having the same shape and the plurality of blocks being contiguous; And
Using the target zone as a center and one block as an offset unit to move the target zone in one or more directions in one or more directions to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.
겉보기 특징의 기술 속성을 인식하기 위한 장치로서, 프로세서 및 메모리를 포함하고, 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결되고;
상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여 다음의 단계들:
목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -;
상기 목표 이미지의 겉보기 특징의 위치 특징을 획득하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -;
상기 위치 특징에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 대상의 부위를 포함함 -; 및
상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 수행하도록 구성되는, 장치.
An apparatus for recognizing technical attributes of an apparent feature, comprising: a processor and a memory, the memory storing computer instructions, the processor being coupled to the memory;
The processor executes the computer instructions in the memory to perform the following steps:
Obtaining a target image, the target image including an object;
Obtaining a positional feature of the apparent feature of the target image, wherein the apparent feature is used to indicate the type to which the apparent feature of the object belongs, the positional feature of the apparent feature is indicated and preset by the apparent feature Used to indicate the location of the site of the subject in the subject model, the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner;
Recognizing a target zone based on the location feature, wherein the target zone includes a portion of the subject; And
Perform a feature analysis on the target zone and recognize a descriptive attribute of the apparent feature of the object.
제16항에 있어서, 상기 프로세서는 상기 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.17. The apparatus of claim 16, wherein the processor is further configured to receive a location attribute of the apparent feature, wherein the location attribute is used to indicate that the apparent feature has the local attribute. 제16항에 있어서, 상기 프로세서는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.17. The apparatus of claim 16, wherein the processor is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, a location attribute of the apparent feature of the object, wherein the location attribute comprises the local attribute. Used to indicate that the device has. 제16항 내지 제18항 중 어느 한 항에 있어서, 상기 프로세서는 다음의 단계들:
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 장치.
19. The processor of any of claims 16-18, wherein the processor comprises the following steps:
Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And
Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is the description that is closest to the target data among the description property and the other description property. Device, which is an attribute.
제19항에 있어서,
상기 프로세서는: 상기 목표 구역을 복수의 블록으로 분할하고 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 장치.
The method of claim 19,
The processor is configured to: divide the target zone into a plurality of blocks, the plurality of blocks having the same shape and the plurality of blocks being contiguous; Further configured to obtain one or more offset zones by moving the target zone in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.
제16항 내지 제20항 중 어느 한 항에 있어서, 상기 프로세서는 상기 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 상기 정보는 상기 겉보기 특징의 위치 특징을 지시하기 위해 사용되는, 장치.21. The processor of claim 16, wherein the processor is further configured to receive information comprising location features of the apparent feature, wherein the information is used to indicate a location feature of the apparent feature. , Device. 제16항 내지 제20항 중 어느 한 항에 있어서, 상기 프로세서는: 상기 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성되는, 장치.21. The processor of claim 16, wherein the processor is further configured to: query a pre-stored correspondence between the apparent feature and the location feature; And configured to obtain a positional feature of the apparent feature based on the apparent feature and the correspondence. 겉보기 특징의 기술 속성을 인식하기 위한 장치로서, 프로세서 및 메모리를 포함하고, 상기 메모리는 컴퓨터 명령어를 저장하고, 상기 프로세서는 상기 메모리에 연결되고;
상기 프로세서는 상기 메모리 내의 상기 컴퓨터 명령어를 실행하여 다음의 단계들:
목표 이미지를 획득하는 단계 - 상기 목표 이미지는 대상을 포함함 -;
상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하는 단계 - 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용됨 -;
상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하는 단계;
상기 최대 거리에 기초하여 목표 구역을 인식하는 단계 - 상기 목표 구역은 상기 제1 부위 및 상기 제2 부위를 포함함 -; 및
상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하는 단계를 수행하도록 구성되는, 장치.
26. An apparatus for recognizing technical attributes of an apparent feature, comprising: a processor and a memory, the memory storing computer instructions, the processor being coupled to the memory;
The processor executes the computer instructions in the memory to perform the following steps:
Obtaining a target image, the target image including an object;
Obtaining a first positional feature and a second positional feature of the apparent feature of the subject, wherein the apparent feature is used to indicate the type to which the apparent characteristic of the subject belongs; Used to indicate the position of the first portion of the subject in the indicated and predetermined subject model, wherein the second positional feature is indicated by the apparent feature and the second portion of the subject in the preset subject model Used to indicate the location of the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner;
Obtaining a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature;
Recognizing a target zone based on the maximum distance, the target zone including the first portion and the second portion; And
Perform a feature analysis on the target zone and recognize a descriptive attribute of an apparent feature of the object in the target image.
제23항에 있어서, 상기 최대 거리는 사전설정된 임계치보다 작은, 장치.The apparatus of claim 23, wherein the maximum distance is less than a predetermined threshold. 제23항 또는 제24항에 있어서, 상기 프로세서는 상기 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.The apparatus of claim 23 or 24, wherein the processor is further configured to receive a location attribute of the apparent feature, wherein the location attribute is used to indicate that the apparent feature has the local attribute. 제23항 또는 제24항에 있어서, 상기 프로세서는 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.25. The apparatus of claim 23 or 24, wherein the processor is further configured to obtain, from the pre-stored correspondence between the apparent feature and the location attribute, the location attribute of the apparent feature of the object, wherein the location attribute is the apparent feature. Used to indicate that it has the local property. 제23항 내지 제26항 중 어느 한 항에 있어서, 상기 프로세서는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 상기 정보는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 지시하기 위해 사용되는, 장치.27. The system of any of claims 23 to 26, wherein the processor is further configured to receive information comprising the first location feature and the second location feature of the apparent feature, wherein the information is the apparent feature. Used to indicate the first positional feature and the second positional feature of the device. 제23항 내지 제26항 중 어느 한 항에 있어서, 상기 프로세서는: 상기 겉보기 특징과 상기 제1 위치 특징 및 상기 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성되는, 장치.27. The system of any of claims 23 to 26, wherein the processor is further configured to: query a prestored correspondence between the apparent feature and each of the first and second location features; And further configured to obtain the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence. 제23항 내지 제28항 중 어느 한 항에 있어서, 상기 프로세서는 다음의 단계들:
상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하는 단계;
상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하는 단계; 및
사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하는 단계를 수행하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 장치.
The processor of claim 23, wherein the processor comprises the following steps:
Moving the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
Performing a feature analysis on the offset zone and recognizing other descriptive attributes of the apparent feature of the object; And
Determining a target description property among the description property and the other description property according to a predetermined algorithm, wherein the target description property is the description that is closest to the target data among the description property and the other description property. Device, which is an attribute.
제29항에 있어서,
상기 프로세서는: 상기 목표 구역을 복수의 블록으로 분할하고 - 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적임 -; 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 장치.
The method of claim 29,
The processor is configured to: divide the target zone into a plurality of blocks, the plurality of blocks having the same shape and the plurality of blocks being contiguous; Further configured to obtain one or more offset zones by moving the target zone in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones, each offset The size of the zone is equal to the size of the target zone, and the quantity of offset units is a positive integer.
겉보기 특징의 기술 속성을 인식하기 위한 장치로서, 처리 유닛 및 획득 유닛을 포함하고, 상기 처리 유닛은 상기 획득 유닛에 연결되고;
상기 획득 유닛은 목표 이미지를 획득하도록 구성되고, 상기 목표 이미지는 대상을 포함하고;
상기 획득 유닛은 상기 목표 이미지의 겉보기 특징의 위치 특징이 획득하도록 추가로 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 겉보기 특징의 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고;
상기 처리 유닛은 상기 위치 특징에 기초하여 목표 구역을 인식하도록 구성되고, 상기 목표 구역은 상기 대상의 부위를 포함하고;
상기 처리 유닛은: 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성되는, 장치.
An apparatus for recognizing a technical attribute of an apparent feature, comprising: a processing unit and an obtaining unit, the processing unit being connected to the obtaining unit;
The obtaining unit is configured to acquire a target image, the target image including an object;
The acquiring unit is further configured to acquire a positional feature of the apparent feature of the target image, wherein the apparent feature is used to indicate a type to which the apparent feature of the object belongs, the positional feature of the apparent feature being the apparent feature. Used to indicate the location of the site of the object in a predetermined object model and the apparent feature has a local property, the local property processing the target image in a local processing manner to the image processing device. Used to instruct to do so;
The processing unit is configured to recognize a target zone based on the location feature, the target zone including a portion of the subject;
The processing unit is further configured to: perform a feature analysis on the target area and recognize a descriptive attribute of the apparent feature of the object.
제31항에 있어서, 상기 획득 유닛은 상기 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.32. The apparatus of claim 31, wherein the obtaining unit is further configured to receive a position attribute of the apparent feature, wherein the position attribute is used to indicate that the apparent feature has the local attribute. 제31항에 있어서, 상기 획득 유닛은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.32. The apparatus of claim 31, wherein the obtaining unit is further configured to obtain a position attribute of an apparent feature of the object from a prestored correspondence between the apparent feature and the position attribute, wherein the position attribute is the local attribute. Used to indicate that it has a device. 제31항 내지 제33항 중 어느 한 항에 있어서,
상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고;
상기 처리 유닛은: 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성되고;
상기 처리 유닛은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 장치.
The method according to any one of claims 31 to 33, wherein
The processing unit is further configured to move the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
The processing unit is further configured to perform a feature analysis on the offset zone and to recognize other descriptive attributes of the apparent feature of the object;
The processing unit is further configured to determine a target description attribute among the description attribute and the other description attribute according to a predetermined algorithm, wherein the target description attribute is the description that is closest to the target data among the description attribute and the other description attribute. Device, which is an attribute.
제34항에 있어서,
상기 처리 유닛은: 상기 목표 구역을 복수의 블록으로 분할하도록 추가로 구성되고, 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적이고;
상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 장치.
The method of claim 34, wherein
The processing unit is further configured to divide the target zone into a plurality of blocks, the plurality of blocks having the same shape, the plurality of blocks being continuous;
The processing unit is further configured to move the one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones; Wherein the size of each offset zone is equal to the size of the target zone and the quantity of offset units is a positive integer.
제31항 내지 제35항 중 어느 한 항에 있어서, 상기 획득 유닛은 상기 겉보기 특징의 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 상기 정보는 상기 겉보기 특징의 위치 특징을 지시하기 위해 사용되는, 장치.36. The apparatus of any of claims 31 to 35, wherein the acquiring unit is further configured to receive information comprising the positional feature of the apparent feature, the information being used to indicate the positional feature of the apparent feature. Device. 제31항 내지 제35항 중 어느 한 항에 있어서, 상기 획득 유닛은: 상기 겉보기 특징과 상기 위치 특징 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 위치 특징을 획득하도록 추가로 구성되는, 장치.36. The apparatus of any of claims 31 to 35, wherein the obtaining unit is further configured to: query a prestored correspondence between the apparent feature and the location feature; And configured to obtain a positional feature of the apparent feature based on the apparent feature and the correspondence. 겉보기 특징의 기술 속성을 인식하기 위한 장치로서, 처리 유닛 및 획득 유닛을 포함하고, 상기 처리 유닛은 상기 획득 유닛에 연결되고;
상기 획득 유닛은 목표 이미지를 획득하도록 구성되고, 상기 목표 이미지는 대상을 포함하고;
상기 획득 유닛은 상기 대상의 겉보기 특징의 제1 위치 특징 및 제2 위치 특징을 획득하도록 추가로 구성되고, 상기 겉보기 특징은 상기 대상의 겉보기의 특성이 속하는 유형을 지시하기 위해 사용되고, 상기 제1 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 사전설정된 대상 모델에서의 상기 대상의 제1 부위의 위치를 지시하기 위해 사용되고, 상기 제2 위치 특징은 상기 겉보기 특징에 의해 지시되는 그리고 상기 사전설정된 대상 모델에서의 상기 대상의 제2 부위의 위치를 지시하기 위해 사용되고, 상기 겉보기 특징은 국소 속성을 갖고, 상기 국소 속성은 상기 이미지 처리 디바이스에게 상기 목표 이미지를 국소 처리 방식으로 처리하도록 명령하기 위해 사용되고;
상기 처리 유닛은 상기 제1 위치 특징 및 상기 제2 위치 특징에 기초하여 상기 제1 부위와 상기 제2 부위 간의 최대 거리를 획득하도록 구성되고;
상기 처리 유닛은 상기 최대 거리에 기초하여 목표 구역을 인식하도록 추가로 구성되고, 상기 목표 구역은 상기 제1 부위 및 상기 제2 부위를 포함하고;
상기 처리 유닛은: 상기 목표 구역에 대해 특징 분석을 수행하고, 상기 목표 이미지 내의 상기 대상의 겉보기 특징의 기술 속성을 인식하도록 추가로 구성되는, 장치.
An apparatus for recognizing a technical attribute of an apparent feature, comprising: a processing unit and an obtaining unit, the processing unit being connected to the obtaining unit;
The obtaining unit is configured to acquire a target image, the target image including an object;
The acquiring unit is further configured to acquire a first positional feature and a second positional feature of the apparent feature of the object, wherein the apparent feature is used to indicate a type to which the apparent feature of the object belongs, and the first position A feature is used to indicate the location of the first portion of the object in the preset object model and dictated by the apparent feature, wherein the second location feature is indicated by the apparent feature and in the preset object model Used to indicate a location of the second portion of the object of the apparent feature having a local attribute, the local attribute being used to instruct the image processing device to process the target image in a local processing manner;
The processing unit is configured to obtain a maximum distance between the first portion and the second portion based on the first positional feature and the second positional feature;
The processing unit is further configured to recognize a target zone based on the maximum distance, the target zone including the first portion and the second portion;
And the processing unit is further configured to perform a feature analysis on the target zone and to recognize a descriptive attribute of an apparent feature of the object in the target image.
제38항에 있어서, 상기 최대 거리는 사전설정된 임계치보다 작은, 장치.The apparatus of claim 38, wherein the maximum distance is less than a predetermined threshold. 제38항 또는 제39항에 있어서, 상기 획득 유닛은 상기 겉보기 특징의 위치 속성을 수신하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.40. The apparatus of claim 38 or 39, wherein the obtaining unit is further configured to receive a positional attribute of the apparent feature, wherein the positional attribute is used to indicate that the apparent characteristic has the local attribute. . 제38항 또는 제39항에 있어서, 상기 획득 유닛은 상기 겉보기 특징과 위치 속성 간의 사전저장된 대응관계로부터, 상기 대상의 겉보기 특징의 위치 속성을 획득하도록 추가로 구성되고, 상기 위치 속성은 상기 겉보기 특징이 상기 국소 속성을 갖는다는 것을 지시하기 위해 사용되는, 장치.40. The apparatus of claim 38 or 39, wherein the obtaining unit is further configured to obtain a position attribute of the apparent feature of the object from a prestored correspondence between the apparent feature and the position attribute, wherein the position attribute is the apparent feature. Which is used to indicate that it has said local property. 제38항 내지 제41항 중 어느 한 항에 있어서, 상기 획득 유닛은 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 포함하는 정보를 수신하도록 추가로 구성되고, 상기 정보는 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 지시하기 위해 사용되는, 장치.42. The apparatus of any of claims 38-41, wherein the obtaining unit is further configured to receive information comprising the first positional feature and the second positional feature of the apparent feature, the information being the apparent And used to indicate the first location feature and the second location feature of the feature. 제38항 내지 제41항 중 어느 한 항에 있어서, 상기 획득 유닛은: 상기 겉보기 특징과 상기 제1 위치 특징 및 상기 제2 위치 특징 각각 간의 사전저장된 대응관계를 조회하고; 상기 겉보기 특징 및 상기 대응관계에 기초하여 상기 겉보기 특징의 상기 제1 위치 특징 및 상기 제2 위치 특징을 획득하도록 추가로 구성되는, 장치.42. The apparatus of any of claims 38-41, wherein the acquiring unit further comprises: querying a pre-stored correspondence between the apparent feature and each of the first location feature and the second location feature; And further configured to obtain the first positional feature and the second positional feature of the apparent feature based on the apparent feature and the correspondence. 제38항 내지 제43항 중 어느 한 항에 있어서,
상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 상기 목표 구역을 지정 방향으로 이동시켜, 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고;
상기 처리 유닛은: 상기 오프셋 구역에 대해 특징 분석을 수행하고, 상기 대상의 겉보기 특징의 다른 기술 속성을 인식하도록 추가로 구성되고;
상기 처리 유닛은 사전설정된 알고리즘에 따라 상기 기술 속성 및 상기 다른 기술 속성 중에 목표 기술 속성을 결정하도록 추가로 구성되고, 상기 목표 기술 속성은 상기 기술 속성 및 상기 다른 기술 속성 중에, 목표 데이터에 가장 가까운 기술 속성인, 장치.
The method according to any one of claims 38 to 43,
The processing unit is further configured to move the target zone in a designated direction using the target zone as a center to obtain one or more offset zones;
The processing unit is further configured to perform a feature analysis on the offset zone and to recognize other descriptive attributes of the apparent feature of the object;
The processing unit is further configured to determine a target description attribute among the description attribute and the other description attribute according to a predetermined algorithm, wherein the target description attribute is the description that is closest to the target data among the description attribute and the other description attribute. Device, which is an attribute.
제44항에 있어서,
상기 처리 유닛은: 상기 목표 구역을 복수의 블록으로 분할하도록 추가로 구성되고, 상기 복수의 블록은 동일한 형상이고, 상기 복수의 블록은 연속적이고;
상기 처리 유닛은 상기 목표 구역을 중심으로서 이용하여 그리고 하나의 블록을 오프셋 단위로서 이용하여 상기 목표 구역을 하나 이상의 방향으로 하나 이상의 오프셋 단위를 이동시켜, 상기 하나 이상의 오프셋 구역을 획득하도록 추가로 구성되고, 각각의 오프셋 구역의 크기는 상기 목표 구역의 크기와 동일하고, 오프셋 단위의 수량은 양의 정수인, 장치.
The method of claim 44,
The processing unit is further configured to divide the target zone into a plurality of blocks, the plurality of blocks having the same shape, the plurality of blocks being continuous;
The processing unit is further configured to move the one or more offset units in one or more directions using the target zone as a center and one block as an offset unit to obtain the one or more offset zones; Wherein the size of each offset zone is equal to the size of the target zone and the quantity of offset units is a positive integer.
KR1020197030463A 2017-03-20 2017-03-20 Method and apparatus for recognizing descriptive properties of apparent features KR102331651B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/077366 WO2018170695A1 (en) 2017-03-20 2017-03-20 Method and device for recognizing descriptive attributes of appearance feature

Publications (2)

Publication Number Publication Date
KR20190137815A true KR20190137815A (en) 2019-12-11
KR102331651B1 KR102331651B1 (en) 2021-11-30

Family

ID=63583976

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197030463A KR102331651B1 (en) 2017-03-20 2017-03-20 Method and apparatus for recognizing descriptive properties of apparent features

Country Status (7)

Country Link
US (1) US11410411B2 (en)
EP (1) EP3591580A4 (en)
JP (1) JP6936866B2 (en)
KR (1) KR102331651B1 (en)
CN (1) CN110678878B (en)
BR (1) BR112019019517A8 (en)
WO (1) WO2018170695A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598176A (en) * 2017-09-30 2019-04-09 佳能株式会社 Identification device and recognition methods
CN108921022A (en) * 2018-05-30 2018-11-30 腾讯科技(深圳)有限公司 A kind of human body attribute recognition approach, device, equipment and medium
US20220172492A1 (en) * 2019-04-05 2022-06-02 Volvo Truck Corporation A method and a control unit for determining a parameter indicative of a road capability of a road segment supporting a vehicle
CN110060252B (en) * 2019-04-28 2021-11-05 重庆金山医疗技术研究院有限公司 Method and device for processing target prompt in picture and endoscope system
CN110287856A (en) * 2019-06-21 2019-09-27 上海闪马智能科技有限公司 A kind of security personnel's behavior analysis system, method and device
CN111274945B (en) * 2020-01-19 2023-08-08 北京百度网讯科技有限公司 Pedestrian attribute identification method and device, electronic equipment and storage medium
CN111709418B (en) * 2020-06-02 2022-03-04 支付宝(杭州)信息技术有限公司 Prompting method, device and equipment in code scanning process
CN113989284B (en) * 2021-12-29 2022-05-10 广州思德医疗科技有限公司 Helicobacter pylori assists detecting system and detection device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090018037A (en) * 2006-04-08 2009-02-19 더 유니버시티 오브 맨체스터 Method of locating features of an object
KR20130006186A (en) * 2011-07-08 2013-01-16 (주) 미디어인터랙티브 Method, terminal, and computer readable recording medium for controlling content by detecting gesture of head and gesture of hand
US9460613B1 (en) * 2016-05-09 2016-10-04 Iteris, Inc. Pedestrian counting and detection at a traffic intersection based on object movement within a field of view

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3938005B2 (en) 2002-10-23 2007-06-27 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus and image processing method
JP2012173761A (en) * 2011-02-17 2012-09-10 Nifty Corp Information processor, information processing method and program
US8805018B2 (en) * 2011-04-11 2014-08-12 Intel Corporation Method of detecting facial attributes
JP5950296B2 (en) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 Person tracking attribute estimation device, person tracking attribute estimation method, program
CN103324907B (en) * 2012-03-22 2016-09-07 中国科学院计算技术研究所 The learning method of a kind of human body apparent model reappearing detection for human body and system
CN103390150B (en) * 2012-05-08 2019-01-08 北京三星通信技术研究有限公司 human body part detection method and device
JP5712968B2 (en) * 2012-05-31 2015-05-07 株式会社デンソー Human detection device
US9278255B2 (en) 2012-12-09 2016-03-08 Arris Enterprises, Inc. System and method for activity recognition
CN103970771B (en) * 2013-01-29 2016-12-28 中国科学院计算技术研究所 The search method of a kind of human body and system
WO2015042891A1 (en) * 2013-09-27 2015-04-02 华为技术有限公司 Image semantic segmentation method and apparatus
US10120879B2 (en) * 2013-11-29 2018-11-06 Canon Kabushiki Kaisha Scalable attribute-driven image retrieval and re-ranking
CN103810490B (en) 2014-02-14 2017-11-17 海信集团有限公司 A kind of method and apparatus for the attribute for determining facial image
CN103984919A (en) * 2014-04-24 2014-08-13 上海优思通信科技有限公司 Facial expression recognition method based on rough set and mixed features
CN104036231B (en) * 2014-05-13 2017-11-17 深圳市菲普莱体育发展有限公司 Trunk identification device and method, terminal image detection method, device
CN104751454B (en) 2015-03-11 2018-05-11 百度在线网络技术(北京)有限公司 A kind of method and apparatus for being used to determine the character contour in image
CN105160317B (en) 2015-08-31 2019-02-15 电子科技大学 One kind being based on area dividing pedestrian gender identification method
CN106203296B (en) * 2016-06-30 2019-05-07 北京小白世纪网络科技有限公司 The video actions recognition methods of one attribute auxiliary
CN106127173B (en) * 2016-06-30 2019-05-07 北京小白世纪网络科技有限公司 A kind of human body attribute recognition approach based on deep learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090018037A (en) * 2006-04-08 2009-02-19 더 유니버시티 오브 맨체스터 Method of locating features of an object
KR20130006186A (en) * 2011-07-08 2013-01-16 (주) 미디어인터랙티브 Method, terminal, and computer readable recording medium for controlling content by detecting gesture of head and gesture of hand
US9460613B1 (en) * 2016-05-09 2016-10-04 Iteris, Inc. Pedestrian counting and detection at a traffic intersection based on object movement within a field of view

Also Published As

Publication number Publication date
BR112019019517A8 (en) 2023-04-04
CN110678878A (en) 2020-01-10
JP6936866B2 (en) 2021-09-22
EP3591580A1 (en) 2020-01-08
US20200012880A1 (en) 2020-01-09
WO2018170695A1 (en) 2018-09-27
CN110678878B (en) 2022-12-13
EP3591580A4 (en) 2020-03-18
KR102331651B1 (en) 2021-11-30
US11410411B2 (en) 2022-08-09
BR112019019517A2 (en) 2020-04-22
JP2020510264A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
KR102331651B1 (en) Method and apparatus for recognizing descriptive properties of apparent features
US9542003B2 (en) Image processing device, image processing method, and a computer-readable non-transitory medium
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
EP3539054A1 (en) Neural network image processing apparatus
Reale et al. Nebula feature: A space-time feature for posed and spontaneous 4D facial behavior analysis
US8571274B2 (en) Person-judging device, method, and program
CN114616588A (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium storing image processing program
US10503969B2 (en) Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method
JP2018088049A (en) Device, method and program for image processing
JP7409499B2 (en) Image processing device, image processing method, and program
JP6090162B2 (en) Site separation position extraction apparatus, program, and method
JP5930808B2 (en) Image processing apparatus, image processing apparatus control method, and program
US20210073564A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP7435781B2 (en) Image selection device, image selection method, and program
WO2022079794A1 (en) Image selection device, image selection method, and program
JP7491380B2 (en) IMAGE SELECTION DEVICE, IMAGE SELECTION METHOD, AND PROGRAM
KR101909326B1 (en) User interface control method and system using triangular mesh model according to the change in facial motion
CN112183155B (en) Method and device for establishing action posture library, generating action posture and identifying action posture
CN114641794A (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium storing image processing program
JP7435754B2 (en) Image selection device, image selection method, and program
JP7375921B2 (en) Image classification device, image classification method, and program
JP7302741B2 (en) Image selection device, image selection method, and program
JP7501621B2 (en) IMAGE SELECTION DEVICE, IMAGE SELECTION METHOD, AND PROGRAM
WO2022249278A1 (en) Image processing device, image processing method, and program
JP7264163B2 (en) Determination method, determination program and information processing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant