WO2020079927A1 - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
WO2020079927A1
WO2020079927A1 PCT/JP2019/030794 JP2019030794W WO2020079927A1 WO 2020079927 A1 WO2020079927 A1 WO 2020079927A1 JP 2019030794 W JP2019030794 W JP 2019030794W WO 2020079927 A1 WO2020079927 A1 WO 2020079927A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensing data
sensor
inclination
target portion
information processing
Prior art date
Application number
PCT/JP2019/030794
Other languages
English (en)
French (fr)
Inventor
洋平 中田
亮太 藤村
拓也 山口
育規 石井
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019091583A external-priority patent/JP7326018B2/ja
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to EP19873201.8A priority Critical patent/EP3869451A4/en
Priority to CN201980005343.8A priority patent/CN111417959A/zh
Publication of WO2020079927A1 publication Critical patent/WO2020079927A1/ja
Priority to US16/902,763 priority patent/US11341670B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present disclosure relates to an information processing device, a program, and an information processing method.
  • Patent Document 1 To identify an empty car frame in a parking lot by recognizing a vehicle image in a parking lot image captured by an in-vehicle camera within a detection target area set based on the position of the uppermost contour of the vehicle image Has been proposed (see Patent Document 1).
  • the effect of reducing the processing amount required for object detection may be suppressed. For example, it is necessary to detect the contour of the object as a pre-process of the object detection process. Further, it is difficult to set the detection target area when there is no object. Therefore, when the processing for detecting the contour of the object is heavy, or when the object does not exist, the reduction amount of the processing amount is reduced or the processing amount is not reduced.
  • the present disclosure aims to provide an information processing device, a program, and an information processing method capable of improving the effect of reducing the processing amount required for object detection.
  • An information processing device is an information processing device including a processor, wherein the processor is used for determining a peripheral situation of a device in which a third sensor is installed and which is output from a first sensor.
  • position of the said apparatus are acquired, At least 1 of the acquired said 1st sensing data and said 2nd sensing data
  • the inclination of the surface of the third sensor in the sensing direction with respect to the posture is determined, and the processing target portion of the third sensing data output from the third sensor and used in the object detection processing in the sensing direction is determined.
  • the object is determined according to the tilt, and the object to be processed of the determined third sensing data is used. Configured to perform detection processing.
  • a program is, in an information processing device including a processor, the vicinity of a device in which a third sensor, which is output from the first sensor to the processor by being executed by the processor, is installed. At least one of the first sensing data used to determine the situation and the second sensing data output from the second sensor to be used to determine the posture of the device is acquired, and the acquired first sensing data and the second Based on at least one of the sensing data, the tilt of the surface of the third sensor in the sensing direction with respect to the posture is determined, and the third sensing is output from the third sensor and used for the object detection process in the sensing direction.
  • the processing target portion of the data is determined according to the inclination, and the third sensing is performed. Is a program for executing the object detection process using the determined said processed portion of the over data.
  • the processor outputs the first sensing data output from the first sensor and used to determine the peripheral condition of the device in which the third sensor is installed, and the second sensor. At least one of the second sensing data used for determining the posture of the device, which is output, is acquired, and based on the acquired at least one of the first sensing data and the second sensing data, the third sensor The inclination of the surface in the sensing direction with respect to the posture is determined, the processing target portion of the third sensing data output from the third sensor and used in the object detection processing in the sensing direction is determined according to the inclination, An information processing method for executing the object detection process using the determined processing target portion of the third sensing data.
  • the information processing apparatus, the program, and the information processing method according to an aspect of the present disclosure can improve the effect of reducing the processing amount required for object detection.
  • FIG. 1 is a schematic diagram showing a region in which an object image of a detection target is detected and a region in which it is not detected in a front image of an automobile.
  • FIG. 2A is a diagram illustrating an example of a situation in which the moving surface in front of the path of the moving body is not tilted with respect to the posture reference plane of the moving body, and an image captured by a camera installed in the moving body in this situation. It is a schematic diagram.
  • FIG. 2B is a schematic diagram for explaining an example of a situation in which the moving surface in front of the path of the moving body is tilted with respect to the posture reference plane of the moving body, and an image captured by a camera installed in the moving body in this situation. Is. FIG.
  • FIG. 2C is a diagram for explaining another example of a situation in which the moving surface in front of the path of the moving body is tilted with respect to the posture reference plane of the moving body, and an image captured by the camera installed in the moving body in this situation. It is a schematic diagram.
  • FIG. 3 is a block diagram showing a configuration example of the information processing apparatus according to the embodiment.
  • FIG. 4 is a flow chart showing an example of a procedure of processing for determining the processing target portion of the target data of the image recognition processing by the information processing apparatus.
  • FIG. 5A is a schematic diagram illustrating an example of an image acquired by capturing an image of a moving body in front of the route and input to the information processing apparatus.
  • FIG. 5B is a schematic diagram showing an example of the processing target portion of the image recognition processing in the image shown in FIG. 5A.
  • FIG. 6A is a schematic diagram showing another example of an image acquired by capturing an image of the front of a route of a moving body and input to the information processing apparatus.
  • FIG. 6B is a schematic diagram showing an example of the processing target portion shifted upward in the image shown in FIG. 6A.
  • FIG. 7A is a schematic diagram showing another example of an image acquired by capturing an image of the front of a route of a moving body and input to the information processing apparatus.
  • FIG. 7B is a schematic diagram showing an example of the processing target portion shifted downward in the image shown in FIG. 7A.
  • FIG. 8 is a schematic diagram showing an example of a processing target portion that is determined when the direction of inclination of the moving surface with respect to the own-machine attitude is represented by a roll angle.
  • FIG. 1 shows a region in which an object image of a detection target such as a pedestrian or an obstacle is detected and a region in which it is not detected in an image group obtained by photographing with a camera installed in an automobile running on a flat road.
  • the section partitioned by the broken line in the figure is a partition of the entire area of the image captured by the camera into cells of a predetermined size including a plurality of pixels.
  • the cell mentioned here has the same meaning as a pixel obtained by down-sampling an image captured by a camera at an arbitrary magnification. Areas of pixels that are included once or more in the detection frame including the object image of the detection target are shown in white, and areas of pixels that are not included in the detection frame once are shown in shaded areas.
  • the object image to be detected is located in the vicinity of the vertical center (one-dot chain line in the figure) in the image region. That is, the shaded area can be said to be an area where the object image of the detection target does not appear or an area which does not contribute to the result.
  • the cropping as the above-mentioned preprocessing is performed in consideration of such a tendency of the position of the object image of the detection target in the input image, and the cropping is performed to some extent from the upper and lower ends of the image region (for example, “removal target” in the figure). Area) is removed.
  • the area that was located near the center of the original image area remaining as a result of the preprocessing (for example, the “object detection processing area” in the figure) is targeted for image recognition processing, and the entire image area is The calculation amount is reduced as compared with the case where the image recognition processing is performed.
  • the object image of the detection target in the image may be generated during the movement of the moving body due to, for example, ups and downs of the route or the posture of the moving body.
  • the inventor has conducted extensive studies to solve this problem, and an area targeted for image recognition processing (or an area excluded from image recognition processing in preprocessing) according to a change in an area in which an object image to be detected can be captured.
  • An information processing device is an information processing device including a processor, wherein the processor is used for determining a peripheral situation of a device in which a third sensor is installed and which is output from a first sensor.
  • position of the said apparatus are acquired, At least 1 of the acquired said 1st sensing data and said 2nd sensing data
  • the inclination of the surface of the third sensor in the sensing direction with respect to the posture is determined, and the processing target portion of the third sensing data output from the third sensor and used in the object detection processing in the sensing direction is determined.
  • the object is determined according to the tilt, and the object to be processed of the determined third sensing data is used. Configured to perform detection processing.
  • the device is a vehicle that is a moving body, and exists on the front side of the route when the current position and the road surface in the front of the route continuing from this position are horizontal.
  • the camera as the third sensor is installed so that the object image of the detection target is captured in the area near the upper and lower center of the image.
  • a plane that is parallel to the front-rear direction and the left-right direction of a vehicle in a straight-ahead posture and is perpendicular to the vertical direction are determined with the straight-ahead direction in the design of this vehicle as the front.
  • the vertical direction is not limited to the horizontal direction, and the vertical direction is not limited to the vertical direction, because it changes depending on the posture of the automobile, that is, the inclination of the surface of the automobile on which the tire is in contact with the ground.
  • the surface is referred to as the vehicle attitude reference plane.
  • the road surface in front of the movement route (however, some irregularities on the road surface are regarded as a virtual plane that is evenly approximated. Hereinafter, this plane is also referred to as a movement surface). Parallel. That is, this moving surface is not tilted with respect to the posture reference plane.
  • FIG. 2A is a schematic diagram for explaining an example of a situation in which the moving surface in front of the path of the moving body is not tilted with respect to the attitude reference plane, and an image captured by the camera installed in the moving body in this situation. It is a figure. Broken lines extending from the automobile in FIG. 2A indicate the upper and lower ends of the photographing range of this camera (the same applies to FIGS. 2B and 2C described later). In an image taken by this camera in this situation, an image of a person who is an example of a detection target in front of the automobile appears as shown in a balloon in the figure, for example. In the figure, the alternate long and short dash line that crosses the image area is a bisector of the height of this image area (the same applies to FIGS.
  • the information processing apparatus having the above configuration determines the vicinity of the vertical center of the image as the processing target portion and uses it for the image recognition processing for object detection, and performs image recognition for the other portions. Do not process.
  • FIG. 2B is a schematic diagram for explaining an example of a situation in which the moving surface in front of the path of the moving body is tilted in this way with respect to the attitude reference plane, and an image taken by a camera installed in the moving body in this situation. is there.
  • the object image to be detected in front of the vehicle is closer to the top of the image compared to the situation shown in FIG. 2A.
  • the information processing apparatus having the above-described configuration determines a part of the upper portion of the image as a processing target portion and uses it for the image recognition processing for object detection, and performs image recognition for the other portion. Do not process.
  • FIG. 2C is a schematic diagram for explaining another example of a situation in which the moving surface in front of the path of the moving body is tilted in this way with respect to the posture reference plane, and an image captured by the camera installed in the moving body in this situation. It is a figure. In the image taken by this camera in this situation, the object image of the detection object in front of the vehicle is closer to the bottom of the image as compared with the situation shown in FIG.
  • the information processing apparatus determines a part of the lower part of the image as a processing target portion and uses it for the image recognition processing for object detection, and performs image recognition for the other portion. Do not process.
  • the inclination of the moving surface in the front of the moving path of the moving body with respect to the attitude reference plane of the moving body (hereinafter, the inclination of the moving surface in the front of the moving path with respect to the own posture of the moving body, or simply, the movement with respect to the moving body It may be expressed as a surface inclination.
  • the position of the third sensing data that is the target of the image recognition process is changed according to the attitude of the own device. That is, by dynamically changing the part excluded from the target of the image recognition process according to the above inclination, the part of the third sensing data indicating the object to be detected is changed from the part to be detected by the object detection process. Efficient object detection processing with reduced calculation amount is realized while suppressing the possibility of deviation.
  • the processor determines a part of the third sensing data as the processing target portion when the inclination is within a predetermined range, and the third sensing data when the inclination exceeds the predetermined range. A portion wider than the part is determined as the processing target portion, and when the inclination exceeds the predetermined range, the processing cycle of the object detection processing is more than that when the inclination is within the predetermined range. May be longer.
  • the device is a moving body, and the processor may further request the moving body to decelerate when the inclination exceeds the predetermined range.
  • the device may be a moving body, and the processor may further notify a user of the moving body of a warning when the inclination exceeds the predetermined range.
  • a situation may occur in which only a part of the third sensing data does not include the part indicating the object to be detected.
  • the object detection process for the entire third sensing data may require a longer time than the object detection process for only a part of the object in order to obtain the accuracy required for safe movement of the moving body. Then, depending on the time required for this object detection processing, the speed of the moving body may be further reduced to ensure the safety of the moving body.
  • the user himself / herself has the opportunity to decelerate the moving body or consider changing the route. Can be given.
  • the size of the processing target portion may be changed according to an element that affects the reliability of the object detection processing.
  • the reliability of the result of the object detection process may decrease.
  • the third sensing data is image data
  • the device is a moving body and is moving at a relatively high speed, or when the posture of the device changes relatively frequently, compared to when it is not so.
  • the position of the image of the object to be detected in the image easily changes. Therefore, the smaller the portion of the third sensing data used as the target of the object detection process, the higher the possibility that the target to be detected will end undetected, that is, the reliability of the result of the object detection process is low.
  • by performing the object detection processing using a larger portion of the third sensing data for example, a wider area of the image, it is possible to suppress the decrease in reliability.
  • the object detection processing may be executed by inputting the processing target portion into one or more learned models.
  • the one or more learned models are a plurality of learned models, and the processor inputs the processing target portion to a learned model selected from the plurality of learned models according to the inclination. Good.
  • the appearance of the detection target object in the data may differ.
  • the shape of the image differs depending on whether the same object appears near the center of the image or near the center of the image, and an image taken using a lens with a larger angle of view. Then, this difference becomes more remarkable.
  • the accuracy of object detection can be improved by using the individual model corresponding to such a difference.
  • the learned model is a multilayer neural network
  • the processor further obtains a distance from the device to a starting point of the inclination, and the layer of the learned model corresponding to the distance is the processing target.
  • the part may be determined.
  • the processor may determine the processing target portion by shifting the processing target portion according to the inclination.
  • a program is, in an information processing device including a processor, the vicinity of a device in which a third sensor, which is output from the first sensor to the processor by being executed by the processor, is installed. At least one of the first sensing data used to determine the situation and the second sensing data output from the second sensor to be used to determine the posture of the device is acquired, and the acquired first sensing data and the second Based on at least one of the sensing data, the tilt of the surface of the third sensor in the sensing direction with respect to the posture is determined, and the third sensing is output from the third sensor and used for the object detection process in the sensing direction.
  • the processing target portion of the data is determined according to the inclination, and the third sensing is performed. Is a program for executing the object detection process using the determined said processed portion of the over data.
  • the processor outputs the first sensing data output from the first sensor and used to determine the peripheral condition of the device in which the third sensor is installed, and the second sensor. At least one of the second sensing data used for determining the posture of the device, which is output, is acquired, and based on the acquired at least one of the first sensing data and the second sensing data, the third sensor The inclination of the surface in the sensing direction with respect to the posture is determined, the processing target portion of the third sensing data output from the third sensor and used in the object detection processing in the sensing direction is determined according to the inclination, An information processing method for executing the object detection process using the determined processing target portion of the third sensing data.
  • a computer-readable recording medium such as a system, an integrated circuit, or a CD-ROM
  • FIG. 3 is a block diagram showing a configuration example of the information processing apparatus according to the embodiment.
  • the information processing device 10 according to the present embodiment is one component of the object detection system 1 provided in a moving body such as an automobile, and receives input of sensing data used for object detection. Further, based on the sensing data, the inclination of the moving surface in front of the moving path of the moving body with respect to the moving body is determined, and the object detection is executed using the portion of the sensing data determined according to this inclination.
  • the information processing apparatus 10 functioning as described above includes a surrounding condition determination unit 11, a device attitude determination unit 12, a region changing unit 13, an object detection processing unit 14, a processing cycle changing unit 15, and A speed change notification unit 16 is provided.
  • the information processing device 10 is realized by, for example, a microcontroller including a processor and a memory, and these constituent elements are functional structures realized by the processor executing one or a plurality of programs stored in the memory. Is an element. Each component will be described later.
  • This microcontroller is mounted in a vehicle, which is a moving body, as a component of an ECU (Electronic Control Unit) that constitutes an in-vehicle network system, for example.
  • ECU Electronic Control Unit
  • the information processing apparatus according to the present disclosure can be effectively used in various mobile objects, but in the following, the information processing apparatus 10 realized as a microcontroller of an ECU mounted on an automobile will be used as a main example. The present embodiment will be described.
  • the information processing device 10 includes sensing data output from a surrounding condition sensor 20 such as a sonar sensor or an image sensor of an in-vehicle camera, a LiDAR (Light Detection And And Ranging or Laser imaging And Detection Ranging) 30, and a tilt sensor 40 such as a gyro sensor. Is entered. Further, the position / orientation information from the position / orientation acquisition unit 50 that acquires the current position or attitude of the vehicle, and the map information 60 included in the car navigation system mounted on the vehicle (not shown) may be available to the information processing apparatus 10. . Further, information such as the current speed of the automobile or the brightness (illuminance) around the automobile may be input (speed and illuminance 70 in the figure). The processing of these data and information will be described in the following description of each component of the information processing apparatus 10 and the procedure of the processing by the information processing apparatus 10.
  • a surrounding condition sensor 20 such as a sonar sensor or an image sensor of an in-vehicle camera, a LiDAR (L
  • the surrounding situation determination unit 11 determines the surrounding situation of the vehicle using the sensing data output from the surrounding situation sensor 20 or the LiDAR 30.
  • the peripheral condition refers to data indicating the shape of the road surface ahead of the vehicle, that is, the direction and size of the inclination of the road surface, which is to be traveled from now on.
  • the road surface in front of the route, which is the target of the determination of the surrounding situation is an example of the moving surface in the present embodiment.
  • what the surrounding situation judging unit 11 can use to judge the surrounding situation is not limited to these sensing data. For example, information on the current position of the vehicle provided by the position / orientation acquisition unit 50 and information indicating the shape of the terrain or road included in the map information 60 may be used.
  • the shape of the terrain or road may be represented by altitude information, or when the map information 60 is three-dimensional map information, it may be represented by more specific three-dimensional shape information. . If the position of the automobile is known, it is possible to acquire information on the shape of the road surface in front of the route of the automobile at that position together with such map information 60.
  • the position / orientation acquisition unit 50 is realized by the processor executing a program in the information processing device 10 or another information processing device including a processor and a memory that is communicably connected to the information processing device 10. It is a functional component.
  • the position / orientation acquisition unit 50 uses the information output from a receiver of a positioning system such as a LiDAR 30 or a GPS (Global Positioning System) not shown, or map information 60, or the like, or a combination of these information to determine the position of the vehicle and It has a function of acquiring one or both of the postures.
  • a positioning system such as a LiDAR 30 or a GPS (Global Positioning System) not shown, or map information 60, or the like, or a combination of these information to determine the position of the vehicle and It has a function of acquiring one or both of the postures.
  • the own-machine attitude determination unit 12 determines the own-machine attitude using the sensing data output from the tilt sensor 40 or the LiDAR 30.
  • the tilt sensor 40 may be included in an automobile, for example, included in a car navigation system, or may be included in a camera installed in the automobile (hereinafter, also referred to as an in-vehicle camera).
  • the attitude of the vehicle here refers to the attitude of the vehicle, or the attitude of an in-vehicle camera or an in-vehicle sensor (a third sensor described later) corresponding to the in-vehicle camera. Since the relative posture between the vehicle-mounted camera and the vehicle can be acquired when the vehicle-mounted camera is installed in the vehicle, if one of the postures is known using the sensing data, the other posture can also be calculated.
  • the own-vehicle attitude can be represented by a fixed virtual line or virtual plane that can be defined with respect to the body of the automobile, for example, the direction and size of the inclination of the above-described attitude reference plane with respect to the vertical line.
  • a fixed virtual line or virtual plane that can be defined for the vehicle-mounted camera for example, a line parallel to the optical axis or a plane parallel to the light receiving surface of the image sensor, with respect to the vertical line
  • the direction and size of the inclination may be used.
  • what the own-machine attitude determination unit 12 uses to determine the own-machine attitude is not limited to these sensing data.
  • information on the current position of the vehicle provided by the position / orientation acquisition unit 50 and information indicating the shape of the terrain or road included in the map information 60 may be used.
  • the expression of the position of the automobile (moving body) in the present disclosure refers to a reference position that can be arbitrarily set in the space occupied by the moving body, and for example, this reference position is the position of the vehicle-mounted camera or the third sensor described below. May be.
  • the area changing unit 13 tilts the moving surface with respect to the own-vehicle attitude based on the surrounding situation, which is the determination result of the surrounding situation determining unit 11, and the own-vehicle attitude of the moving body, which is the determination result of the own-machine attitude determining section 12. To judge. Then, the sensing data input from the vehicle-mounted camera, that is, the area of the image data in this example, which is the target of the image recognition processing by the object detection processing unit 14 (hereinafter, also referred to simply as the processing target portion) is determined. It is determined according to this inclination.
  • the area changing unit 13 can determine the processing target portion corresponding to this inclination, which is the determination result, regardless of whether the posture of the own device is the posture of the automobile or the posture of the vehicle-mounted camera. For example, a program that realizes the area changing unit 13 defines a direction in which the processing target portion is moved according to the direction of the inclination that is the determination result, and the processing target portion is determined according to the determined direction of the inclination.
  • the memory included in the information processing apparatus 10 holds a table indicating the correspondence between the direction and size of the inclination that is the determination result and the coordinates indicating the processing target portion on the image area indicated by the image data. The area changing unit 13 that has determined that the processing target portion may be determined by referring to this table and acquiring the corresponding coordinates.
  • the image data subjected to the above cropping by the area changing unit 13 so as to leave this processing target portion may be input.
  • the area changing unit 13 may input uncropped image data and information indicating the range of the processing target portion such as coordinates to the object detection processing unit 14, and the object detection processing unit 14 performs the cropping.
  • the image recognition processing may be performed only on the range of the processing target portion indicated by this information.
  • information such as coordinates indicating a new processing target portion may be input from the area changing unit 13 to the object detection processing unit 14, or information for shifting the processing target portion. (Direction, amount of movement) may be input.
  • the area changing unit 13 may further determine the size of the processing target portion.
  • the size of the processing target portion to be determined includes the case of the entire area of the image data (equivalent to the determination not to execute cropping).
  • the size of the processing target portion is determined, for example, according to the determined magnitude of the above inclination. Alternatively, it may be determined according to the speed of the moving body, the brightness around the moving body or the brightness in the front of the route, or a change or difference thereof. These pieces of information are factors that can affect the reliability of object detection. As one specific example, in a multi-storey parking lot, the brightness may be significantly different between the inside and the outside, especially during the daytime when the weather is fine.
  • the object to be detected existing outside the exit may not be visible in the image recognition processing.
  • the object detection processing unit 14 it is determined that the following image recognition processing by the object detection processing unit 14 is executed with the reliability necessary for the safe movement of the moving body.
  • the area changing unit 13 enlarges the processing target portion when the required reliability cannot be obtained with the processing target portion having the current size.
  • the speed of the moving body may be acquired from a speed measuring unit according to the type of the moving body, such as being acquired from an ECU that calculates the vehicle speed from the number of rotations of an axle measured by a sensor in an automobile.
  • the speed calculated based on the position information acquired by the positioning system included in the mobile body or the optical flow estimated from the image captured by the camera may be used.
  • the brightness may be acquired based on data of an image captured by a camera installed in the moving body, or sensing data output by a brightness sensor separately provided in the moving body may be used.
  • the factor that reduces the reliability of the image recognition processing is not limited to the above, and other examples include the shape of the route, the state of hardness, or the shaking or vibration of the moving body due to wind.
  • the area changing unit 13 may lengthen the cycle of the image recognition processing by the object detection processing unit 14 as necessary when the processing target portion is enlarged as described above.
  • the determined image processing cycle is notified to the processing cycle changing unit 15, which will be described later.
  • the area changing unit 13 may determine to decelerate the moving body in addition to or instead of prolonging the processing cycle.
  • the area changing unit 13 that has determined the deceleration outputs a deceleration instruction or request to a control device that controls the speed of the moving body, for example, an ECU or a brake ECU that controls a drive mechanism, or both.
  • the object detection processing unit 14 executes image recognition processing such as image detection or segmentation on the processing target portion of the image data determined by the area changing unit 13.
  • the object detection processing unit 14 includes a learned model obtained by image recognition training, and this image recognition processing is executed by inputting the above-mentioned processing target portion of the image data to this learned model.
  • the result of the image recognition processing output by the object detection processing unit 14 is used, for example, by a driving assistance system of a vehicle or an automatic driving system for driving control or determination for notification to a user.
  • the processing cycle changing unit 15 receives the notification from the area changing unit 13 and changes the processing cycle of the image recognition processing by the object detection processing unit 14 according to the notification. Further, the execution of this change is notified from the processing cycle changing unit 15 to the speed change notifying unit 16 described below.
  • the speed change notifying unit 16 Upon receiving this notification from the processing cycle changing unit 15, the speed change notifying unit 16 presents the information regarding this change to the vehicle user. This information is presented, for example, to warn that the processing cycle has been changed and its effect. Alternatively, it may prompt the user to take some action such as an operation.
  • the information is provided by, for example, display on a vehicle-mounted display device such as a monitor or an instrument panel, or by using a warning sound or voice from a speaker.
  • the image sensor of the vehicle-mounted camera can function as the surrounding situation sensor 20 that provides the sensing data to the surrounding situation determination unit 11, but the sensing data can also be used for the determination of the own posture by the own posture determination unit 12.
  • the data output by LiDAR is also the sensing data of the surrounding situation as described above, and is also the data used for the determination of the posture of the moving body.
  • point cloud data instead of or in addition to the above image data.
  • sensors including sensors not exemplified above (for example, various depth sensors), may be used in combination with output sensing data or in combination with other information such as position information and map information.
  • the sensor that outputs the sensing data used to determine the surrounding situation is the first sensor in the present disclosure, and the sensor that outputs the sensing data that is used to determine the own posture is the second sensor in the present disclosure, the moving direction of the moving body.
  • the sensor that outputs the sensing data of the target of the object detection process in the front is intended as the third sensor in the present disclosure.
  • FIG. 4 is a flowchart showing an example of a procedure of processing executed by the information processing apparatus 10 for determining a processing target portion of data which is a target of image recognition processing.
  • the information processing apparatus 10 senses data from the first sensor, the second sensor, and the third sensor (hereinafter, the sensing data acquired from each of the first sensor data, the second sensing data, and the third sensing data will be referred to as “sensing data”). Get). Information from the position / orientation acquisition unit 50 or the map information 60 may be acquired. Further, in this example, the information processing device 10 also acquires information on the speed of the automobile or the brightness around the automobile.
  • the peripheral condition determination unit 11 determines the peripheral condition of the vehicle, that is, the shape of the moving surface in front of the route of the vehicle based on the first sensing data.
  • the own-machine attitude determination unit 12 determines the own-machine attitude based on the second sensing data.
  • the area changing unit 13 determines whether or not the moving surface in front of the route of the vehicle is tilted with respect to the own posture based on the surrounding situation and the own posture. If it is not inclined (No in S43), the processing target portion of the third sensing data is not changed and the procedure for determining the processing target portion ends. That is, if the third sensing data is image data, in this image data, the object detection is performed on the processing target portion that has been set for the situation where the moving surface in front of the route of the vehicle is not inclined with respect to the own posture. Image recognition processing is executed by the processing unit 14. In this example, it is assumed that the set processing target portion is near the center in the vertical direction of the image. FIG.
  • FIG. 5A is a schematic diagram illustrating an example of an image represented by the third sensing data input from the vehicle-mounted camera to the information processing device 10.
  • FIG. 5B is a schematic diagram showing an example of a processing target portion of the above-described set image recognition processing in the entire area of the image shown in FIG. 5A.
  • a rectangular area with halftone dots along each of the upper and lower edges indicates, for example, a portion to be removed by the cropping process.
  • the portion located is the target of the image recognition processing by the object detection processing unit 14. If it is tilted (Yes in S43), the process proceeds to step S44.
  • the area changing unit 13 acquires the tilt direction determined in step S43.
  • the forward direction is the direction in which the front end of the vehicle body is upward compared to the current position.
  • the backward direction of the automobile is the forward direction.
  • the route changes from horizontal or downward to upward in the forward direction downward changes in the forward horizontal direction
  • cases in which the upward gradient becomes steep in the forward direction and cases in which the downward gradient becomes gentle in the forward direction.
  • the front end of the vehicle body is tilted downward as compared with the current position.
  • the forward direction of the automobile is the forward direction.
  • the route is horizontal or downward from uphill to forward, changes from horizontal to forward in downhill, a steep downhill slope, and a slow uphill slope. . That is, in the example shown in FIG. 2B, the tilt direction is the positive direction, and in the example shown in FIG. 2C, the tilt direction is the negative direction. If it is the forward direction, the process proceeds to step S45. If it is in the negative direction, the process proceeds to step S46.
  • the area changing unit 13 determines whether or not there is a factor that reduces the reliability of the image recognition processing.
  • the area changing unit 13 further determines whether or not the magnitude of the inclination determined in step S43 is within a predetermined range, and if it is within the predetermined range (No in S47), the processing target portion The decision procedure ends. If the magnitude of the inclination exceeds the predetermined range (Yes in S47), the process proceeds to step S48.
  • the area changing unit 13 may determine whether or not the vehicle speed of the vehicle acquired by the information processing device 10 in step S40 is within a predetermined range. If the vehicle speed is within the predetermined range (No in S47), the procedure for determining the processing target portion ends. If the vehicle speed exceeds the predetermined range (Yes in S47), the process proceeds to step S48.
  • the area changing unit 13 may determine whether or not the brightness around the vehicle acquired by the information processing apparatus 10 in step S40 is equal to or lower than a predetermined illuminance. If the brightness exceeds the predetermined illuminance (No in S47), the procedure for determining the processing target portion ends. If the brightness is equal to or lower than the predetermined illuminance (Yes in S47), the process proceeds to step S48.
  • this processing by the information processing device 10 corresponds to the magnitude of the tilt in the case of Yes in step S43.
  • a step of determining the shift amount (or position) of the processing target portion may be included.
  • a step of determining the enlargement ratio of the processing target portion according to the magnitude of the inclination, the vehicle speed, or the illuminance may be included. If Yes in step S47, the processing cycle changing unit 15 further extends the cycle of the image recognition processing for the object detection processing unit 14, and further, the speed change notifying unit 16 uses the processing cycle changing unit 15 to change the processing cycle of the image recognition processing.
  • the step of presenting information to a person may be included.
  • the determination (S47) of whether or not there is a factor causing a decrease in reliability may be performed. If this factor is present (Yes in S47), for example, the center position of the processing target portion in the image may be left unchanged and enlarged in at least one of the vertical direction of the image.
  • FIG. 6A is a schematic diagram illustrating an example of an image represented by the third sensing data input from the vehicle-mounted camera to the information processing device 10 when the tilt direction is the positive direction.
  • FIG. 6B is a schematic diagram showing an example of the processing target portion shifted upward in step S45 in the entire area of the image shown in FIG. 6A.
  • FIG. 7A is a schematic diagram showing an example of an image represented by the third sensing data input from the vehicle-mounted camera to the information processing device 10 when the tilt direction is the negative direction.
  • FIG. 6A is a schematic diagram illustrating an example of an image represented by the third sensing data input from the vehicle-mounted camera to the information processing device 10 when the tilt direction is the positive direction.
  • FIG. 7A is a schematic diagram showing an example of an image represented by the third sensing data input from the vehicle-mounted camera to the information processing device 10 when the tilt direction is the negative direction.
  • FIG. 7B is a schematic diagram showing an example of the processing target portion shifted downward in step S46 in the entire area of the image shown in FIG. 7A. Note that it is not realistic that the presence or absence of inclination and the direction are different in the same place in an automobile, but it is possible to approximate the range of the image to be processed by changing the position of the processing target according to the inclination. As a simulation to show what is possible, the example images of FIGS. 6A, 6B, 7A and 7B show the scene at the same location as the example images of FIGS. 5A and 5B.
  • FIG. 5B what is shown in the processing target portion is a state ahead of the vehicle route from a certain distance, which is detected for determining the control content for driving assistance or automatic driving on and around the route. It is assumed that an object image at a proper distance can exist. This portion appears in the processing target portion shown in FIGS. 6B and 7B, which is shifted according to the inclination, in substantially the same manner. Therefore, even if the moving surface in front of the route of the vehicle is inclined with respect to the own posture, it is possible to provide the result of the object detection suitable for being used for determining the driving support or the control content of the automatic driving. Note that, in FIGS.
  • the four triangles located on the left and right of the image area indicate the positions of the four corners of the processing target portion when the positions are not changed according to the inclination.
  • the processing target portion whose position has not been changed shown in FIG. 6B includes a scene closer to the processing target portion whose position has been changed, but is included in the processing target portion whose position has been changed. Lack of distant scenery. Further, in the processing target portion whose position is not changed, as shown in FIG. 7B, many skys above the building where the detection target object cannot exist are included, while in the processing target portion of FIG. 5B. A part of a portion where an object to be detected may exist on the route of the automobile and its periphery is lacking. Even if the image recognition processing is performed on these processing target portions that have not been changed, it is not possible to provide a result of object detection suitable for being used for determination of driving assistance or control content of automatic driving.
  • the information processing apparatus 10 reduces the calculation amount by excluding a part of the image captured by the vehicle-mounted camera from the processing target portion of the image recognition processing.
  • the information processing apparatus 10 changes the position of the processing target portion in the image area according to the inclination of the moving surface in front of the path of the moving body with respect to the posture of the moving body, thereby determining the control content of the driving assistance or the automatic driving. Object detection using the results can be performed for an appropriate range of heading.
  • the technology according to the present disclosure can be applied to various moving bodies other than the automobile.
  • the invention can be applied to vehicles other than automobiles such as railway cars and other vehicles that run on tracks, ships, and aircraft.
  • the technology according to the present disclosure can be applied to a moving body that is not a vehicle such as a drone.
  • the “moving surface” in front of the route of a moving body that does not move on the road surface such as a ship, an aircraft, and a drone is not a virtual plane similar to the road surface as described above, but is set, for example. It is captured based on the estimated trajectory of the surface of the moving body traveling along the route.
  • the concept of a vehicle in the present disclosure includes a three-wheeled vehicle, a two-wheeled vehicle, and a vehicle that travels on an endless track.
  • the inclination of the moving surface in front of the path of the moving body with respect to the posture of the moving body which is described in the description of the embodiment, can be represented by a rotation (pitch) angle about an axis in the left-right direction with respect to the straight traveling direction of the moving body.
  • the application of the technology according to the present disclosure is not limited to this.
  • the technology according to the present disclosure can also be applied to determination and change of a processing target portion according to an inclination that can be represented by a rotation (roll) angle around an axis of a moving body in a straight traveling direction.
  • FIG. 8 is a schematic diagram illustrating an example of a processing target portion that is determined when the inclination of the moving surface of the front of the moving body with respect to the own-machine attitude is inclined clockwise.
  • the processing target portion is also determined so as to cover a portion that is rotated clockwise from the processing target portion illustrated in FIG. 5A.
  • the technology according to the present disclosure is also applicable to a case where the inclination of the moving surface in front of the path of the moving body with respect to the own posture is represented by a combination of the pitch angle and the roll angle. In that case, as shown in FIG. The position of the white parallelogram-shaped processing target portion comes closer to the upper end or the lower end of the image region.
  • the inclination of the moving surface in front of the path of the moving body with respect to the own-machine attitude is described as an example in which the inclination is caused by the change in the inclination of the road surface running along the terrain, but is not limited to this.
  • this inclination may be caused by external force such as resistance of water or air, waves or wind.
  • the helicopter and the drone that are moving take a posture of leaning in the traveling direction due to the operation principle.
  • this inclination may be caused by a change in the posture of the vehicle due to the number of passengers on the moving body or the weight and arrangement of the loaded luggage.
  • the technology according to the present disclosure can also be used to deal with such a tilt.
  • the image captured by the vehicle-mounted camera is illustrated as an image captured by a normal lens with little distortion of the image shape for ease of illustration and understanding.
  • the application of the technology of the present disclosure is not limited thereto.
  • the technology according to the present disclosure may be used in combination with an image captured using a lens classified as wide-angle or ultra-wide-angle, or a fisheye lens.
  • the shapes are greatly different depending on whether the image is captured in the vicinity of the center of the image or in the peripheral portion.
  • the object detection processing unit 14 includes a plurality of learned models so that image recognition can be appropriately performed in accordance with such a variation in the shape of the image. Image recognition may be performed by switching to a trained model trained specifically for image recognition at a position.
  • the third sensing data is image data output from the image sensor, but the third sensing data is not limited to image data.
  • the technique of the present disclosure can be applied to other types of data indicating a position in space, such as point cloud data output from LiDAR.
  • a multilayer neural network may be used as the learned model.
  • the processes for the detection frames having different sizes are executed.
  • the detection frame of each intermediate layer may have a size suitable for detecting an object image of a detection target existing at a predetermined distance from (the third sensor such as a camera installed in) the moving body.
  • the size of the detection frame of the third middle layer from the input layer is suitable for detecting pedestrians 30 meters ahead, and the detection frame of the fifth middle layer is smaller, suitable for detection of pedestrians 80 meters ahead.
  • the distance from the moving body (or the third sensor) to the portion of the moving surface in front of the route that is tilted with respect to the own-machine attitude is known, and the moving body (or the third body) for which each layer of the learned model is suitable. If the distance from the sensor) is known, the processing target part is determined according to the tilt. In each layer of the learned model, the moving surface that is further forward from the distance to the start position tilts with respect to the posture of the aircraft. It may be selectively carried out on a layer suitable for the range.
  • the embodiment uses an example in which both the first sensing data and the second sensing data are used for the determination regarding the inclination of the moving surface in front of the path of the moving body with respect to the own posture (for example, step S43 in FIG. 4). It explained using.
  • This determination may be made using only one of the first sensing data and the second sensing data. For example, by using the determination result of the road surface area by the segmentation with respect to the image data that is the first sensing data, there is a pixel that is determined to be a road surface area having a predetermined size or more above a certain area where a horizontal road surface appears.
  • the inclination may be positive, or if there is a pixel which is determined to be a road surface area having a predetermined size or less only below the certain area, it may be determined to be a negative inclination.
  • a stereo camera acquires data of a depth image in front of the route of the moving body, and the determination is performed based on the inclination calculated from the change in the distance to the road surface shown in the depth image. May be.
  • the inclination of the roll angle is determined based on the direction in the image area of the vertical component or the horizontal component included in the image data obtained by capturing the image of the front of the moving body that is the first sensing data. Good.
  • this determination is performed using this 3D map information and data indicating the current position of the moving body (second sensing data) output from the positioning system. May be performed.
  • this determination may be performed using a machine learning model that is learned from the image data that is the first sensing data so that the inclination of the moving surface with respect to the own posture can be determined.
  • the moving surface may be a stepped surface.
  • the slope of the stairs is calculated based on the point cloud information obtained from LiDAR.
  • the tilt of the moving surface with respect to the posture of the moving body is calculated based on the calculated gradient and the posture of the moving body.
  • the device in which the third sensor that outputs the sensing data used for the object detection process is mounted is the moving body
  • the device may be a device in which the posture of a movable part including at least the third sensor is variable without moving.
  • it may be a surveillance camera system in which the attitude of the camera is variable.
  • a case of a floor surface (ground surface or stairs or step surface of an escalator) included in the sensing area of the third sensor is included.
  • a wall surface, or a ceiling surface, or the like, and the concept of the attitude of the third sensor or the movable part is used instead of the concept of the own-machine attitude.
  • the system LSI is a super-multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a microprocessor, a ROM (Read-Only Memory), a RAM (Random Access Memory). It is a computer system configured to include the above. A computer program is stored in the ROM. The system LSI achieves its function by the microprocessor operating according to this computer program.
  • the system LSI is used here, but it may also be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration. Further, the method of circuit integration is not limited to LSI, and it may be realized by a dedicated circuit or a general-purpose processor.
  • a field programmable gate array (FPGA) that can be programmed after the LSI is manufactured, or a reconfigurable processor capable of reconfiguring the connection and setting of circuit cells inside the LSI may be used.
  • Such a system LSI or the like can be incorporated into various in-vehicle systems such as a digital camera, a portable information terminal with a camera such as a smartphone, a back monitor system, an advanced driving support system including an object detection function, or the like.
  • each of the above-described information processing apparatuses are the same as those of each of the above-described information processing apparatuses, for example, each including a processor and a memory, and a plurality of computers that can communicate with each other operate in cooperation. It may be realized as a component of an information processing system that provides a function. In this case, for these components, for example, part or all of the processors included in these computers execute one or more programs stored in part or all of the memories included in these computers. Will be realized in.
  • One aspect of the present disclosure may be an information processing method including not only the above-described information processing apparatuses but also characteristic functional components included in the information processing apparatuses as steps.
  • This information processing method is, for example, the information processing method described above with reference to the flowchart of FIG.
  • one aspect of the present disclosure may be a computer program that causes a computer to execute the characteristic steps included in such an information processing method.
  • one aspect of the present disclosure may be a computer-readable non-transitory recording medium in which such a computer program is recorded.
  • the technology according to the present disclosure can be widely used for information processing for image recognition using sensing data, and is used, for example, for detecting an object around a moving body that is driving assistance or autonomously moving and in the traveling direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

プロセッサを備える情報処理装置(10)では、このプロセッサが、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及びこの装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、第1センシングデータ及び第2センシングデータの少なくとも1つに基づいて、第3センサのセンシング方向における面の、装置の姿勢に対する傾きを判定し、第3センサから出力され、第3センサのセンシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、判定された傾きに応じて決定し、第3センシングデータの決定された処理対象部分を用いて物体検出処理を実行する。

Description

情報処理装置、プログラム及び情報処理方法
 本開示は、情報処理装置、プログラム及び情報処理方法に関する。
 車載カメラで撮影して得られた駐車場画像における車両像の認識を、車両像の最上方の輪郭の位置に基づいて設定した検出対象領域内で行うことで駐車場の空車枠を特定する技術が提案されている(特許文献1参照)。
特開2017-90987号公報
 従来の技術では、物体検出にかかる処理量の削減効果が抑制されてしまうおそれがある。例えば、物体検出処理の前処理として物体の輪郭を検出する必要がある。また、物体が存在しない場合には検出対象領域を設定することが難しい。そのため、物体の輪郭を検出する処理が重い場合、または物体が存在しない場合には、処理量の削減量が低下するか、又は処理量が削減されないことになる。
 本開示は、物体検出にかかる処理量の削減効果を向上させることができる情報処理装置、プログラム及び情報処理方法を提供することを目的とする。
 本開示の一態様に係る情報処理装置は、プロセッサを備える情報処理装置であって、前記プロセッサは、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行するように構成される。
 また、本開示の一態様に係るプログラムは、プロセッサを備える情報処理装置において、前記プロセッサによって実行されることで前記プロセッサに、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得させ、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定させ、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定させ、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行させるプログラムである。
 また、本開示の一態様に係る情報処理方法は、プロセッサが、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行する情報処理方法である。
 本開示の一態様に係る情報処理装置、プログラム及び情報処理方法は、物体検出にかかる処理量の削減効果を向上させることができる。
図1は、自動車の前方の映像で検出対象の物体像が検出された領域と検出されなかった領域とを示す模式図である。 図2Aは、移動体の経路前方の移動面が移動体の姿勢基準面に対して傾いていない状況の一例、及び、移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。 図2Bは、移動体の経路前方の移動面が移動体の姿勢基準面に対して傾く状況の一例、及び、移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。 図2Cは、移動体の経路前方の移動面が移動体の姿勢基準面に対して傾く状況の他の例、及び、移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。 図3は、実施の形態に係る情報処理装置の構成例を示すブロック図である。 図4は、上記の情報処理装置による、画像認識処理の対象データの処理対象部分を決定するための処理の手順例を示すフロー図である。 図5Aは、移動体の経路前方の撮影によって取得され、上記の情報処理装置に入力される画像の例を示す模式図である。 図5Bは、図5Aに示す画像における画像認識処理の処理対象部分の例を示す模式図である。 図6Aは、移動体の経路前方の撮影によって取得され、上記の情報処理装置に入力される画像の他の例を示す模式図である。 図6Bは、図6Aに示す画像で、上にシフトされた処理対象部分の例を示す模式図である。 図7Aは、移動体の経路前方の撮影によって取得され、上記の情報処理装置に入力される画像の他の例を示す模式図である。 図7Bは、図7Aに示す画像で、下にシフトされた処理対象部分の例を示す模式図である。 図8は、移動面の自機姿勢に対する傾きの方向が、ロール角で表される場合に決定される処理対象部分の例を示す模式図である。
 (本開示の基礎となった知見)
 自動車をはじめとする近年の移動体には、操縦の支援又は自律移動(自動運転)の機能を備えるものがある。そしてこのような機能には、移動体の進行方向をセンシングするセンサが出力するデータを用いての物体検出の結果を利用するものがある。このような物体検出は、例えばイメージセンサから出力される画像データを用いての画像認識によって行われる。この画像認識は、ディープラーニング等の昨今の機械学習の技術の応用分野のひとつでもあり、改良のための研究が日々なされている。その研究において、画像認識処理の高速化又は画像認識処理に要する消費電力の低減のための一手法として検討されるものに計算量の削減がある。例えば、画像処理装置への入力画像に対する画像認識処理の前処理として、当該入力画像をクロッピングすることで所定の領域を除去して画像認識処理の対象から除外することで計算量を削減することができる。
 図1は、平坦な道路を走る自動車に設置したカメラで撮影して得られた画像群において、歩行者又は障害物等の検出対象の物体像が検出された領域及び検出されなかった領域を示す模式図である。図中の破線で区切られた区画は、カメラで撮影された画像の領域全体を、複数の画素を含む所定の大きさのセルに区切ったものである。ここでいうセルはカメラで撮影された画像を任意の倍率でダウンサンプルした画素と同じ意味を表す。そして検出対象の物体像を含む検出枠内に1回以上含まれた画素の領域は白で、検出枠内に1回も含まれなかった画素の領域は網掛けで示されている。図1からは、検出対象の物体像は凡そ画像領域内で上下方向の中央(図中の一点鎖線)近辺に位置することがわかる。つまり、網掛けの領域は、検出対象の物体像が写らない領域又は結果に寄与しない領域と言い得る。上記の前処理としてのクロッピングは、検出対象の物体像の入力画像における位置のこのような傾向を踏まえて行われるもので、画像領域の上下端それぞれからある程度の領域(例えば図中「除去対象」の2領域)が除去される。そして、前処理の結果残る、元の画像領域の中央付近に位置していた領域(例えば図中「物体検出の処理対象」の領域)を画像認識処理の対象とすることで、画像領域全体を画像認識処理の対象とする場合に比べて計算量が削減される。
 しかしながら、上記の考え方に基づいて画像認識処理の対象の領域を決定すると、移動体の移動中に、例えば経路の起伏、又は移動体の姿勢の変化のために、画像内における検出対象の物体像が写り得る領域が変化したときに、この領域の外に写った検出対象の物体像は画像認識処理の対象の領域から外れるという問題が生じる。
 発明者はこの問題を解決すべく鋭意検討を重ね、検出対象の物体像が写り得る領域の変化に応じて画像認識処理の対象の領域(又は前処理で画像認識処理の対象から除外する領域)を変化させることが可能な下記の情報処理装置、プログラム及び情報処理方法に想到した。
 本開示の一態様に係る情報処理装置は、プロセッサを備える情報処理装置であって、前記プロセッサは、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行するように構成される。
 例えば、上述の事例のように装置が移動体である自動車であり、この自動車には、現在の位置及びこの位置から続く経路前方の視界内の路面が水平である場合に、経路前方に存在する検出対象の物体像が画像の上下中央付近の領域に写るよう、第3センサであるカメラが設置されているとする。ここで、直進姿勢の自動車の前後方向及び左右方向に平行であって、上下方向に対して垂直な面(ただしこれらの方向は、この自動車の設計上の直進方向を前として決まるものであって、当該自動車の姿勢、つまり当該自動車のタイヤが接地している面の傾斜によって変化するものであり、前後方向は水平方向には限定されず、上下方向は鉛直方向には限定されない。以下、この面を自動車の姿勢基準面という。)は、移動経路前方の路面(ただし、路面の多少の凹凸は均して近似する仮想的な平面で捉える。以下、この平面を移動面ともいう。)と平行である。つまり、この移動面は姿勢基準面に対して傾いていない。図2Aは、このように移動体の経路前方の移動面が姿勢基準面に対して傾いていない状況の例、及び移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。図2A内の自動車から伸びる破線は、このカメラの撮影範囲の上下端を示す(後述の図2B及び図2Cでも同じ)。この状況でこのカメラによって撮影される画像では、自動車の前方にいる検出対象の例である人物の像は例えば図中の吹き出し内に示すよう写る。図中で画像領域を横断する一点鎖線は、この画像領域の高さの二等分線である(後述の図2B及び図2Cでも同じ)。上記の構成を有する情報処理装置は、このような状況において画像の上下方向の中央付近を処理対象部分として決定して物体検出のための画像認識処理に用い、他の部分に対しては画像認識処理を行わない。
 これに対し、現在は水平な場所を走るこの自動車の進行方向の先に上り坂がある場合、この上り坂にいる歩行者等の検出対象の物体像は、画像の上下方向の中央付近より上方の領域にも写ることがある。この場合、移動面は姿勢基準面に対して傾いている。図2Bは、移動体の経路前方の移動面が姿勢基準面に対してこのように傾く状況の一例、及び移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。この例では、自動車の前方にいる検出対象の物体像は、図2Aに示す状況と比較して画像の上方に寄る。上記の構成を有する情報処理装置は、このような状況において画像の上寄りの一部を処理対象部分として決定して物体検出のための画像認識処理に用い、他の部分に対しては画像認識処理を行わない。
 また、現在は上り坂を走るこの自動車の進行方向の先に水平な道路がある場合、この水平な部分にいる歩行者等の検出対象の物体像は、画像の上下中央付近より下方の領域にも写ることがある。この場合もまた、移動面は姿勢基準面に対して傾いている。図2Cは、移動体の経路前方の移動面が姿勢基準面に対してこのように傾く状況の他の例、及び移動体に設置されたカメラがこの状況で撮影する画像を説明するための模式図である。この状況でこのカメラによって撮影される画像では、例えば図中の吹き出し内に示すように、自動車の前方にいる検出対象の物体像は、図2Aに示す状況と比較して画像の下方に寄る。上記の構成を有する情報処理装置は、このような状況において画像の下寄りの一部を処理対象部分として決定して物体検出のための画像認識処理に用い、他の部分に対しては画像認識処理を行わない。
 このように、移動体の姿勢基準面に対する移動体の移動経路前方の移動面の傾き(以下、移動体の自機姿勢に対する移動経路前方の移動面の傾き、又は簡易的に、移動体に対する移動面の傾きのように表現する場合がある。自機姿勢については後述。)に応じて、第3センシングデータの画像認識処理の対象となる部分が変更される。つまり、画像認識処理の対象から除外される部分を上記の傾きに応じて動的に変化させることで、第3センシングデータのうちで検出対象の物体を示す部分が物体検出処理の対象の部分から外れる可能性を抑えながら、計算量を抑えた効率のよい物体検出処理が実現される。
 また、前記プロセッサは、前記傾きが所定の範囲以内である場合、前記第3センシングデータの一部を前記処理対象部分として決定し、前記傾きが前記所定の範囲を超える場合、前記第3センシングデータの前記一部より広い部分を前記処理対象部分として決定し、さらに、前記傾きが前記所定の範囲を超える場合、前記物体検出処理の処理周期を前記傾きが前記所定の範囲以内である場合よりも長くしてもよい。また、前記装置は、移動体であり、前記プロセッサは、さらに、前記傾きが前記所定の範囲を超える場合、前記移動体に減速を要求してもよい。また、前記装置は、移動体であり、前記プロセッサは、さらに、前記傾きが前記所定の範囲を超える場合、前記移動体の使用者に警告を通知してもよい。
 移動体に対する移動面の傾きの大きさによっては、第3センシングデータの一部のみでは、検出対象の物体を示す部分が含まれていない状況が発生する場合がある。このような場合には、第3センシングデータの全体を物体検出処理の対象として用いることで検出対象の物体が未検出に終わる可能性が抑えられる。なお、第3センシングデータの全体に対する物体検出処理では、移動体の安全な移動に必要な精度を得るために、一部のみに対する物体検出処理よりも長い時間が必要な場合がある。そして、この物体検出処理にかかる時間によっては、移動体の安全確保のためにさらに移動体の速度が落とされてもよい。また、物体検出処理の速度に影響がある状況であることを警告によって移動体の使用者に通知することで、使用者自身が移動体を減速させたり、経路の変更を検討したりする機会を与えることができる。
 また、さらに、前記物体検出処理の信頼度に影響を及ぼす要素に応じて、前記処理対象部分のサイズを変更してもよい。
 第3センサによる第3センシングデータの取得時の装置の状態又はその周囲の状況によっては、物体検出処理の結果の信頼度が低下する場合がある。例えば、第3センシングデータが画像データである場合に、装置が移動体であって比較的高速で移動しているとき、又は装置の姿勢が比較的頻繁に変動するときには、そうでないときに比べて、画像において検出されるべき対象の像の位置が変動しやすい。したがって、第3センシングデータのうちで物体検出処理の対象として用いられる部分が少ないほど、検出されるべき対象が未検出に終わる可能性が高い、すなわち、物体検出処理の結果の信頼度が低い。この構成のように、第3センシングデータのより多くの部分、例えば画像のより広い領域を用いて物体検出処理することで信頼度の低下が抑えられる。
 また、前記物体検出処理は、前記処理対象部分を1つ以上の学習済みモデルに入力することにより実行されてもよい。また、前記1つ以上の学習済みモデルは、複数の学習済みモデルであり、前記プロセッサは、前記複数の学習済みモデルから前記傾きに応じて選択した学習済みモデルに前記処理対象部分を入力してもよい。
 第3センシングデータのうち、装置の姿勢に対する面の傾きに応じて物体検出処理の対象として用いられる部分によって、検出対象の物体のデータへの表れ方が異なる場合がある。例えばカメラで撮影された画像では、同じ物体でも画像の中心に近い部分に写る場合と周辺に近い部分に写る場合とで像の形状が異なり、画角のより大きなレンズを用いて撮影された画像ではこの差異がより顕著になる。上記の構成によれば、このような差異に対応した個別のモデルを用いることで物体検出の精度の向上を図ることができる。
 また、前記学習済みモデルは、多層ニューラルネットワークであり、前記プロセッサは、さらに、前記装置から前記傾きの起点までの距離を取得し、前記距離に応じた前記学習済みモデルの層について、前記処理対象部分を決定してもよい。
 これにより、装置の姿勢に対して傾く、第3センサのセンシング方向の面上で装置から異なる距離に存在し得る検出対象の物体を、より精度よく検出することができる。
 なお、前記プロセッサは、前記処理対象部分を、前記傾きに応じて前記処理対象部分をシフトすることで決定してもよい。
 また、本開示の一態様に係るプログラムは、プロセッサを備える情報処理装置において、前記プロセッサによって実行されることで前記プロセッサに、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得させ、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定させ、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定させ、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行させるプログラムである。
 これにより、第3センシングデータのうちで検出対象の物体を示す部分が物体検出処理の対象の部分から外れる可能性を抑えながら、計算量を抑えた効率のよい物体検出処理が実現される。
 また、本開示の一態様に係る情報処理方法は、プロセッサが、第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行する情報処理方法である。
 これにより、第3センシングデータのうちで検出対象の物体を示す部分が物体検出処理の対象の部分から外れる可能性を抑えながら、計算量を抑えた効率のよい物体検出処理が実現される。
 なお、本開示の包括的又は具体的な態様は、システム、集積回路、又はCD-ROM等のコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、本開示の一態様に係る情報処理装置、プログラム及び情報処理方法の具体例について、図面を参照しながら説明する。ここで示す実施の形態は、いずれも本開示の一具体例を示すものである。従って、以下の実施の形態で示される数値、形状、構成要素、構成要素の配置及び接続形態、並びに、ステップ(工程)及びステップの順序等は、一例であって本開示を限定するものではない。以下の実施の形態における構成要素のうち、本開示の一形態に係る実現形態を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。本開示の実現形態は、現行の独立請求項に限定されるものではなく、他の独立請求項によっても表現され得る。また、各図は本開示に係る概念を説明するための模式図であり、各図に表されるものの形状、個数、配置、縮尺及び大小関係等は必ずしも厳密なものではない。
 (実施の形態)
 [1.情報処理装置の構成]
 図3は、実施の形態に係る情報処理装置の構成例を示すブロック図である。本実施の形態に係る情報処理装置10は、自動車等の移動体が備える物体検知システム1の一構成要素であり、物体検知に用いるセンシングデータの入力を受ける。また、センシングデータに基づいて、移動体の移動経路前方の移動面の移動体に対する傾きを判定し、センシングデータのこの傾きに応じて決定する部分を用いて物体検知を実行する。
 このように機能する情報処理装置10は、図3に示されるように、周辺状況判断部11、自機姿勢判断部12、領域変更部13、物体検出処理部14、処理周期変更部15、及び速度変更通知部16を備える。
 情報処理装置10は、例えばプロセッサ及びメモリを含むマイクロコントローラによって実現され、これらの構成要素は、メモリに記憶される1個又は複数個のプログラムをプロセッサが実行することで実現される機能的な構成要素である。各構成要素については後述する。このマイクロコントローラは、例えば車載ネットワークシステムを構成するECU(Electronic Control Unit)の構成部品として、移動体である自動車に搭載される。本開示に係る情報処理装置は多様な移動体で有用に使用することができるが、以下では、自動車に搭載されるECUのマイクロコントローラとして実現されている情報処理装置10を主な例に用いて本実施の形態を説明する。
 情報処理装置10には、ソナーセンサ又は車載カメラのイメージセンサ等の周辺状況センサ20、LiDAR(Light Detection And Ranging又はLaser imaging Detection And Ranging)30、及びジャイロセンサ等の傾きセンサ40が出力するセンシングデータが入力される。また、自動車の現在の位置又は姿勢を取得する位置・姿勢取得部50から位置・姿勢情報、図示しない車載のカーナビゲーションシステムに含まれる地図情報60も情報処理装置10にとって利用可能であってもよい。また、さらに自動車の現在の速度、又は自動車周辺の明るさ(照度)などの情報も入力されてもよい(図中の速度,照度70)。これらのデータ及び情報の処理については、以下の情報処理装置10の各構成要素及び情報処理装置10による処理の手順の説明の中で述べる。
 周辺状況判断部11は、周辺状況センサ20又はLiDAR30から出力されるセンシングデータを用いて自動車の周辺状況を判断する。ここでの周辺状況とは、自動車の経路前方、つまりこれから走行する路面の形状又は路面の傾斜の方向及び大きさを示すデータを指す。このような周辺状況の判断の対象である経路前方の路面は、本実施の形態における移動面の例である。また、この周辺状況の判断に周辺状況判断部11が用い得るのは、これらのセンシングデータに限定されない。例えば、位置・姿勢取得部50から提供される自動車の現在の位置の情報と、地図情報60が含む地形又は道路の形状を示す情報とが用いられてもよい。地図情報60では、地形又は道路の形状は標高の情報で表されてもよいし、地図情報60が3次元地図情報である場合には、より具体的な立体形状の情報で表されてもよい。自動車の位置がわかれば、このような地図情報60とあわせて、その位置におけるこの自動車の経路前方の路面の形状の情報が取得可能である。
 位置・姿勢取得部50は、情報処理装置10で、又は情報処理装置10と通信可能に接続されている、プロセッサ及びメモリを含む他の情報処理装置で、プロセッサがプログラムを実行することで実現される機能的な構成要素である。位置・姿勢取得部50は、LiDAR30、図示しないGPS(Global Positioning System)等の測位システムの受信機から出力される情報若しくは地図情報60等、又はこれらの情報を組み合わせて用いて、自動車の位置及び姿勢の一方又は両方を取得する機能を有する。
 自機姿勢判断部12は、傾きセンサ40又はLiDAR30から出力されるセンシングデータを用いて自機姿勢を判断する。傾きセンサ40は、自動車が備えるもの、例えばカーナビゲーションシステムに含まれるものであってもよいし、自動車に設置されるカメラ(以下、車載カメラともいう)が備えるものであってもよい。
 ここでの自機姿勢とは、自動車の姿勢、又は車載カメラ若しくは車載カメラに相当する車載のセンサ類(後述の第3センサ)の姿勢を指す。車載カメラと自動車との間の相対的な姿勢は車載カメラの自動車への設置の際に取得可能であるため、一方の姿勢がセンシングデータを用いてわかれば、他方の姿勢も算出可能である。例えば自機姿勢は、自動車の車体に関して定義可能である固定的な仮想線又は仮想面、例えば上述の姿勢基準面の、鉛直線に対する傾斜の方向及び大きさで表すことができる。自機姿勢の表し方の別の例として、車載カメラに関して定義可能である固定的な仮想線又は仮想面、例えば光軸に平行な線又はイメージセンサの受光面に平行な面の、鉛直線に対する傾斜の方向及び大きさであってもよい。なお、自機姿勢判断部12が自機姿勢の判断に用いるのは、これらのセンシングデータに限定されない。例えば、位置・姿勢取得部50から提供される自動車の現在の位置の情報と、地図情報60が含む地形又は道路の形状を示す情報とが用いられてもよい。なお、本開示における自動車(移動体)の位置という表現は、移動体が占める空間内で任意に設定され得る基準位置を指し、例えばこの基準位置は車載カメラ又は後述の第3センサの位置であってもよい。
 領域変更部13は、周辺状況判断部11の判断結果である周辺状況と、自機姿勢判断部12の判断結果である移動体の自機姿勢とに基づいて、自機姿勢に対する移動面の傾きを判定する。そして、車載カメラから入力されたセンシングデータ、つまりこの例では画像データの、物体検出処理部14による画像認識処理の対象である部分(以下、単に処理対象部分ともいう)とする領域を、判定したこの傾きに応じて決定する。領域変更部13は、自機姿勢が自動車の姿勢又は車載カメラの姿勢のいずれであるかにかかわらず、判定結果であるこの傾きに対応する処理対象部分を決定することができる。例えば領域変更部13を実現するプログラムで、判定結果である傾きの方向に応じて処理対象部分を移動させる方向が規定されており、判定した傾きの方向に応じて処理対象部分が決定される。または、情報処理装置10が備えるメモリに、判定結果である傾きの方向及び大きさと、画像データが示す画像領域上の処理対象部分を示す座標との対応付けを示すテーブルが保持されており、傾きを判定した領域変更部13は、このテーブルを参照して対応する座標を取得することで処理対象部分を決定してもよい。
 領域変更部13から物体検出処理部14には、例えばこの処理対象部分を残すように領域変更部13が上記のクロッピングを施した画像データが入力されてもよい。または、領域変更部13から物体検出処理部14には、クロッピングされていない画像データと、座標等の処理対象部分の範囲を示す情報とが入力されてもよく、物体検出処理部14がクロッピングするか、または単に、この情報が示す処理対象部分の範囲のみに対して画像認識処理を実行してもよい。処理対象部分に変更が生じた場合は、新たな処理対象部分を示す座標などの情報が領域変更部13から物体検出処理部14に入力されてもよいし、処理対象部分をシフトさせるための情報(方向、移動量)が入力されてもよい。
 また、領域変更部13はさらに、処理対象部分の大きさを決定してもよい。決定される処理対象部分の大きさは、画像データの領域全体である場合も含まれる(クロッピングを実行しないという決定と同等)。処理対象部分の大きさは、例えば判定した上記の傾きの大きさに応じて決定される。または、移動体の速度、移動体の周囲若しくは経路前方の明るさ又はこれらの変化若しくは差異に応じて決定されてもよい。これらの情報は、物体検知の信頼度に影響し得る要因である。一つ具体的な例を挙げると、立体駐車場では、特に好天時の日中等に、中と外とで明るさが大きく異なることがある。そのため、立体駐車場の出口に向かう自動車の車載カメラで撮影された画像の中に、出口の外に存在する検出対象の物体が画像認識処理で認識可能なように表れない場合がある。これらの傾き、速度、又は明るさに関する条件のいずれの場合も、下記の物体検出処理部14による画像認識処理が、移動体の安全な移動に必要な信頼度で実行されるように決定される。より具体的には、領域変更部13は、現在の大きさの処理対象部分では必要な信頼度が得られない場合に、処理対象部分を拡大する。なお、移動体の速度は、例えば自動車ではセンサで計測される車軸の回転数から車速を算出するECUから取得されるなど、移動体の種類に応じた速度計測手段から取得されてもよい。または、移動体が備える測位システムで取得される位置情報、又はカメラが撮影する画像から推定されるオプティカルフローに基づいて算出される速度が用いられてもよい。明るさは、移動体に設置されるカメラが撮影する画像のデータに基づいて取得されてもよいし、移動体が別途備える明るさセンサが出力するセンシングデータが用いられてもよい。なお、画像認識処理の信頼度が低下する要因は上記に限定されず、他の例としては経路の形状、硬さなどの状態、又は風による移動体の揺れ又は振動が挙げられる。
 また、領域変更部13は、上記のように処理対象部分を拡大した場合、物体検出処理部14による画像認識処理の周期を必要に応じて長くしてもよい。決定された画像処理の周期は、後述の処理周期変更部15に通知される。またさらに、領域変更部13は、処理周期の長期化に加えて、又は代えて、移動体を減速させる決定をしてもよい。この減速の決定をした領域変更部13は、移動体の速度を制御する制御装置、例えば駆動機構を制御するECU若しくはブレーキECU、又はその両方に対する減速の指示又は要求を出力する。
 物体検出処理部14は、領域変更部13が決定した画像データの処理対象部分に対して、画像検出又はセグメンテーション等の画像認識処理を実行する。例えば物体検出処理部14は画像認識の訓練によって得られた学習済みモデルを含み、この画像認識処理は、画像データの上記の処理対象部分をこの学習済みモデルに入力することで実行される。物体検出処理部14が出力する画像認識処理の結果は、例えば自動車の運転支援システム又は自動運転システムによって、運転制御又は使用者への通知のための判断に利用される。
 処理周期変更部15は、上述の領域変更部13からの通知を受け、この通知に従って物体検出処理部14による画像認識処理の処理周期を変更させる。また、この変更の実行について、処理周期変更部15から下記の速度変更通知部16に通知する。
 この通知を処理周期変更部15から受けた速度変更通知部16は、自動車の使用者にこの変更に関する情報を提示する。この情報は、例えば、処理周期が変更されたこと及びその影響に関する警告のために提示される。または、使用者に何らかの操作等の行動を促すものであってもよい。情報の提供は、例えばモニタ若しくはインストルメントパネル等の車載の表示装置での表示、又はスピーカーからの警告音若しくは音声を用いて行われる。
 なお、上記の説明において、機能的な構成要素が取得するセンシングデータのソースである数種類のセンサを挙げたが、各機能的な構成要素にとっての上述のセンシングデータのソースは図3に示されるだけの限定的なものではない。例えば車載カメラのイメージセンサは、周辺状況判断部11にセンシングデータを提供する周辺状況センサ20として機能し得るが、そのセンシングデータは自機姿勢判断部12による自機姿勢の判定にも用い得るし、さらに画像認識の対象になるデータでもある。また、LiDARの出力するデータは、上述のとおり周辺状況のセンシングデータでもあり、移動体の姿勢の判断に用いられるデータでもあって、さらに点群データとして、上記の画像データに代えて、又は加えて、移動経路前方にある物体の検知に用いられてもよい。上記で例示していないセンサ(例えば各種の深度センサ)も含めて各種のセンサは、出力するセンシングデータどうし、又は位置情報及び地図情報等の他の情報との組み合わせで利用される場合も含めて、周辺状況の判断に用いられるセンシングデータを出力するセンサは、本開示における第1センサ、自機姿勢の判断に用いられるセンシングデータを出力するセンサは本開示における第2センサ、移動体の移動方向前方の物体検知処理の対象のセンシングデータを出力するセンサは本開示における第3センサとして意図されるところである。
 [2.動作]
 次に、上記のように構成される情報処理装置10の動作について、引き続き自動車に搭載されている場合を例に説明する。図4は、情報処理装置10が実行する、画像認識処理の対象であるデータの処理対象部分を決定するための処理の手順例を示すフロー図である。
 (S40)情報処理装置10は、第1センサ、第2センサ及び第3センサからセンシングデータ(以下、それぞれから取得されるセンシングデータを、第1センシングデータ、第2センシングデータ、第3センシングデータともいう)を取得する。位置・姿勢取得部50又は地図情報60からの情報が取得されてもよい。また、この例では、情報処理装置10は自動車の速度又は自動車周辺の明るさの情報も取得する。
 (S41)周辺状況判断部11は、第1センシングデータに基づいて自動車の周辺状況、つまり自動車の経路前方の移動面の形状等を判断する。
 (S42)自機姿勢判断部12は、第2センシングデータに基づいて自機姿勢を判断する。
 (S43)領域変更部13は、周辺状況及び自機姿勢に基づいて、自動車の経路前方における移動面が自機姿勢に対して傾いているか否か判定する。傾いていない場合(S43でNo)、第3センシングデータの処理対象部分は変更しないで処理対象部分の決定の手順は終了する。つまり、第3センシングデータが画像データであれば、この画像データのうち、自動車の経路前方における移動面が自機姿勢に対して傾いていない状況に対して設定済みの処理対象部分に、物体検出処理部14による画像認識処理が実行される。この例では、この設定済みの処理対象部分は、画像の上下方向中央付近であるとする。図5Aは、車載カメラから情報処理装置10に入力された第3センシングデータが示す画像の例を示す模式図である。図5Bは、図5Aに示す画像の領域全体の中での上記の設定済みの画像認識処理の処理対象部分の例を示す模式図である。図5Bにおいて、上下端それぞれに沿う網点が施されている矩形の領域は例えばクロッピング処理で除去される部分を示し、網点が施されていない、クロッピング処理前の画像で上下方向中央付近に位置する部分が物体検出処理部14による画像認識処理の対象である。傾いている場合(S43でYes)、処理はステップS44へ進められる。
 (S44)領域変更部13は、ステップS43で判定した傾きの方向を取得する。この例では、自動車がステップS43で傾いていると判断された移動面に前進すると、車体の前端が現在の位置に比べて上向きになる傾きの方向を正方向とする。言い換えると、自動車にとって後転する方向を正方向とする。具体的には、経路が水平又は下りから前方で上りに変わる場合、下りが前方で水平に変わる場合、上りの勾配が前方で急になる場合、及び下りの勾配が前方で緩くなる場合である。この例ではまた、自動車がステップS43で傾いていると判断された移動面に前進すると、車体の前端が現在の位置に比べて下を向く傾きの方向を負方向とする。言い換えると、自動車にとって前転する方向を正方向とする。具体的には、経路が上りから前方で水平又は下りになる場合、水平から前方で下りに変わる場合、下りの勾配が前方で急になる場合、及び上りの勾配が前方で緩くなる場合である。つまり、図2Bに示した例では、傾きの方向は正方向であり、図2Cに示した例では、傾きの方向は負方向である。正方向の場合、処理はステップS45へ進められる。負方向の場合、処理はステップS46へ進められる。
 (S45)領域変更部13は、画像認識処理の処理対象部分を上にシフトする。処理はステップS47へ進められる。
 (S46)領域変更部13は、画像認識処理の処理対象部分を下にシフトする。処理はステップS47へ進められる。
 (S47)領域変更部13は、画像認識処理の信頼度が低下する要因があるか否か判定する。
 例えば、領域変更部13はさらに、ステップS43で判定された傾きは、その大きさが所定の範囲以内であるか否か判定し、所定の範囲以内の場合(S47でNo)、処理対象部分の決定の手順は終了する。傾きの大きさが所定の範囲を超える場合(S47でYes)、処理はステップS48へ進められる。
 また例えば、領域変更部13は、ステップS40で情報処理装置10が取得する自動車の車速は所定の範囲以内であるか否か判定してもよい。車速が所定の範囲以内の場合(S47でNo)、処理対象部分の決定の手順は終了する。車速が所定の範囲を超える場合(S47でYes)、処理はステップS48へ進められる。
 また例えば、領域変更部13はステップS40で情報処理装置10が取得する自動車の周囲の明るさは所定の照度以下であるか否か判定してもよい。明るさが所定の照度を超える場合(S47でNo)、処理対象部分の決定の手順は終了する。明るさが所定の照度以下である場合(S47でYes)、処理はステップS48へ進められる。
 (S48)領域変更部13は、画像認識処理の処理対象部分を拡大する。
 以上が、情報処理装置10への入力に対する処理の一手順例である。この処理は、上記の情報処理装置10の構成要素が各々の機能を実行することで実現される。
 なお、手順の全体像の理解のしやすさのために上記の例には含めていないが、情報処理装置10によるこの処理には、ステップS43でYesの場合に、傾きの大きさに応じた処理対象部分のシフト量(又は位置)を決定するステップが含まれてもよい。また、ステップS47でYesの場合に、傾きの大きさ、車速、又は照度に応じて処理対象部分の拡大率を決定するステップが含まれてもよい。また、ステップS47でYesの場合、さらに処理周期変更部15による物体検出処理部14に対する画像認識処理の周期の延長、またさらに、この画像認識処理の処理周期の変更に関して速度変更通知部16による使用者への情報の提示のステップが含まれてもよい。また、傾きがない場合(S43でNo)にも、信頼度の低下の要因の有無の判定(S47)が実行されてもよい。この要因がある場合(S47でYes)、例えば画像における処理対象部分の中心位置はそのままで、画像の上下方向の少なくとも一方に拡大されてもよい。
 ここで、ステップS44において判定の結果に応じて次のステップでシフトされた画像認識処理の処理対象部分を、例を用いて示す。図6Aは、傾きの方向が正方向である場合に車載カメラから情報処理装置10に入力された第3センシングデータが示す画像の例を示す模式図である。図6Bは、図6Aに示す画像の領域全体の中で、ステップS45において上にシフトされた処理対象部分の例を示す模式図である。また、図7Aは、傾きの方向が負方向である場合に車載カメラから情報処理装置10に入力された第3センシングデータが示す画像の例を示す模式図である。図7Bは、図7Aに示す画像の領域全体の中で、ステップS46において下にシフトされた処理対象部分の例を示す模式図である。なお、自動車では同じ場所で傾きの有無及び方向が異なることはあまり現実的ではないが、傾きに応じて処理対象部分の位置を変化させることで画像の処理対象部分に写る範囲を近似させることが可能なことを示すための模擬として図6A、図6B、図7A及び図7Bの画像例は、図5A及び図5Bの画像例と同じ場所での光景を示している。
 例えば図5Bで処理対象部分に写るのは、自動車の経路前方である程度の距離から向こうの様子であり、当該経路及びその周囲で運転支援又は自動運転のための制御内容の決定のために検知されるべき距離にある物体像が存在し得る部分であるとする。この部分は、傾きに応じてシフトされた、図6B及び図7Bに示す処理対象部分にもほぼ同様に写る。したがって、自動車の経路前方における移動面が自機姿勢に対して傾いても、運転支援又は自動運転の制御内容の決定に利用されるのに適した物体検出の結果を提供することができる。なお、図6B及び図7Bにおいて画像領域の左右に位置する4つの三角形は、傾きに応じて位置が変更されない場合の処理対象部分の四隅の位置を示す。図6Bに示される、位置が変更されていない処理対象部分は、位置が変更されている処理対象部分に比べてより近くの景色を含むが、位置が変更されている処理対象部分には含まれる遠方の景色を欠く。また、図7Bに示される、位置が変更されていない処理対象部分には、検出対象の物体が存在し得ない建物より上の空が多く写る一方で、図5Bの処理対象部分には含まれている自動車の経路及びその周囲で検出対象の物体が存在し得る部分の一部が欠ける。変更されていないこれらの処理対象部分を対象に画像認識処理が行われても、運転支援又は自動運転の制御内容の決定に利用されるのに適切な物体検出の結果を提供することはできない。
 このように、情報処理装置10は、車載カメラで撮影された画像の領域内で、一部を画像認識処理の処理対象部分から除外することで計算量を削減する。また情報処理装置10は、この処理対象部分の画像領域における位置を移動体の経路前方における移動面の自機姿勢に対する傾きに応じて変更することで、運転支援又は自動運転の制御内容の決定で結果が利用される物体検出を、進行方向の適切な範囲について実行することができる。
 (変形その他の補足事項)
 本開示の一又は複数の態様に係る情報処理装置、プログラム及び情報処理方法は、上記の実施の形態の説明に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が想到する各種の変形を上記の実施の形態に施したものも、本開示の態様に含まれてもよい。下記にそのような変形の例、及び実施の形態の説明へのその他の補足事項を挙げる。
 (1)実施の形態の説明では移動体が自動車である例を用いたが、本開示に係る技術は自動車以外の各種の移動体にも適用可能である。例えば、鉄道車両その他の軌道を走行する車両、船、航空機などの自動車以外の乗物にも適用可能である。また、本開示に係る技術はドローン等の乗物ではない移動体にも適用可能である。これらの移動体のうち、船、航空機、及びドローンのように路面を移動しない移動体の経路前方の「移動面」は、上述のような路面に近似する仮想的な平面ではなく、例えば設定された経路に沿って進行する移動体の表面の、推定される軌跡に基づいて捉えられる。なお、本開示における自動車の概念は、三輪及び二輪の自動車及び無限軌道で走行する車両を含む。
 (2)実施の形態の説明で示した移動体の経路前方の移動面の自機姿勢に対する傾きは、移動体の直進方向に対して左右方向の軸周りの回転(ピッチ)角で表し得る傾きのみであるが、本開示に係る技術の適用はこれに限定されない。本開示に係る技術は、移動体の直進方向の軸周りの回転(ロール)角で表し得る傾きに応じた処理対象部分の決定、変更にも適用することができる。図8は、移動体の経路前方の移動面の自機姿勢に対する傾きが時計回り方向に傾いている場合に決定される処理対象部分の例を示す模式図である。図8からわかるように、この場合には、処理対象部分も図5Aに例示される処理対象部分から時計回りに回転させたような部分をカバーするように決定されている。また、本開示に係る技術は移動体の経路前方の移動面の自機姿勢に対する傾きがピッチ角及びロール角の複合で表される場合にも適用可能であり、その場合、図8に示すような白い平行四辺形状の処理対象部分の位置が、画像領域の上端又は下端により近づく。
 (3)実施の形態の説明では、移動体の経路前方の移動面の自機姿勢に対する傾きは、地形に沿って走る路面の傾斜の変化によって生じるものを例に用いて説明したがこれに限定されない。例えば船又はドローンのように水又は空気の抵抗、波若しくは風等の外力によってこの傾きが発生する場合もある。また、移動中のヘリコプター及びドローンは、その動作原理上、進行方向に傾く姿勢を取る。また、移動体に乗る乗員の人数又は積載する荷物の重さ及び配置による自機姿勢の変化がこの傾きの原因になる場合もある。本開示に係る技術は、このような傾きへの対処にも利用可能である。
 (4)実施の形態の説明では、車載カメラで撮影された画像は、図示及び理解を簡単にするために、像の形状の歪みが少ない通常のレンズで撮影されたような画像を図示して例として用いたが、本開示の技術の適用はこれに限定されない。本開示に係る技術は、広角又は超広角と分類されるレンズ、又は魚眼レンズを用いて撮影される画像と組み合わせて用いられてもよい。また、この場合には同じ物体の像であっても、画像の中央付近に写る場合と周辺部分に写る場合とで大きく形状が異なる。このような像の形状のバリエーションに適切に対応して画像認識ができるように、物体検出処理部14は複数の学習済みモデルを含み、例えば画像領域全体における処理対象領域の位置に応じて、各位置での画像認識に特化して訓練された学習済みモデルに切り替えて画像認識を実行してもよい。
 (5)実施の形態は、第3センシングデータはイメージセンサから出力される画像データである例を用いて説明したが、第3センシングデータは画像データに限定されない。本開示の技術は、例えばLiDARから出力される点群データのように、空間における位置を示す他種のデータにも適用することができる。
 (6)学習済みモデルとして多層ニューラルネットワークが用いられてもよい。この場合、学習済みモデルの中間層間では、互いに異なる大きさの検出枠に対する処理が実行される。この場合、各中間層の検出枠は、移動体(に設置されるカメラ等の第3センサ)から所定の距離に存在する検出対象の物体像の検出に適する大きさである場合がある。例えば入力層から3番目の中間層の検出枠の大きさは、30メートル先の歩行者の検出に適し、5番目の中間層の検出枠はより小さく、80メートル先の歩行者の検出に適しているとする。このように、移動体(又は第3センサ)から経路前方の移動面における自機姿勢に対して傾く部分までの距離がわかり、かつ、学習済みモデルの各層が適している移動体(又は第3センサ)からの距離がわかる場合には、傾きに応じた処理対象部分の決定は、学習済みモデルの各層のうち、開始位置までの距離からさらに前方にある移動面が自機姿勢に対して傾いている範囲に適した層に対して選択的に実行されてもよい。
 (7)実施の形態は、移動体の経路前方の移動面の自機姿勢に対する傾きに関する判定は、第1センシングデータと第2センシングデータとの両方を用いる例(例えば図4のステップS43)を用いて説明した。この判定は第1センシングデータ又は第2センシングデータのいずれか一方のみを用いてなされてもよい。例えば、第1センシングデータである画像データに対するセグメンテーションによる路面領域の判定結果を用いて、水平な路面が映るある一定の領域より上部にも所定の大きさ以上の路面領域と判定される画素がある場合は正の傾き、あるいはこの一定の領域より下部にのみ、所定の大きさ以下の路面領域と判定される画素がある場合は負の傾きと判定してもよい。また例えば、第1センシングデータとして、例えばステレオカメラで移動体の経路前方のデプス画像のデータを取得し、このデプス画像に写る路面までの距離の変化から算出される傾きに基づいて判定が実行されてもよい。また例えば、ロール角の傾きについては、第1センシングデータである移動体の前方を撮影して得られた画像データに含まれる鉛直成分又は水平成分の画像領域における方向に基づいて判定が実行されてもよい。また例えば、利用可能な3次元地図情報がある場合には、この3次元地図情報と、測位システムから出力される移動体の現在の位置を示すデータ(第2センシングデータ)とを用いてこの判定が実行されてもよい。その他、第1センシングデータである画像データから移動面の自機姿勢に対する傾きを判定できるように学習した機械学習モデルを用いてこの判定が実行されてもよい。
 (8)実施の形態の説明では、移動面が平面である例を説明した。しかし、移動面は階段状の面であってもよい。例えば、LiDARから得られる点群情報に基づき階段の勾配を算出する。そして、算出された勾配及び移動体の姿勢に基づいて、移動面の、移動体の姿勢に対する傾きを算出する。
 (9)実施の形態の説明では、物体検出処理に用いられるセンシングデータを出力する第3センサが搭載される装置が移動体である例を説明した。しかし、当該装置は移動しないで、少なくとも第3センサを含む可動部分の姿勢が可変である装置であってもよい。例えば、カメラの姿勢が可変な監視カメラシステムであってもよい。なお、このような装置の場合には、実施の形態で用いた移動面の概念に代えて、第3センサのセンシングエリアに含まれる、床面(地面又は階段若しくはエスカレータのステップ面の場合を含む)、壁面、又は天井面等の各種の面の概念が用いられ、自機姿勢の概念に代えて、第3センサ又は可動部分の姿勢の概念が用いられる。
 (10)上述の各情報処理装置が備える構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
 なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 このようなシステムLSI等は、例えばデジタルカメラ、スマートフォン等のカメラ付携帯情報端末、又はバックモニタシステム、物体検知機能を含む先進運転支援システム等の各種の車載システムに組み込まれ得る。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
 (11)また、上述の各情報処理装置の構成要素は、例えば、それぞれがプロセッサ及びメモリを備え、互いに通信可能な複数台のコンピュータが協調して動作し、上述の各情報処理装置と同様の機能を提供する情報処理システムの構成要素として実現されてもよい。この場合、これらの構成要素は、例えば、これらのコンピュータが備えるプロセッサの一部又は全部が、これらのコンピュータが備えるメモリの一部又は全部に記憶される1個又は複数個のプログラムを実行することで実現される。
 (12)本開示の一態様は、上述の各情報処理装置だけではなく、情報処理装置に含まれる特徴的な機能的構成要素をステップとする情報処理方法であってもよい。この情報処理方法は、例えば、図4のフロー図を用いて上述した情報処理方法である。また、本開示の一態様は、このような情報処理方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムであってもよい。また、本開示の一態様は、そのようなコンピュータプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。
 本開示に係る技術は、センシングデータを用いた画像認識のための情報処理に広く利用可能であり、例えば運転支援又は自律移動をする移動体の周囲及び進行方向の物体検知等に用いられる。
 1 物体検知システム
 10 情報処理装置
 11 周辺状況判断部
 12 自機姿勢判断部
 13 領域変更部
 14 物体検出処理部
 15 処理周期変更部
 16 速度変更通知部
 20 周辺状況センサ
 30 LiDAR
 40 傾きセンサ
 50 位置・姿勢取得部
 60 地図情報
 70 速度,照度

Claims (11)

  1.  プロセッサを備える情報処理装置であって、前記プロセッサは、
     第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、
     取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、
     前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、
     前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行する、ように構成される
     情報処理装置。
  2.  前記プロセッサは、
     前記傾きが所定の範囲以内である場合、前記第3センシングデータの一部を前記処理対象部分として決定し、
     前記傾きが前記所定の範囲を超える場合、前記第3センシングデータの前記一部より広い部分を前記処理対象部分として決定し、
     さらに、前記傾きが前記所定の範囲を超える場合、前記物体検出処理の処理周期を前記傾きが前記所定の範囲以内である場合よりも長くする
     請求項1に記載の情報処理装置。
  3.  前記装置は、移動体であり、
     前記プロセッサは、
     さらに、前記傾きが前記所定の範囲を超える場合、前記移動体に減速を要求する
     請求項2に記載の情報処理装置。
  4.  前記装置は、移動体であり、
     前記プロセッサは、
     さらに、前記傾きが前記所定の範囲を超える場合、前記移動体の使用者に警告を通知する
     請求項2又は3に記載の情報処理装置。
  5.  さらに、前記物体検出処理の信頼度に影響を及ぼす要素に応じて、前記処理対象部分のサイズを変更する
     請求項2~4のいずれか一項に記載の情報処理装置。
  6.  前記物体検出処理は、前記処理対象部分を1つ以上の学習済みモデルに入力することにより実行される
     請求項1~5のいずれか一項に記載の情報処理装置。
  7.  前記1つ以上の学習済みモデルは、複数の学習済みモデルであり、
     前記プロセッサは、前記複数の学習済みモデルから前記傾きに応じて選択した学習済みモデルに前記処理対象部分を入力する
     請求項6に記載の情報処理装置。
  8.  前記学習済みモデルは、多層ニューラルネットワークであり、
     前記プロセッサは、
     さらに、前記装置から前記傾きの起点までの距離を取得し、
     前記距離に応じた前記学習済みモデルの層について、前記処理対象部分を決定する
     請求項6又は7に記載の情報処理装置。
  9.  前記プロセッサは、
     前記処理対象部分を、前記傾きに応じて前記処理対象部分をシフトすることで決定する
     請求項1~8のいずれか一項に記載の情報処理装置。
  10.  プロセッサを備える情報処理装置において、前記プロセッサによって実行されることで前記プロセッサに、
     第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得させ、
     取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定させ、
     前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定させ、
     前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行させる
     プログラム。
  11.  プロセッサが、
     第1センサから出力される、第3センサが設置される装置の周辺状況の判断に用いる第1センシングデータ、及び第2センサから出力される、前記装置の姿勢の判断に用いる第2センシングデータの少なくとも1つを取得し、
     取得した前記第1センシングデータ及び前記第2センシングデータの少なくとも1つに基づいて、前記第3センサのセンシング方向における面の、前記姿勢に対する傾きを判定し、
     前記第3センサから出力され、前記センシング方向における物体検出処理に用いられる第3センシングデータの処理対象部分を、前記傾きに応じて決定し、
     前記第3センシングデータの決定された前記処理対象部分を用いて前記物体検出処理を実行する
     情報処理方法。
PCT/JP2019/030794 2018-10-18 2019-08-06 情報処理装置、プログラム及び情報処理方法 WO2020079927A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19873201.8A EP3869451A4 (en) 2018-10-18 2019-08-06 INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD
CN201980005343.8A CN111417959A (zh) 2018-10-18 2019-08-06 信息处理装置、程序及信息处理方法
US16/902,763 US11341670B2 (en) 2018-10-18 2020-06-16 Information processing device, information processing method, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862747278P 2018-10-18 2018-10-18
US62/747,278 2018-10-18
JP2019-091583 2019-05-14
JP2019091583A JP7326018B2 (ja) 2018-10-18 2019-05-14 情報処理装置、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/902,763 Continuation US11341670B2 (en) 2018-10-18 2020-06-16 Information processing device, information processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2020079927A1 true WO2020079927A1 (ja) 2020-04-23

Family

ID=70283075

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030794 WO2020079927A1 (ja) 2018-10-18 2019-08-06 情報処理装置、プログラム及び情報処理方法

Country Status (2)

Country Link
US (1) US11341670B2 (ja)
WO (1) WO2020079927A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019217988A1 (de) * 2019-11-21 2021-05-27 Zf Friedrichshafen Ag Kamerabasierte Detektion von Kippbewegungen
KR20210071584A (ko) * 2019-12-06 2021-06-16 팅크웨어(주) 위성 항법 시스템 측정 위치의 보정을 통해 위치를 판단하는 위치 측정 방법, 위치 측정 장치 및 이를 수행하는 전자 기기

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010162975A (ja) * 2009-01-14 2010-07-29 Fujitsu Ten Ltd 車両制御システム
WO2014073558A1 (ja) * 2012-11-07 2014-05-15 株式会社デンソー 車載レーダ装置、及び、この装置における坂道判定方法
JP2017090987A (ja) 2015-11-04 2017-05-25 アイシン・エィ・ダブリュ株式会社 空車枠特定システム、方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9145140B2 (en) * 2012-03-26 2015-09-29 Google Inc. Robust method for detecting traffic signals and their associated states
KR101582572B1 (ko) * 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
EP2988248B1 (en) 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
JP6381353B2 (ja) 2014-08-08 2018-08-29 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
KR101641490B1 (ko) 2014-12-10 2016-07-21 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
DE102015224192B4 (de) * 2015-12-03 2021-03-18 Robert Bosch Gmbh Erkennen einer Freifläche
CN107226091B (zh) 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 物体检测装置、物体检测方法以及记录介质
KR101844885B1 (ko) * 2016-07-11 2018-05-18 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR101976425B1 (ko) * 2016-09-22 2019-05-09 엘지전자 주식회사 차량 운전 보조 장치
US11615566B2 (en) * 2017-05-10 2023-03-28 Fotonation Limited Multi-camera vehicle vision system and method
US10515293B2 (en) * 2017-12-14 2019-12-24 Here Global B.V. Method, apparatus, and system for providing skip areas for machine learning
US10755115B2 (en) * 2017-12-29 2020-08-25 Here Global B.V. Method, apparatus, and system for generating synthetic image data for machine learning
US10878294B2 (en) * 2018-01-05 2020-12-29 Irobot Corporation Mobile cleaning robot artificial intelligence for situational awareness
US10733484B2 (en) * 2018-03-22 2020-08-04 Here Global B.V. Method, apparatus, and system for dynamic adaptation of an in-vehicle feature detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010162975A (ja) * 2009-01-14 2010-07-29 Fujitsu Ten Ltd 車両制御システム
WO2014073558A1 (ja) * 2012-11-07 2014-05-15 株式会社デンソー 車載レーダ装置、及び、この装置における坂道判定方法
JP2017090987A (ja) 2015-11-04 2017-05-25 アイシン・エィ・ダブリュ株式会社 空車枠特定システム、方法およびプログラム

Also Published As

Publication number Publication date
US11341670B2 (en) 2022-05-24
US20200311966A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US11192557B2 (en) Road profile along a predicted path
US11790230B2 (en) Distance to obstacle detection in autonomous machine applications
US11657604B2 (en) Systems and methods for estimating future paths
US20230205219A1 (en) Path detection for autonomous machines using deep neural networks
US10997435B2 (en) Leveraging obstacle and lane detections to determine lane assignments for objects in an environment
US11704890B2 (en) Distance to obstacle detection in autonomous machine applications
CN108692699B (zh) 用于防撞辅助的车辆和方法
US11657532B2 (en) Surface profile estimation and bump detection for autonomous machine applications
CN108367710B (zh) 俯瞰影像生成装置、俯瞰影像生成***、以及存储介质
JP6984624B2 (ja) 表示制御装置および表示制御プログラム
US20230316772A1 (en) Under vehicle reconstruction for vehicle environment visualization
WO2020079927A1 (ja) 情報処理装置、プログラム及び情報処理方法
JP7326018B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6595647B2 (ja) 走行制御装置、車両および走行制御方法
CN116057578A (zh) 利用相机进行车辆环境建模
JP2009217491A (ja) 移動支援装置、移動体、領域設定方法
JP4847303B2 (ja) 障害物検出方法、障害物検出プログラムおよび障害物検出装置
US11915436B1 (en) System for aligning sensor data with maps comprising covariances

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19873201

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019873201

Country of ref document: EP

Effective date: 20210518