WO2015177865A1 - 物標検出装置及び物標検出方法 - Google Patents

物標検出装置及び物標検出方法 Download PDF

Info

Publication number
WO2015177865A1
WO2015177865A1 PCT/JP2014/063351 JP2014063351W WO2015177865A1 WO 2015177865 A1 WO2015177865 A1 WO 2015177865A1 JP 2014063351 W JP2014063351 W JP 2014063351W WO 2015177865 A1 WO2015177865 A1 WO 2015177865A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
target
error
self
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/063351
Other languages
English (en)
French (fr)
Inventor
大貴 山ノ井
西内 秀和
安藤 敏之
佐藤 宏
松尾 治夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to RU2016146709A priority Critical patent/RU2633641C1/ru
Priority to PCT/JP2014/063351 priority patent/WO2015177865A1/ja
Priority to JP2016520844A priority patent/JP6222353B2/ja
Priority to EP14892586.0A priority patent/EP3147629B1/en
Priority to BR112016026372-3A priority patent/BR112016026372B1/pt
Priority to MX2016014733A priority patent/MX355397B/es
Priority to CN201480079086.XA priority patent/CN106461403B/zh
Priority to US15/311,250 priority patent/US9767372B2/en
Publication of WO2015177865A1 publication Critical patent/WO2015177865A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a target detection apparatus and a target detection method.
  • Patent Document 1 an image processing system for detecting a traffic indicator from image data ahead of a vehicle is known (Patent Document 1).
  • the position and orientation of a vehicle are detected to predict the position of a traffic indicator, and an image processing area is determined for image data based on the predicted position. Detect the indicator. This reduces the burden of image processing.
  • Patent Document 1 does not take into account errors included in the detected position and posture of the vehicle when determining the image processing area.
  • the error varies greatly depending on the situation around the vehicle. If the error is large, the traffic indicator is removed from the image processing area, and the traffic indicator cannot be detected. On the other hand, if the image processing area is too wide, the possibility of erroneous detection of things other than traffic indicators increases.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a target detection device and a target detection method capable of detecting a target with high accuracy.
  • a target detection apparatus captures an image of the surroundings of a vehicle, acquires an image, detects the position of the vehicle based on the amount of movement from the initial position of the vehicle, and detects objects around the vehicle.
  • the relative position of the target with respect to the vehicle is estimated from the position information on the map of the target and the self position.
  • a target detection area in the image is set from the relative position of the target with respect to the vehicle, and the target is detected from the detection area. Then, the error included in the self-position is estimated based on the movement amount from the initial position of the vehicle, and the size of the target detection area is adjusted according to the error.
  • FIG. 1 is a block diagram illustrating information input to and output from the target detection apparatus 100 according to the embodiment.
  • FIG. 2 is a block diagram illustrating the configuration and data flow of the target detection apparatus 100 according to the embodiment.
  • FIG. 3 is a block diagram showing a configuration and data flow of the self-position detecting unit 12 of FIG.
  • FIG. 4 is a block diagram showing the configuration and data flow of the detection area setting unit 14 of FIG.
  • FIG. 5A is a graph showing an error in the coordinates of the vehicle 51 with respect to the movement amount (distance) from the ground landmark in the traveling direction of the vehicle 51, and FIG. It is a graph which shows the error of the posture of vehicles 51 to the amount of movement (angle) of vehicles 51 to (roll direction, pitch direction, yaw direction).
  • FIG. 5A is a graph showing an error in the coordinates of the vehicle 51 with respect to the movement amount (distance) from the ground landmark in the traveling direction of the vehicle 51
  • FIG. It is a graph which shows the error
  • FIG. 6A is a diagram showing the vehicles 51A to 51C traveling on the straight road LD1 where the ground landmarks LM1 to LM3 are installed, and FIG. 6B shows the error estimated by the error estimation unit 16.
  • FIG. 6C is a table showing the self-position detected by the self-position detection unit 12.
  • FIG. 7A is a diagram showing the vehicles 51A to 51C traveling on the straight road LD1 on which the ground landmark LM1 is installed
  • FIG. 7B is a table showing the errors estimated by the error estimation unit 16. is there.
  • FIG. 8A is a diagram showing the vehicles 51A and 51B traveling on the curve LD2 where the ground landmarks LM1 and LM2 are installed
  • FIG. 8B is a table showing the error estimated by the error estimation unit 16.
  • FIG. 8A is a diagram showing the vehicles 51A and 51B traveling on the curve LD2 where the ground landmarks LM1 and LM2 are installed
  • FIG. 8B is a table showing the error estimated by the error estimation unit
  • FIG. 8C is a table showing the self-position detected by the self-position detection unit 12.
  • FIG. 9A is a diagram showing the vehicles 51A and 51B traveling on the curve LD2 where the ground landmark LM1 is installed, and
  • FIG. 9B is a table showing the errors estimated by the error estimation unit 16.
  • FIG. 10 is a plan view showing the two-dimensional coordinates (xl, yl) on the image (Img), and the object in which the error occurs at the maximum with the coordinates (G 1 ) of the target that does not consider the error. The coordinates of the mark (G 2 ) are shown.
  • FIG. 11 is a table comparing the sizes of the detection regions (Z 1 ) shown in FIG.
  • FIG. 12 is a flowchart illustrating an example of a target detection method using the target detection device 100.
  • the target detection device 100 detects a target installed around the road from an image captured by an imaging unit (camera) mounted on the vehicle 51.
  • the target is fixed on the ground and includes, for example, a traffic light and a road sign. In this example, the description will be continued by taking a traffic light as an example.
  • the target information detection apparatus 100 receives map information D02, landmark information D01, and camera information D03.
  • the map information D02 includes target position information associated in advance between the real environment and the map.
  • the landmark information D01 is used to calculate the self position of the vehicle 51 in the real environment.
  • the landmark includes a feature (ground landmark) provided on the ground and a GPS satellite that transmits a GPS signal that can be received by the vehicle 51. In the first embodiment, a ground landmark will be described as an example.
  • the landmark information D01 includes, for example, ground landmark position information.
  • the camera information D03 is used to extract a video around the vehicle 51 (for example, forward) from the imaging unit.
  • the target detection device 100 outputs a traffic signal recognition result, which is an example of a target, as traffic signal information D04 based on these pieces of information D01 to D03.
  • the target detection device 100 includes an imaging unit 11, a self-position detection unit 12, a target position estimation unit 13, a detection area setting unit 14, a target detection unit 15, and an error estimation unit 16.
  • the imaging unit 11 is mounted on the vehicle 51 and images the surroundings of the vehicle 51 to acquire an image.
  • the imaging unit 11 is a camera including a solid-state imaging device, for example, a CCD and a CMOS, and acquires an image that can be processed.
  • the imaging unit 11 sets the angle of view of the image and the vertical and horizontal angles of the camera based on the camera information D03, and outputs the acquired image as image data D08.
  • the self position detection unit 12 detects the self position of the vehicle 51 from the amount of movement of the vehicle 51 from the initial position on the map information D02 based on the landmark information D01.
  • the landmark information D01 is, for example, information on the relative position of the ground landmark (store, famous place, sightseeing spot) detected by a vehicle-mounted camera or a sensing means such as a laser radar with respect to the vehicle 51.
  • position information of ground landmarks is registered in advance.
  • the self-position of the vehicle 51 can be detected by collating the landmark information D01 with the information on the relative position of the ground landmark.
  • the “position” includes coordinates and orientation.
  • the position of the ground landmark includes the coordinates and orientation of the ground landmark
  • the position of the vehicle 51 includes the coordinates and orientation of the vehicle 51.
  • the self-position detection unit 12 outputs the coordinates (x, y, z) in the reference coordinate system and the posture (pitch, yaw, roll) that is the rotation direction of each coordinate axis as the self-position information D05.
  • the target position estimation unit 13 estimates the relative position of the target with respect to the vehicle 51 from the map information D02 and the self-position information D05.
  • map information D02 position information (coordinate information) of the target is registered in advance.
  • the relative coordinates of the target with respect to the vehicle 51 can be obtained from the coordinates of the target and the coordinates and posture of the vehicle 51.
  • the target position estimation unit 13 outputs the estimated relative position of the target as relative position information D06.
  • the error estimation unit 16 estimates the error included in the self-position detected by the self-position detection unit 12 based on the movement amount from the initial position of the vehicle. Details of the error estimator 16 will be described later with reference to FIGS.
  • the detection area setting unit 14 sets the target detection area in the image from the relative position of the target. Since the imaging unit 11 is fixed to the vehicle 51, if the angle of view captured by the imaging unit 11 is determined, the position on the image where the target will be imaged can be specified in the image. . The detection area setting unit 14 sets a target detection area in the image based on the position on the image.
  • the detection area setting unit 14 adjusts the size of the target detection area according to the error estimated by the error estimation unit 16.
  • the detection area setting unit 14 outputs the set and adjusted detection area as detection area information D09. Details of the detection area setting unit 14 will be described later with reference to FIGS.
  • the target detection unit 15 detects a target from the set and adjusted detection area. Specifically, image processing for detecting a target is performed on the image data D08 included in the detection area.
  • the image processing method is not particularly limited. For example, when the target is a traffic light, the signal light included in the traffic light can be detected using a synchronous detection process based on an AC cycle of a commercial power source or a similarity determination process of hue and shape.
  • known image processing for detecting a target can be applied. By performing image processing not on the entire image data D08 but on a part (detection region) of the image data D08, it is possible to reduce the information processing load for target detection and detect the target early.
  • the target detection unit 15 outputs the target detection result as target information D04.
  • the self-position detection unit 12, the target position estimation unit 13, the error estimation unit 16, the detection area setting unit 14, and the target detection unit 15 are realized using a microcontroller including a CPU, a memory, and an input / output unit. can do.
  • the CPU configures a plurality of information processing units (12 to 16) included in the microcontroller by executing a computer program installed in advance.
  • Part of the memory included in the microcontroller constitutes a map database that stores map information D02.
  • the microcontroller may also be used as an ECU used for other control (for example, automatic driving control) related to the vehicle.
  • the self-position detection unit 12 includes an initial position detection unit 21 and a movement amount addition unit 22.
  • the initial position detector 21 detects the initial position of the vehicle 51 using the landmark information D01.
  • the initial position is a position where the self position of the vehicle 51 can be detected, and is the position of the vehicle 51 that can be directly obtained from the landmark information D01, that is, the coordinates and orientation.
  • the road side By receiving the position of the vehicle 51 from the vehicle position detection device, a position where the self position of the vehicle 51 can be detected is obtained.
  • the movement amount addition unit 22 calculates the self position of the vehicle 51 by accumulating the movement amount of the vehicle to the initial position detected by the initial position detection unit 21. For example, when the ground landmark is detected by the sensing means, the self-position detecting unit 12 detects the initial position information as the self-position information D05 without accumulating the moving amount of the vehicle. On the other hand, when the ground landmark is not detected, the self-position detecting unit 12 outputs position information obtained by accumulating the moving amount of the vehicle to the last detected initial position as self-position information D05.
  • the method for estimating the amount of movement of the vehicle is not particularly limited and can be performed using a known method.
  • the movement amount adding unit 22 can estimate the movement amount of the vehicle per unit time, that is, the change amount of coordinates and posture, using odometry, a radar device, a gyro sensor, a yaw rate sensor, and a rudder angle sensor. .
  • the error estimation unit 16 of FIG. 2 estimates the error of the self-position based on the movement amount of the vehicle 51 cumulatively added by the movement amount addition unit 22. .
  • the accuracy of the movement amount of the vehicle estimated by the movement amount adding unit 22 is lower than the accuracy of the initial position detected using the landmark.
  • the error included in the own position is also accumulated at the same time. Therefore, the error included in the vehicle's own position varies greatly depending on the amount of movement from the initial position detected using the landmark.
  • the error can be estimated with high accuracy. Details will be described later with reference to FIGS.
  • the detection region setting unit 14 includes a target position error estimation unit 31, a coordinate conversion unit 32, and a region determination unit 34.
  • the target position error estimation unit 31 estimates an error occurring in the relative position of the target based on the error included in the self position. Specifically, relative position information D06 and error information D07 are input to the target position error estimation unit 31. And when the error estimated by the error estimation part 16 arises in each of the coordinate and attitude
  • the coordinate conversion unit 32 converts the relative coordinates of the target and its error into coordinates on an image obtained by capturing the target. Specifically, relative position information D06 and target position error information D11 are input to the coordinate conversion unit 32.
  • the coordinate conversion unit 32 performs coordinate conversion processing for converting the three-dimensional coordinates (x, y, z) of the target into two-dimensional coordinates (xl, yl) on the image based on the lens optical system of the imaging unit 11. .
  • the coordinate conversion method is not particularly limited, and a known method can be used.
  • the coordinate conversion unit 32 outputs, as lens coordinate information D12, the two-dimensional coordinates of the target that does not consider the error and the two-dimensional coordinates of the target when the error occurs at the maximum.
  • the area determination unit 34 determines the size of the detection area based on the difference between the coordinates that do not consider the error and the coordinates when the error occurs at the maximum, and the detection area based on the coordinates that do not consider the error Determine the center coordinates of. Details will be described later with reference to FIG.
  • the size and center coordinates of the detection area are output as detection area information D09.
  • the self-position error estimated based on the movement amount of the vehicle 51 cumulatively added by the movement amount addition unit 22 will be described with reference to FIGS.
  • the horizontal axis in FIG. 5A indicates the moving distance of the vehicle 51 from the initial position in the traveling direction (z direction), and the vertical axis in FIG. 5A indicates the error (gx, gy, gz).
  • gz represents an error in the traveling direction of the vehicle 51
  • gx represents an error in the width direction of the vehicle 51
  • gy represents an error in the height direction of the vehicle 51.
  • the error (gx, gy, gz) included in the coordinates of the vehicle 51 increases in proportion to the moving distance from the initial position. When the moving distance from the initial position is zero, the error (gx, gy, gz) is also zero. In FIG. 5A, the error included in the initial position detected by the initial position detector 21 is not considered.
  • the coordinates of the vehicle 51 are calculated by accumulating the amount of change in coordinates per unit time with respect to the initial position. For this reason, as the moving distance from the initial position becomes longer, the amount of change in the cumulatively added coordinates also increases, and thus the error (gx, gy, gz) included in the coordinates of the vehicle 51 also increases.
  • the error (gx) in the width direction of the vehicle 51 is the largest and the error (gy) in the height direction of the vehicle is the smallest with respect to the movement distance in the z direction (traveling direction).
  • the horizontal axis in FIG. 5B indicates the amount of movement (angle change) of the vehicle 51 from the initial position to each rotational direction (roll direction, pitch direction, yaw direction), and the vertical axis in FIG. Indicates errors (gr, gp, gya) included in the attitude of the vehicle 51. “gr” represents an error in the roll direction of the vehicle 51, “gp” represents an error in the pitch direction of the vehicle 51, and “gya” represents an error in the yaw direction of the vehicle 51.
  • the error (gr, gp, gya) included in the attitude of the vehicle 51 increases in proportion to the amount of change from the attitude of the vehicle 51 (initial attitude) at the initial position.
  • a predetermined error gr, gp, gya
  • the posture of the vehicle 51 is calculated by accumulating the amount of change in posture per unit time with respect to the initial posture. For this reason, if the amount of change from the initial posture increases, the amount of cumulatively added posture change also increases, and thus the errors (gr, gp, gya) included in the posture of the vehicle 51 also increase.
  • the error (gr, gp) in the roll direction and the pitch direction is the largest and the error (gya) in the yaw direction is the smallest with respect to the amount of change in each rotation direction.
  • an error (gya) occurs only in the yaw direction. The same applies to the roll direction and the pitch direction.
  • FIG. 6A shows vehicles 51A to 51C traveling on a straight road LD1 on which ground landmarks LM1 to LM3 are installed.
  • FIG. 6B is a table showing errors estimated by the error estimation unit 16
  • FIG. 6C is a table showing self-positions detected by the self-position detection unit 12.
  • the vehicle 51A indicates the position of the vehicle when closest to the ground landmark LM1.
  • the vehicles 51B and 51C indicate the positions of the vehicles when they are closest to the ground landmarks LM2 and LM3.
  • the traffic light as an example of the target Tgt is separated from the vehicles 51A, 51B, and 51C by 200 m, 120 m, and 40 m in the traveling direction.
  • the self-position detecting unit 12 can calculate the initial position of the vehicle 51 as the self-position as it is without accumulating the movement amount of the vehicle. Therefore, as shown in FIG. 6B, the error estimated by the error estimation unit 16 at each point of the vehicles 51A, 51B, and 51C is equal to the error included in the initial posture detected by the initial position detection unit 21. Since the vehicle travels on the straight road LD1, only the coordinate (z) in the traveling direction (z direction) changes in the self position detected by the self position detection unit 12 as shown in FIG. 6C.
  • the coordinates shown in FIG. 6C are coordinates with the target Tgt as the origin.
  • Each unit is gx [m], gy [m], gz [m], gp [°], gya [°], gr [°], x [m], y [m], z [m], pich [°], yaw [°], and roll [°].
  • FIG. 7A shows an example in which only the ground landmark LM1 is installed on the straight road LD1.
  • the self-position detecting unit 12 can calculate the initial position of the vehicle 51 as the self-position as it is without accumulating the amount of movement of the vehicle at the point of the vehicle 51A. For this reason, as shown in FIG. 7B, the same coordinate and posture errors as in FIG. However, since the ground landmarks LM2 and LM3 are not installed, the self-positions in the vehicles 51B and 51C are calculated by cumulatively adding the movement amount from the vehicle 51A. Therefore, the coordinate error in the vehicles 51B and 51C is different from that in FIG.
  • the error estimation unit 16 refers to the data shown in FIG.
  • the posture error in the vehicles 51B and 51C is the same as that in FIG.
  • FIG. 8A shows the vehicles 51A and 51B that travel on the curve LD2 where the ground landmarks LM1 and LM2 are installed.
  • FIG. 8B is a table showing errors estimated by the error estimation unit 16
  • FIG. 8C is a table showing self-positions detected by the self-position detection unit 12.
  • Vehicles 51A and 51B indicate the position of the vehicle when closest to the ground landmarks LM1 and LM2.
  • the self-position detecting unit 12 can calculate the initial position of the vehicle 51 as the self-position as it is without accumulating the movement amount of the vehicle. Therefore, as shown in FIG. 8B, the error estimated by the error estimation unit 16 at each point of the vehicles 51A and 51B is equal to the error included in the initial posture detected by the initial position detection unit 21.
  • the coordinates shown in FIG. 8C are coordinates with the target Tgt as the origin.
  • FIG. 9A shows an example in which only the ground landmark LM1 is installed on the curve LD2.
  • the self-position detecting unit 12 can calculate the initial position of the vehicle 51 as the self-position as it is without accumulating the amount of movement of the vehicle at the point of the vehicle 51A. For this reason, as shown in FIG. 9B, the same coordinate and posture errors as in FIG. 8B occur at the point of the vehicle 51A. However, since the ground landmark LM2 is not installed, the self position in the vehicle 51B is calculated by cumulatively adding the movement amount from the vehicle 51A. Between the vehicle 51A and the vehicle 51B, the vehicle 51 is rotated 90 ° in the yaw direction.
  • the error estimator 16 calculates an error (gya) in the yaw direction from the amount of movement from the vehicle 51A with reference to the data shown in FIG. As shown in FIG. 9B, the error (gya) in the yaw direction in the vehicle 51B increases. Note that not only the posture of the vehicle but also the coordinates of the vehicle are changed between the vehicle 51A and the vehicle 51B. However, in the example of FIG.
  • FIG. 10 is a plan view showing two-dimensional coordinates (xl, yl) on the image (Img).
  • the coordinates (G 1 ) indicate the two-dimensional coordinates of the target that is coordinate-converted by the coordinate conversion unit 32 and does not consider the error.
  • the coordinates (G 2 ) indicate the two-dimensional coordinates of the target when the coordinate conversion unit 32 performs coordinate conversion and the error occurs at the maximum.
  • the difference (Xm, Ym) between the coordinates (G 1 ) and the coordinates (G 2 ) corresponds to an error included in the relative coordinates of the target that has been subjected to coordinate conversion by the coordinate conversion unit 32.
  • the detection area setting unit 14 has four sides with the coordinates (G 1 ) as the central coordinates and the lengths of 2 ⁇ Xm and 2 ⁇ Ym added to the size of the target in the X and Y directions, respectively.
  • a detection area (Z 1 ) is set.
  • the coordinates (G 2 ) of the target are within the detection area (Z 1 ), so that it is difficult for the target to deviate from the detection area.
  • the detection area (Z 1 ) is not excessively widened, it is difficult for objects other than the target to be erroneously detected, and the target can be detected in a state where the calculation load is reduced.
  • the detection area setting unit 14 may select the detection area (Z 1 ) having the closest size from among a plurality of detection areas (Z 1 ) having different sizes prepared in advance.
  • the size of the detection region (Z 1 ) in the cases shown in FIGS. 6 to 9 is compared.
  • the size of the detection region (Z 1 ) in the vehicle 51C in FIG. 6 and the vehicle 51B in FIG. 8 is set as the reference value (x).
  • the error included in the self position (coordinates and posture) is the same as that of the vehicle 51C of FIG. 6, but the distance to the target is different.
  • the size of the detection region (Z 1 ) is three times the reference value (x).
  • the vehicle 51B of FIG. 7 since there is no ground landmark, an error due to the cumulative addition of the movement amount occurs.
  • the size of the detection region (Z 1 ) is further increased, which is five times the reference value (x).
  • the error due to the cumulative addition of the movement amount further increases, but the distance to the target is reduced.
  • the size of the detection region (Z 1 ) is reduced to twice the reference value (x).
  • the size of the detection region (Z 1 ) is twice the reference value (x).
  • step S01 the imaging unit 11 captures an image of the periphery of the vehicle 51 based on the camera information D03, and acquires an image.
  • step S03 the self-position detecting unit 12 obtains the initial position of the vehicle 51 from the landmark information D01 and detects the self-position of the vehicle 51 based on the movement amount from the initial position of the vehicle 51. The self position is output as self position information D05.
  • step S05 the target position estimation unit 13 estimates the relative position of the target with respect to the vehicle 51 from the map information D02 and the self-position information D05.
  • step S07 the error estimation unit 16 estimates the error (Ds) included in the self position detected in step S03 based on the self position. Specifically, the error (gx, gy, gz, gr, gp, gya) included in the self-position of the vehicle 51 is determined by referring to FIGS. 5 (a) and 5 (b). Estimate according to distance or angle.
  • step S09 it is determined whether the estimated error (Ds) is larger than a predetermined threshold value (Dth). If the error (Ds) is larger than the threshold value (Dth) (YES in S09), the error that occurs in the relative position of the target also increases, so the size of the detection region (Z 1 ) is adjusted according to the error. Increased need. Then, it progresses to step S13 and the target position error estimation part 31 estimates the error which arises in the relative position of a target by the error contained in a self position.
  • Dth a predetermined threshold value
  • the threshold value (Dth) can be set to each of an error (gx, gy, gz) included in the coordinates of the vehicle and an error (gr, gp, gya) included in the posture of the vehicle. If any one of the errors is larger than the threshold value, YES can be determined in step S09. Alternatively, only when all errors are larger than the threshold value, YES may be determined in step S09.
  • step S15 the coordinate conversion unit 32 converts the relative coordinates of the target and its error into coordinates (xl, yl) on the image (Img) obtained by imaging the target, as shown in FIG.
  • step S17 the region determining unit 34 determines whether the error (X 1 , Ym) is different from the coordinate (G 1 ) that does not consider the error and the coordinate (G 2 ) when the error occurs at the maximum.
  • the size of the detection area (Z 1 ) is set as shown in FIG.
  • step S19 the region determination unit 34 determines the center coordinates of the detection region (Z 1 ) based on the coordinates (G 1 ) that do not consider the error. Thereby, the detection region (Z 1 ) is determined.
  • the process proceeds to step S11, where the relative position of the target estimated in step S05 is coordinate-transformed to obtain coordinates (G 1 ) that do not take error into consideration. Proceeding to step S19, the center coordinate of the detection region (Z 1 ) is determined based on the coordinate (G 1 ) that does not consider the error.
  • the size of the detection region (Z 1 ) in this case is a predetermined value, for example, the reference value (x) in FIG. That is, when the error (Ds) is equal to or smaller than the threshold value (Dth), the detection region (Z 1 ) is determined without adjusting the size of the detection region (Z 1 ) according to the error (Ds).
  • step S21 it is determined whether or not the amount of change in the error (Ds) from the previous time is equal to or greater than a predetermined reference value. If the change amount of the error (Ds) is equal to or greater than the predetermined reference value (YES in S21), the process proceeds to step S23, and the area determination unit 34 sets the adjustment amount of the detection area size as an example of the detection area information D09. Store in memory. If the change amount of the error (Ds) is less than the predetermined reference value (NO in S21), the region determination unit 34 does not update the adjustment amount of the detection region size.
  • the target detection unit 15 performs image processing for detecting a target on the image data D08 included in the set and adjusted detection area.
  • An error (Ds) included in the self-position of the vehicle 51 is estimated based on the movement amount from the initial position of the vehicle, and the size of the target detection area (Z 1 ) is adjusted according to the error (Ds). . Accordingly, the size of the target detection area (Z 1 ) can be adjusted in consideration of the error (Ds). Therefore, even if the error (Ds) changes greatly according to the situation around the vehicle, a detection region (Z 1 ) having an appropriate size can be set according to the error (Ds). For example, if the error is large, the detection area can be enlarged to make it difficult for the target to deviate from the detection area.
  • the detection area can be made small to make it difficult to detect anything other than the target. Also, the burden of image processing is reduced.
  • the target can be detected with high accuracy by appropriately adjusting the size of the target detection area in consideration of the error included in the self-position of the vehicle. Even when an error occurs, a target can be detected with a reduced calculation load by securing a detection area necessary for target recognition and narrowing the detection area to a minimum.
  • the error (Ds) included in the self-position of the vehicle 51 varies greatly according to the amount of movement accumulated and added to the initial position detected using the landmark (for example, the ground landmarks LM1 to LM3). By estimating the error based on the movement amount from the initial position, the error can be estimated with high accuracy.
  • the self-position can be detected with high accuracy by comparing the position information of the features on the ground (ground landmarks LM1 to LM3) with the map information D02. Therefore, the error (Ds) can be accurately estimated based on the movement amount from the landmark to the self position.
  • the self-position detector 12 detects the vehicle coordinates and the vehicle posture as the self-position.
  • the error estimator 16 estimates an error included in the coordinates of the vehicle based on the amount of movement of the vehicle in the traveling direction, and estimates an error included in the posture of the vehicle based on the amount of movement of the vehicle in the rotational direction. To do.
  • the error (Ds) included in the self-position of the vehicle can be accurately estimated, so that an error occurring in the relative position of the target due to the error (Ds) can also be accurately estimated.
  • the region determination unit 34 holds the adjustment amount of the size of the detection region when the change amount of the error (Ds) is equal to or greater than a predetermined reference value. Thereby, the latest detection area information D09 can be held.
  • a GPS satellite that transmits a GPS signal that can be received by the vehicle 51 will be described as an example of a landmark for detecting its own position.
  • the self-position detector 12 receives a GPS signal as the landmark information D01 and detects the initial position (initial coordinates and initial posture) of the vehicle 51 from the GPS signal.
  • the GPS signal is blocked by a situation around the vehicle 51, for example, a situation where there are many buildings around the vehicle, and the vehicle 51 may not be able to receive the GPS signal.
  • the self-position detection unit 12 calculates the self-position of the vehicle 51 by cumulatively adding the movement amount of the vehicle to the initial position detected by the initial position detection unit 21.
  • the 3 detects the initial position of the vehicle 51 using a GPS signal.
  • the initial position is the position of the vehicle 51 that can be directly obtained from the GPS signal, that is, the coordinates and posture.
  • the movement amount adding unit 22 calculates the self position of the vehicle 51 by cumulatively adding the movement amount of the vehicle to the initial position obtained from the last received GPS signal.
  • the self-position detecting unit 12 detects the information on the initial position as the self-position information D05 without accumulating the movement amount of the vehicle.
  • the self-position detecting unit 12 outputs the position information obtained by accumulating the moving amount of the vehicle to the last detected initial position as the self-position information D05.
  • the positions of the vehicles 51A to 51C that are closest to the ground landmarks LM1 to LM3 correspond to the points at which the initial positions of the vehicles 51 are detected by receiving GPS signals. To do.
  • the self-position detection unit 12 detects the self-position using the GPS satellite as a landmark
  • the error estimation unit 16 detects the position of the vehicle when the signal transmitted from the GPS satellite is last received.
  • the error is estimated based on the amount of movement from to the self position.
  • the initial position can be detected with high accuracy by using the GPS signal transmitted from the GPS satellite. Therefore, the error (Ds) can be accurately estimated based on the amount of movement from the reception of the GPS signal to the self position.
  • the self-position detecting unit 12 may detect the self-position using both the ground landmark and the GPS satellite as the landmark.
  • the error estimation unit 16 may estimate the error (Ds) based on the amount of movement from the last detection of the ground landmark or the reception of the GPS signal to the self position.
  • the error estimation unit 16 may finally estimate the error (Ds) based on the movement amount from the position received from the ground landmark to the self position.
  • the self-position detecting unit 12 may detect the self-position of the vehicle 51 from the road-side vehicle position detecting device by road-to-vehicle communication or the like.
  • the error estimator 16 finally estimates the error (Ds) based on the amount of movement from the position (initial position) of the vehicle 51 received from the vehicle position detection device on the road side to the own position. Good.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

 物標検出装置(100)は、車両の周囲を撮像して画像を取得し(11)、車両の初期位置からの移動量に基づいて、車両の自己位置を検出し(12)、車両の周囲の物標の地図上の位置情報及び自己位置から車両に対する物標の相対位置を推定する(13)。車両に対する物標の相対位置から、画像における物標の検出領域を設定し(14)、検出領域から物標を検出する(15)。そして、自己位置に含まれる誤差を車両の初期位置からの移動量に基づいて推定し(16)、誤差に応じて物標の検出領域の大きさを調整する(14)。

Description

物標検出装置及び物標検出方法
 本発明は、物標検出装置及び物標検出方法に関する。
 従来から、車両前方の画像データから交通用表示器を検出する画像処理システムが知られている(特許文献1)。特許文献1では、車両の位置及び姿勢を検出することにより、交通用表示器の位置を予測し、この予測位置に基づき、画像データに対して画像処理領域を決定し、画像処理領域から交通用表示器を検出する。これにより、画像処理の負担を軽減している。
特開2007-241469号公報
 しかし、特許文献1の画像処理システムは、画像処理領域を決定する際に、検出した車両の位置及び姿勢に含まれる誤差を考慮していない。当該誤差は車両周囲の状況に応じて大きく変化する。誤差が大きければ画像処理領域から交通用表示器が外れてしまい、交通用表示器を検出できない。一方、画像処理領域が広すぎると、交通用表示器以外のものを誤検出する可能性が高まる。
 本発明は、上記課題に鑑みてなされたものであり、物標を精度良く検出することができる物標検出装置及び物標検出方法を提供することを目的としている。
 本発明の一態様に係わる物標検出装置は、車両の周囲を撮像して画像を取得し、車両の初期位置からの移動量に基づいて、車両の自己位置を検出し、車両の周囲の物標の地図上の位置情報及び自己位置から車両に対する物標の相対位置を推定する。車両に対する物標の相対位置から、画像における物標の検出領域を設定し、検出領域から物標を検出する。そして、自己位置に含まれる誤差を車両の初期位置からの移動量に基づいて推定し、誤差に応じて物標の検出領域の大きさを調整する。
図1は、実施形態に係わる物標検出装置100へ入出力される情報を示すブロック図である。 図2は、実施形態に係わる物標検出装置100の構成及びデータフローを示すブロック図である。 図3は、図2の自己位置検出部12の構成及びデータフローを示すブロック図である。 図4は、図2の検出領域設定部14の構成及びデータフローを示すブロック図である。 図5(a)は、地上ランドマークから車両51の進行方向への移動量(距離)に対する車両51の座標の誤差を示すグラフであり、図5(b)は、地上ランドマークから各回転方向(ロール方向、ピッチ方向、ヨー方向)への車両51の移動量(角度)に対する車両51の姿勢の誤差を示すグラフである。 図6(a)は、地上ランドマークLM1~LM3が設置された直線道路LD1を走行する車両51A~51Cを示す図であり、図6(b)は、誤差推定部16が推定する誤差を示す表であり、図6(c)は、自己位置検出部12が検出する自己位置を示す表である。 図7(a)は、地上ランドマークLM1が設置された直線道路LD1を走行する車両51A~51Cを示す図であり、図7(b)は、誤差推定部16が推定する誤差を示す表である。 図8(a)は、地上ランドマークLM1、LM2が設置されたカーブLD2を走行する車両51A、51Bを示す図であり、図8(b)は、誤差推定部16が推定する誤差を示す表であり、図8(c)は、自己位置検出部12が検出する自己位置を示す表である。 図9(a)は、地上ランドマークLM1が設置されたカーブLD2を走行する車両51A、51Bを示す図であり、図9(b)は、誤差推定部16が推定する誤差を示す表である。 図10は、画像(Img)上の二次元座標(xl,yl)を示す平面図であって、誤差を考慮していない物標の座標(G)と誤差が最大に生じた場合の物標の座標(G)を示す。 図11は、図10に示す検出領域(Z)の大きさを比較した表である。 図12は、物標検出装置100を用いた物標検出方法の一例を示すフローチャートである。
 以下、本発明の実施形態を複数の図面に基づいて説明する。同一部材には同一符号を付して再度の説明を省略する。
(第1実施形態)
 図1を参照して、実施形態に係わる物標検出装置100のへ入出力される情報を説明する。物標検出装置100は、車両51に搭載された撮像部(カメラ)により撮像された画像から、道路周辺に設置された物標を検出する。物標は、地上に固定されたものであって、例えば、信号機、道路標識が含まれる。本例では、信号機を例に取り説明を続ける。
 物標検出装置100には、地図情報D02と、ランドマーク情報D01と、カメラ情報D03とが入力される。地図情報D02には、予め実環境と地図の間で対応付けされた物標の位置情報を含まれる。ランドマーク情報D01は、実環境上の車両51の自己位置を算出するために用いられる。ランドマークには、地上に設けられた特徴物(地上ランドマーク)、及び車両51が受信可能なGPS信号を発信するGPS衛星が含まれる。第1実施形態では、地上ランドマークを例に取り説明する。ランドマーク情報D01には、例えば、地上ランドマークの位置情報が含まれる。カメラ情報D03は、撮像部から車両51の周囲(例えば前方)の映像を抽出するために用いられる。物標検出装置100は、これらの情報D01~D03に基づいて、物標の一例である信号機の認識結果を信号機情報D04として出力する。
 図2を参照して、実施形態に係わる物標検出装置100の構成及びデータフローを説明する。物標検出装置100は、撮像部11と、自己位置検出部12と、物標位置推定部13と、検出領域設定部14と、物標検出部15と、誤差推定部16とを備える。
 撮像部11は、車両51に搭載され、車両51の周囲を撮像して画像を取得する。撮像部11は、固体撮像素子、例えばCCD及びCMOSを備えるカメラであって、画像処理が可能な画像を取得する。撮像部11は、カメラ情報D03に基づいて、画像の画角、カメラの垂直方向及び水平方向の角度を設定し、取得した画像を画像データD08として出力する。
 自己位置検出部12は、ランドマーク情報D01に基づいた車両51の地図情報D02上の初期位置からの移動量から車両51の自己位置を検出する。ランドマーク情報D01は、例えば、車載のカメラ或いはレーザレーダ等のセンシング手段により検出された地上ランドマーク(店舗、名所、観光スポット)の車両51に対する相対位置の情報である。地図情報D02の中には、地上ランドマークの位置情報が予め登録されている。ランドマーク情報D01と地上ランドマークの相対位置の情報とを照合することにより、車両51の自己位置を検出することができる。ここで、「位置」には、座標及び姿勢が含まれる。具体的には、地上ランドマークの位置には、地上ランドマークの座標及び姿勢が含まれ、車両51の位置には、車両51の座標及び姿勢が含まれる。自己位置検出部12は、基準となる座標系における座標(x, y, z)及び、各座標軸の回転方向である姿勢(ピッチ、ヨー、ロール)を自己位置情報D05として出力する。
 物標位置推定部13は、地図情報D02と自己位置情報D05とから、車両51に対する物標の相対位置を推定する。地図情報D02の中には、物標の位置情報(座標情報)が予め登録されている。物標の座標と車両51の座標及び姿勢とから、車両51に対する物標の相対座標を求めることができる。物標位置推定部13は、推定した物標の相対位置を相対位置情報D06として出力する。
 誤差推定部16は、自己位置検出部12により検出された自己位置に含まれる誤差を、車両の初期位置からの移動量に基づいて推定する。誤差推定部16の詳細は、図5~図9を参照して後述する。
 検出領域設定部14は、物標の相対位置から、画像における物標の検出領域を設定する。撮像部11は車両51に固定されているため、撮像部11が撮像する画角が定まれば、画像の中で、物標が撮像されるであろう画像上の位置を特定することができる。検出領域設定部14は、この画像上の位置に基づいて、画像における物標の検出領域を設定する。
 検出領域設定部14は、誤差推定部16により推定された誤差に応じて、物標の検出領域の大きさを調整する。検出領域設定部14は、設定及び調整した検出領域を検出領域情報D09として出力する。検出領域設定部14の詳細は、図10~図11を参照して後述する。
 物標検出部15は、設定及び調整された検出領域から物標を検出する。具体的には、検出領域に含まれる画像データD08に対して、物標を検出するための画像処理を実施する。画像処理の方法は特に問わない。例えば、物標が信号機である場合、信号機が有する信号灯を、商用電源の交流周期に基づく同期検波処理、又は色相及び形状の類似判定処理を用いて、検出することができる。その他、物標を検出するための既知の画像処理を適用することができる。画像データD08全体ではなく、その一部分(検出領域)に対して画像処理を実施することにより、物標検出のための情報処理負担を軽減して、早期に物標を検出することができる。物標検出部15は、物標の検出結果を物標情報D04として出力する。
 なお、自己位置検出部12、物標位置推定部13、誤差推定部16、検出領域設定部14、及び物標検出部15は、CPU、メモリ、及び入出力部を備えるマイクロコントローラを用いて実現することができる。具体的に、CPUは、予めインストールされたコンピュータプログラムを実行することにより、マイクロコントローラが備える複数の情報処理部(12~16)を構成する。マイクロコントローラが備えるメモリの一部は、地図情報D02を記憶する地図データベースを構成する。なお、マイクロコントローラは、車両にかかわる他の制御(例えば、自動運転制御)に用いるECUと兼用してもよい。
 図3を参照して、図2の自己位置検出部12の構成及びデータフローを説明する。自己位置検出部12は、初期位置検出部21と、移動量加算部22とを備える。初期位置検出部21は、ランドマーク情報D01を用いて車両51の初期位置を検出する。初期位置とは、車両51の自己位置が検出できる位置であり、ランドマーク情報D01から直接求めることができる車両51の位置、すなわち座標及び姿勢である。なお、道路側に設置されており、設置されている道路区間において、走行している車両の位置を検出する装置があり、路車間通信等によって、自車両の位置情報が得られる場合、道路側の車両位置検出装置から車両51の位置を受信することで、車両51の自己位置が検出できる位置が得られる。
 移動量加算部22は、初期位置検出部21により検出された初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。例えば、センシング手段により地上ランドマークが検出されている場合、車両の移動量を累積加算することなく、自己位置検出部12は初期位置の情報を自己位置情報D05として検出する。一方、地上ランドマークが検出されていていない場合に、自己位置検出部12は、最後に検出された初期位置に車両の移動量を累積加算した位置の情報を、自己位置情報D05として出力する。車両の移動量の推定方法は、特に問わず、既知の方法を用いて行うことができる。例えば、移動量加算部22は、オドメトリ、レーダ装置、ジャイロセンサ、ヨーレイトセンサ、舵角センサを用いて、単位時間当たりの車両の移動量、つまり、座標及び姿勢の変化量を推定することができる。
 なお、図3の自己位置検出部12の構成に対して、図2の誤差推定部16は、移動量加算部22により累積加算された車両51の移動量に基づいて自己位置の誤差を推定する。移動量加算部22により推定される車両の移動量の精度は、ランドマークを用いて検出される初期位置の精度に比べて低い。初期位置に車両の移動量を累積加算することにより、自己位置に含まれる誤差も同時に累積加算される。よって、ランドマークを用いて検出された初期位置からの移動量に応じて、車両の自己位置に含まれる誤差は大きく変化する。初期位置からの移動量に基づいて誤差を推定することにより、誤差を精度良く推定することができる。詳細は、図5~図9を参照して後述する。
 図4を参照して、図2の検出領域設定部14の構成及びデータフローを説明する。検出領域設定部14は、物標位置誤差推定部31と、座標変換部32と、領域決定部34とを備える。
 物標位置誤差推定部31は、自己位置に含まれる誤差により、物標の相対位置に生じる誤差を推定する。具体的に、物標位置誤差推定部31には、相対位置情報D06と誤差情報D07とが入力される。そして、車両51の座標及び姿勢の各々に、誤差推定部16により推定された誤差が生じた場合に、車両51に対する物標の相対座標に生じる誤差を推定する。物標位置誤差推定部31は、物標の相対座標に生じる誤差を物標位置誤差情報D11として出力する。
 座標変換部32は、物標の相対座標及びその誤差を、物標を撮像した画像上の座標へそれぞれ変換する。具体的に、座標変換部32には、相対位置情報D06及び物標位置誤差情報D11が入力される。座標変換部32は、撮像部11が有するレンズ光学系に基づき、物標の三次元座標(x, y, z)を画像上の二次元座標(xl,yl)へ変換する座標変換処理を行う。座標変換方法は特に問わず、既知の方法を用いることができる。座標変換部32は、誤差を考慮していない物標の二次元座標、及び誤差が最大に生じた場合の物標の二次元座標を、レンズ座標情報D12として出力する。
 領域決定部34は、誤差を考慮していない座標と誤差が最大に生じた場合の座標との差に基づいて検出領域の大きさを決定し、誤差を考慮していない座標に基づいて検出領域の中心座標を決定する。詳細は、図10を参照して後述する。検出領域の大きさ及び中心座標は、検出領域情報D09として出力される。
 図5~図9を参照して、移動量加算部22により累積加算される車両51の移動量に基づいて推定される自己位置の誤差について説明する。図5(a)の横軸は、初期位置から進行方向(z方向)への車両51の移動距離を示し、図5(a)の縦軸は、車両51の座標に含まれる誤差(gx、gy、gz)を示す。gzは車両51の進行方向の誤差を示し、gxは車両51の幅方向の誤差を示し、gyは車両51の高さ方向の誤差を示す。
 車両51の座標に含まれる誤差(gx、gy、gz)は、初期位置からの移動距離に比例して増加する。初期位置からの移動距離がゼロの場合、誤差(gx、gy、gz)もゼロである。なお、図5(a)において、初期位置検出部21が検出する初期位置に含まれる誤差は考慮していない。車両51の座標は、初期位置に対して、単位時間あたりの座標の変化量を累積加算することにより算出される。このため、初期位置からの移動距離が長くなれば、累積加算される座標の変化量も大きくなり、よって、車両51の座標に含まれる誤差(gx、gy、gz)も大きくなる。z方向(進行方向)への移動距離に対して、車両51の幅方向の誤差(gx)が最も大きく、車両の高さ方向の誤差(gy)が最も小さい。
 図5(b)の横軸は、初期位置から各回転方向(ロール方向、ピッチ方向、ヨー方向)への車両51の移動量(角度の変化量)を示し、図5(b)の縦軸は、車両51の姿勢に含まれる誤差(gr、gp、gya)を示す。grは車両51のロール方向の誤差を示し、gpは車両51のピッチ方向の誤差を示し、gyaは車両51のヨー方向の誤差を示す。
 車両51の姿勢に含まれる誤差(gr、gp、gya)は、初期位置における車両の51の姿勢(初期姿勢)からの変化量に比例して増加する。初期姿勢からの変化量がゼロの場合、予め定めた誤差(gr、gp、gya)が生じる。つまり、図5(b)において、初期位置検出部21が検出する初期姿勢に含まれる誤差が考慮されている。車両51の姿勢は、初期姿勢に対して、単位時間あたりの姿勢の変化量を累積加算することにより算出される。このため、初期姿勢からの変化量が大きくなれば、累積加算される姿勢の変化量も大きくなり、よって、車両51の姿勢に含まれる誤差(gr、gp、gya)も大きくなる。各回転方向への変化量に対して、ロール方向及びピッチ方向の誤差(gr、gp)が最も大きく、ヨー方向の誤差(gya)が最も小さい。ヨー方向に回転した場合には、ヨー方向にのみ誤差(gya)が生じる。ロール方向及びピッチ方向についても同様である。
 次に、図6~図9に示す道路形状及び地上ランドマークの具体的な事例に沿って、誤差推定部16が推定する誤差、及び自己位置検出部12が検出する自己位置を説明する。
 図6(a)は、地上ランドマークLM1~LM3が設置された直線道路LD1を走行する車両51A~51Cを示す。図6(b)は、誤差推定部16が推定する誤差を示す表であり、図6(c)は、自己位置検出部12が検出する自己位置を示す表である。車両51Aは、地上ランドマークLM1に最も接近した時の車両の位置を示す。車両51B及び51Cも同様にして、地上ランドマークLM2及びLM3に最も接近した時の車両の位置を示す。また、物標Tgtの一例である信号機は、車両51A、51B及び51Cから、進行方向へ200m、120m、及び40mだけ離れている。
 車両51A、51B及び51Cの各地点において、自己位置検出部12は、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。よって、図6(b)に示すように、車両51A、51B及び51Cの各地点において、誤差推定部16が推定する誤差は、初期位置検出部21が検出する初期姿勢に含まれる誤差と等しい。なお、直線道路LD1を走行するため、図6(c)に示すように、自己位置検出部12が検出する自己位置は、進行方向(z方向)の座標(z)のみが変化している。図6(c)に示す座標は、物標Tgtを原点とする座標である。それぞれ単位は、gx[m]、gy[m]、gz[m]、gp[°]、gya[°]、gr[°]、x[m]、y[m]、z[m]、pich[°]、yaw[°]、roll[°]である。
 これに対して、図7(a)は、直線道路LD1に、地上ランドマークLM1のみが設置されている事例を示す。自己位置検出部12は、車両51Aの地点において、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。このため、図7(b)に示すように、車両51Aの地点において、図6(b)と同様な座標及び姿勢の誤差が生じる。しかし、地上ランドマークLM2及びLM3が設置されていないため、車両51B及び51Cにおける自己位置は、車両51Aからの移動量を累積加算することにより算出される。よって、車両51B及び51Cにおける座標の誤差は、図6(b)とは異なる。誤差推定部16は、図5(a)に示すデータを参照して、車両51Aからの移動量(80m、160m)から、座標の誤差を算出する。車両51Aからの移動量が大きくなるほど、座標(gx、gy、gz)の誤差が大きくなる。なお、本事例では、車両51は各回転方向に移動していないため、車両51B及び51Cにおける姿勢の誤差は、図6(b)と同じである。
 図8(a)は、地上ランドマークLM1、LM2が設置されたカーブLD2を走行する車両51A、51Bを示す。図8(b)は、誤差推定部16が推定する誤差を示す表であり、図8(c)は、自己位置検出部12が検出する自己位置を示す表である。車両51A及び51Bは、地上ランドマークLM1及びLM2に最も接近した時の車両の位置を示す。
 車両51A及び51Bの各地点において、自己位置検出部12は、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。よって、図8(b)に示すように、車両51A及び51Bの各地点において、誤差推定部16が推定する誤差は、初期位置検出部21が検出する初期姿勢に含まれる誤差と等しい。図8(c)に示す座標は、物標Tgtを原点とする座標である。
 これに対して、図9(a)は、カーブLD2に、地上ランドマークLM1のみが設置されている事例を示す。自己位置検出部12は、車両51Aの地点において、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。このため、図9(b)に示すように、車両51Aの地点において、図8(b)と同様な座標及び姿勢の誤差が生じる。しかし、地上ランドマークLM2が設置されていないため、車両51Bにおける自己位置は、車両51Aからの移動量を累積加算することにより算出される。車両51Aから車両51Bの間に、車両51はヨー方向に90°回転移動している。誤差推定部16は、図5(b)に示すデータを参照して、車両51Aからの移動量から、ヨー方向の誤差(gya)を算出する。図9(b)に示すように、車両51Bにおけるヨー方向の誤差(gya)が増加している。なお、車両51Aから車両51Bの間に、車両の姿勢のみならず、車両の座標も変化しているが、図9の事例では、姿勢の変化のみを考慮し、座標の変化は考慮しない。
 図10を参照して、検出領域の大きさ及び中心座標を決定する方法の一例を説明する。図10は、画像(Img)上の二次元座標(xl,yl)を示す平面図である。座標(G)は、座標変換部32により座標変換された、誤差を考慮していない物標の二次元座標を示す。座標(G)は、座標変換部32により座標変換された、誤差が最大に生じた場合の物標の二次元座標を示す。座標(G)と座標(G)との差(Xm、Ym)は、座標変換部32により座標変換された、物標の相対座標に含まれる誤差に相当する。
 検出領域設定部14は、座標(G)を中心座標とし、物標の大きさに対して、X方向及びY方向にそれぞれ2×Xm及び2×Ymの長さを加えた4辺を有する検出領域(Z)を設定する。これにより、誤差が最大に生じた場合であっても、検出領域(Z)内に物標の座標(G)が収まるため、物標が検出領域から外れ難くすることができる。また、検出領域(Z)を広げ過ぎることが無くなるので、物標以外のものが誤検出され難くなり、且つ演算負荷を下げた状態で物標を検出できる。
 或いは、検出領域設定部14は、予め用意された複数の異なる大きさの検出領域(Z)の中から、最も近い大きさの検出領域(Z)を選択してもよい。
 図11を参照して、図6~図9に示す事例における検出領域(Z)の大きさを比較する。ここでは、図6の車両51C及び図8の車両51Bにおける検出領域(Z)の大きさをそれぞれ基準値(x)とする。図6の車両51Bでは、自己位置(座標および姿勢)に含まれる誤差は、図6の車両51Cと同じであるが、物標までの距離が異なる。このため、検出領域(Z)の大きさは、基準値(x)の3倍となる。図7の車両51Bでは、地上ランドマークが無いため、移動量の累積加算による誤差が発生する。このため、検出領域(Z)の大きさは、更に大きくなり、基準値(x)の5倍となる。図7の車両51Cでは、移動量の累積加算による誤差は更に増加するが、物標までの距離は縮まる。このため、検出領域(Z)の大きさは、小さくなり、基準値(x)の2倍となる。同様に、図9の車両51Bでは、移動量の累積加算による誤差が発生するため、検出領域(Z)の大きさは、基準値(x)の2倍となる。
 このように、物標からの距離が離れると、ヨー方向及びピッチ方向の誤差(gya、gp)の影響が強くなり、大きな検出領域が必要となる。また、物標との距離が近づくと座標の誤差(gx、gy、gz)の影響が強くなるため、ランドマーク情報の有無によって検出領域(Z)の大きさに差が生じる。
 図12を参照して、物標検出装置100を用いた物標検出方法の一例を説明する。
 ステップS01において、撮像部11は、カメラ情報D03に基づいて車両51の周囲を撮像して画像を取得する。ステップS03に進み、自己位置検出部12は、ランドマーク情報D01から車両51の初期位置を求めた上、車両51の初期位置からの移動量に基づき、車両51の自己位置を検出し、検出された自己位置を自己位置情報D05として出力する。
 ステップS05に進み、物標位置推定部13は、地図情報D02と自己位置情報D05とから、車両51に対する物標の相対位置を推定する。ステップS07に進み、誤差推定部16は、ステップS03で検出された自己位置に含まれる誤差(Ds)を、自己位置に基づいて推定する。具体的には、車両51の自己位置に含まれる誤差(gx、gy、gz、gr、gp、gya)を、図5(a)及び(b)を参照して、初期位置からの移動量(距離或いは角度)に応じて推定する。
 ステップS09に進み、推定した誤差(Ds)が所定のしきい値(Dth)よりも大きいか否かを判断する。誤差(Ds)がしきい値(Dth)よりも大きい場合(S09でYES)、物標の相対位置に生じる誤差も大きくなるため、誤差に応じて検出領域(Z)の大きさを調整する必要性が高まる。そこで、ステップS13へ進み、物標位置誤差推定部31は、自己位置に含まれる誤差により、物標の相対位置に生じる誤差を推定する。
 なお、しきい値(Dth)は、車両の座標に含まれる誤差(gx、gy、gz)及び車両の姿勢に含まれる誤差(gr、gp、gya)の各々に設定することができる。そして、各誤差のうち、いずれか1つがしきい値よりも大きい場合に、ステップS09でYESと判断することができる。或いは、全ての誤差がしきい値よりも大きい場合に限り、ステップS09でYESと判断しても構わない。
 ステップS15に進み、座標変換部32は、物標の相対座標及びその誤差を、図10に示すように、物標を撮像した画像(Img)上の座標(xl,yl)へそれぞれ変換する。ステップS17に進み、領域決定部34は、誤差を考慮していない座標(G)と誤差が最大に生じた場合の座標(G)との差(Xm、Ym)に基づいて、図11に示すように、検出領域(Z)の大きさを設定する。ステップS19に進み、領域決定部34は、誤差を考慮していない座標(G)に基づいて検出領域(Z)の中心座標を決定する。これにより、検出領域(Z)が決定される。
 一方、誤差(Ds)がしきい値(Dth)以下である場合(S09でNO)、物標の相対位置に生じる誤差も小さくなる。このため、検出領域(Z)の大きさを、誤差に応じて調整する必要性も低い。そこで、ステップS11に進み、ステップS05で推定した物標の相対位置を座標変換して、誤差を考慮していない座標(G)を求める。ステップS19に進み、誤差を考慮していない座標(G)に基づいて、検出領域(Z)の中心座標を決定する。この場合の検出領域(Z)の大きさは、予め定めた値、例えば、図11の基準値(x)である。つまり、誤差(Ds)がしきい値(Dth)以下である場合、誤差(Ds)に応じて検出領域(Z)の大きさを調整せずに、検出領域(Z)を決定する。
 ステップS21に進み、前回からの誤差(Ds)の変化量が所定の基準値以上であるか否かを判断する。誤差(Ds)の変化量が所定の基準値以上であれば(S21でYES)、ステップS23に進み、領域決定部34は、検出領域情報D09の一例として、検出領域の大きさの調整量をメモリに記憶する。誤差(Ds)の変化量が所定の基準値未満であれば(S21でNO)、領域決定部34は、検出領域の大きさの調整量を更新しない。そして、ステップS25に進み、物標検出部15は、設定及び調整された検出領域に含まれる画像データD08に対して、物標を検出するための画像処理を実施する。
 以上説明したように、第1実施形態によれば、以下の作用効果が得られる。
 車両51の自己位置に含まれる誤差(Ds)を当該車両の初期位置からの移動量に基づいて推定し、誤差(Ds)に応じて物標の検出領域(Z)の大きさを調整する。これにより、誤差(Ds)を考慮して物標の検出領域(Z)の大きさを調整することができる。よって、車両周囲の状況に応じて誤差(Ds)が大きく変化しても、誤差(Ds)に応じて適切な大きさの検出領域(Z)を設定することができる。例えば、誤差が大きければ検出領域を大きくして、物標が検出領域から外れ難くすることができる。一方、誤差が小さければ検出領域を小さくして、物標以外のものが誤検出され難くすることができる。また、画像処理の負担も軽減される。このように、車両の自己位置に含まれる誤差を考慮して物標の検出領域の大きさを適切に調整することにより、物標を精度良く検出することができる。誤差が生じた場合でも、物標の認識に必要な検出領域を確保し、かつ検出領域を最低限に狭めることで、演算負荷を下げた状態で物標を検出できる。
 ランドマーク(例えば、地上ランドマークLM1~LM3)を用いて検出された初期位置に累積加算される移動量に応じて、車両51の自己位置に含まれる誤差(Ds)は大きく変化する。初期位置からの移動量に基づいて誤差を推定することにより、誤差を精度良く推定することができる。
 地上にある特徴物(地上ランドマークLM1~LM3)の位置情報と地図情報D02とを照合することにより自己位置を精度良く検出することができる。よって、ランドマークから自己位置までの移動量に基づいて誤差(Ds)を精度良く推定することができる。
 自己位置検出部12は、自己位置として、車両の座標及び車両の姿勢を検出する。誤差推定部16は、車両の進行方向への移動量に基づいて、車両の座標に含まれる誤差を推定し、車両の回転方向への移動量に基づいて、車両の姿勢に含まれる誤差を推定する。これにより、車両の自己位置に含まれる誤差(Ds)を正確に推定することができるので、誤差(Ds)に起因して物標の相対位置に生じる誤差も正確に推定することができる。
 領域決定部34は、誤差(Ds)の変化量が所定の基準値以上である場合、検出領域の大きさの調整量を保持する。これにより、最新の検出領域情報D09を保持することができる。
(第2実施形態)
 第2実施形態では、自己位置を検出するためのランドマークとして、車両51が受信可能なGPS信号を発信するGPS衛星を例に取り説明する。自己位置検出部12は、ランドマーク情報D01としてGPS信号を受信し、GPS信号から車両51の初期位置(初期座標及び初期姿勢)を検出する。
 GPS信号は、車両51周囲の状況、例えば車両周囲に多数の建物がある状況によって遮断され、車両51はGPS信号を受信できない場合がある。この場合、自己位置検出部12は、初期位置検出部21により検出された初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。
 図3の初期位置検出部21は、GPS信号を用いて車両51の初期位置を検出する。初期位置とは、GPS信号から直接求めることができる車両51の位置、すなわち座標及び姿勢である。移動量加算部22は、GPS信号が受信されていない場合に、最後に受信したGPS信号から求めた初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。
 例えば、GPS信号が受信されている場合、車両の移動量を累積加算することなく、自己位置検出部12は初期位置の情報を自己位置情報D05として検出する。一方、GPS信号が受信されていない場合に、自己位置検出部12は、最後に検出された初期位置に車両の移動量を累積加算した位置の情報を、自己位置情報D05として出力する。
 図6(a)~図9(a)に示す事例において、地上ランドマークLM1~LM3に最も近づく車両51A~51Cの位置は、GPS信号を受信して車両51の初期位置を検出した地点に相当する。
 その他、物標検出装置100及び物標検出方法に関する構成は、第1実施形態と同じであり、説明を省略する。
 以上説明したように、自己位置検出部12は、GPS衛星をランドマークとして用いて自己位置を検出し、誤差推定部16は、GPS衛星から送信される信号を最後に受信した時の車両の位置から自己位置までの移動量に基づいて、誤差を推定する。これにより、GPS衛星から送信されるGPS信号を用いることにより初期位置を精度良く検出することができる。よって、GPS信号を受信してから自己位置までの移動量に基づいて誤差(Ds)を精度良く推定することができる。
 以上、実施例に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
 例えば、自己位置検出部12は、地上ランドマーク及びGPS衛星の両方を、ランドマークとして用いて自己位置を検出してもよい。この場合、誤差推定部16は、最後に、地上ランドマークを検出してから、或いはGPS信号を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
 また、地上ランドマークと車両51との間で通信を行える場合には、地上ランドマークと車両51との相対位置関係を、GPS衛星を利用する場合と同様に、通信によって得ることができる。この場合、誤差推定部16は、最後に、地上ランドマークから位置を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
 また、道路側に設置されており、設置されている道路区間において、走行している車両の位置を検出する装置があり、路車間通信等によって、自車両の位置情報が得られる場合がある。この場合、自己位置検出部12は、車両51の自己位置を、路車間通信等によって、道路側の車両位置検出装置より、検出するようにしてもよい。この場合、誤差推定部16は、最後に、道路側の車両位置検出装置から車両51の位置(初期位置)を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
 11 撮像部
 12 自己位置検出部
 13 物標位置推定部
 14 検出領域設定部
 15 物標検出部
 16 誤差推定部
 21 初期位置検出部
 22 移動量加算部
 Z 検出領域

Claims (6)

  1.  車両に搭載され、前記車両の周囲を撮像して画像を取得する撮像部と、
     前記車両の初期位置からの移動量に基づいて、前記車両の自己位置を検出する自己位置検出部と、
     前記車両の周囲の物標の地図上の位置情報と前記自己位置とから、前記車両に対する前記物標の相対位置を推定する物標位置推定部と、
     前記車両に対する前記物標の相対位置から、前記画像における前記物標の検出領域を設定する検出領域設定部と、
     前記検出領域から前記物標を検出する物標検出部と、
     前記自己位置検出部により検出された前記自己位置に含まれる誤差を、前記車両の初期位置からの移動量に基づいて推定する誤差推定部と、を備え、
     前記検出領域設定部は、前記誤差推定部により推定された前記誤差に応じて、前記物標の検出領域の大きさを調整する
     ことを特徴とする物標検出装置。
  2.  前記自己位置検出部は、
     ランドマークを用いて前記車両の初期位置を検出する初期位置検出部と、
     前記初期位置に、前記車両の移動量を累積加算することで前記自己位置を算出する移動量加算部と、を備え、
     前記誤差推定部は、前記車両の初期位置からの前記車両の移動量に基づいて前記誤差を推定する
     ことを特徴とする請求項1に記載の物標検出装置。
  3.  前記初期位置検出部は、GPS衛星をランドマークとして用いて前記初期位置を検出し、
     前記誤差推定部は、GPS衛星から送信される信号を最後に受信した時の前記初期位置からの前記車両の移動量に基づいて、前記誤差を推定する
     ことを特徴とする請求項2に記載の物標検出装置。
  4.  前記自己位置検出部は、前記自己位置として、前記車両の座標及び前記車両の姿勢を検出し、
     前記誤差推定部は、前記車両の進行方向への移動量に基づいて、前記車両の座標に含まれる誤差を推定し、前記車両の回転方向への移動量に基づいて、前記車両の姿勢に含まれる誤差を推定する
     ことを特徴とする請求項1~3のいずれか一項に記載の物標検出装置。
  5.  前記検出領域設定部は、前記誤差の変化量が所定の基準値以上である場合、検出領域の大きさの調整量を保持することを特徴とする請求項1~4のいずれか一項に記載の物標検出装置。
  6.  車両に搭載された撮像部を用いて、前記車両の周囲を撮像して画像を取得し、
     前記車両の初期位置からの移動量に基づいて、前記車両の自己位置を検出し、
     前記車両の周囲の物標の地図上の位置情報と前記自己位置とから、前記車両に対する前記物標の相対位置を推定し、
     前記車両に対する前記物標の相対位置から、前記画像における前記物標の検出領域を設定し、
     前記自己位置に含まれる誤差を、前記車両の初期位置からの移動量に基づいて推定し、
     前記誤差に応じて、前記物標の検出領域の大きさを調整し、
     前記検出領域から前記物標を検出する
     ことを特徴とする物標検出方法。
PCT/JP2014/063351 2014-05-20 2014-05-20 物標検出装置及び物標検出方法 Ceased WO2015177865A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
RU2016146709A RU2633641C1 (ru) 2014-05-20 2014-05-20 Устройство обнаружения цели и способ обнаружения цели
PCT/JP2014/063351 WO2015177865A1 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法
JP2016520844A JP6222353B2 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法
EP14892586.0A EP3147629B1 (en) 2014-05-20 2014-05-20 Object detection device and object detection method
BR112016026372-3A BR112016026372B1 (pt) 2014-05-20 2014-05-20 Aparelho de detecção de alvo e método de detecção de alvo
MX2016014733A MX355397B (es) 2014-05-20 2014-05-20 Aparato de deteccion de objetivos y metodo de deteccion de objetivos.
CN201480079086.XA CN106461403B (zh) 2014-05-20 2014-05-20 物体检测装置及物体检测方法
US15/311,250 US9767372B2 (en) 2014-05-20 2014-05-20 Target detection apparatus and target detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/063351 WO2015177865A1 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法

Publications (1)

Publication Number Publication Date
WO2015177865A1 true WO2015177865A1 (ja) 2015-11-26

Family

ID=54553563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/063351 Ceased WO2015177865A1 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法

Country Status (8)

Country Link
US (1) US9767372B2 (ja)
EP (1) EP3147629B1 (ja)
JP (1) JP6222353B2 (ja)
CN (1) CN106461403B (ja)
BR (1) BR112016026372B1 (ja)
MX (1) MX355397B (ja)
RU (1) RU2633641C1 (ja)
WO (1) WO2015177865A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
CN109477724A (zh) * 2016-07-26 2019-03-15 日产自动车株式会社 自身位置推定方法及自身位置推定装置
CN115993089A (zh) * 2022-11-10 2023-04-21 山东大学 基于pl-icp的在线四舵轮agv内外参标定方法
KR102731628B1 (ko) * 2024-03-04 2024-11-18 국방과학연구소 관성항법 장치의 자세 오차 보정 방법 및 시스템

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6361366B2 (ja) * 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
EP3104189B1 (en) * 2015-06-11 2020-09-30 Veoneer Sweden AB Misalignment estimation for a vehicle radar system
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 自動運転システム
US11519727B2 (en) * 2017-05-19 2022-12-06 Pioneer Corporation Measurement device, measurement method and program
DE102017220139A1 (de) * 2017-11-13 2019-05-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen einer Position wenigstens eines Objekts
WO2019185165A1 (en) * 2018-03-30 2019-10-03 Toyota Motor Europe System and method for adjusting external position information of a vehicle
US10839522B2 (en) * 2018-05-11 2020-11-17 Toyota Research Institute, Inc. Adaptive data collecting and processing system and methods
WO2020137313A1 (ja) * 2018-12-28 2020-07-02 パナソニックIpマネジメント株式会社 位置測定装置
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
JP7227112B2 (ja) * 2019-09-27 2023-02-21 日立Astemo株式会社 物体検出装置、走行制御システム、および走行制御方法
MX2022005598A (es) 2019-11-12 2023-04-18 Nissan Motor Metodo de reconocimiento de semaforo y dispositivo de reconocimiento de semaforo.
EP3825731B1 (de) * 2019-11-21 2022-01-05 Sick Ag Optoelektronischer sicherheitssensor und verfahren zur sicheren bestimmung der eigenen position
US11935292B2 (en) 2020-06-22 2024-03-19 Carnegie Robotics, Llc Method and a system for analyzing a scene, room or venue
EP3929613A1 (en) * 2020-06-22 2021-12-29 Carnegie Robotics, LLC A method for navigating a movable device along an inclined surface
EP3988899B1 (en) * 2020-10-23 2024-05-22 Atlantic Inertial Systems Limited Terrain referenced navigation system
JP2023111192A (ja) * 2022-01-31 2023-08-10 本田技研工業株式会社 画像処理装置、移動体制御装置、画像処理方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (ja) * 2003-10-21 2005-04-28 Waro Iwane ナビゲーション装置
JP2007309757A (ja) * 2006-05-17 2007-11-29 Toyota Motor Corp 対象物認識装置
WO2008075438A1 (ja) * 2006-12-21 2008-06-26 Pioneer Corporation ナビゲーション装置、マップマッチング方法、及び、マップマッチングプログラム
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2526876B2 (ja) * 1986-11-17 1996-08-21 日本電装株式会社 車両走行位置表示装置
RU2109344C1 (ru) * 1993-08-06 1998-04-20 Николай Николаевич Токарев Способ обнаружения движущихся целей и устройство для его осуществления
JP3449240B2 (ja) * 1998-09-24 2003-09-22 株式会社デンソー 車両用現在位置検出装置、車両用現在位置表示装置、ナビゲーション装置および記録媒体
JP4763250B2 (ja) * 2004-04-09 2011-08-31 株式会社デンソー 物体検出装置
US20080018671A1 (en) * 2004-06-07 2008-01-24 Sharp Kabushiki Kaisha Information Display Control Device, Navigation Device, Controlling Method Of Information Display Control Device, Control Program Of Information Display Control Device, And Computer-Readable Storage Medium
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP4631750B2 (ja) 2006-03-06 2011-02-16 トヨタ自動車株式会社 画像処理システム
JP5162103B2 (ja) * 2006-05-15 2013-03-13 トヨタ自動車株式会社 支援制御装置
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
JP2008287572A (ja) * 2007-05-18 2008-11-27 Sumitomo Electric Ind Ltd 車両運転支援システム、運転支援装置、車両及び車両運転支援方法
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP5372680B2 (ja) * 2009-09-24 2013-12-18 日立オートモティブシステムズ株式会社 障害物検知装置
US8996298B2 (en) * 2011-06-13 2015-03-31 Panasonic Intellectual Property Corporation Of America Noise pattern acquisition device and position detection apparatus provided therewith
WO2013073119A1 (ja) * 2011-11-15 2013-05-23 パナソニック株式会社 位置推定装置、位置推定方法および集積回路
WO2013133129A1 (ja) * 2012-03-06 2013-09-12 日産自動車株式会社 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005038402A1 (ja) * 2003-10-21 2005-04-28 Waro Iwane ナビゲーション装置
JP2007309757A (ja) * 2006-05-17 2007-11-29 Toyota Motor Corp 対象物認識装置
WO2008075438A1 (ja) * 2006-12-21 2008-06-26 Pioneer Corporation ナビゲーション装置、マップマッチング方法、及び、マップマッチングプログラム
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3147629A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102861A (ja) * 2015-12-04 2017-06-08 トヨタ自動車株式会社 物体認識装置
CN109477724A (zh) * 2016-07-26 2019-03-15 日产自动车株式会社 自身位置推定方法及自身位置推定装置
CN115993089A (zh) * 2022-11-10 2023-04-21 山东大学 基于pl-icp的在线四舵轮agv内外参标定方法
CN115993089B (zh) * 2022-11-10 2023-08-15 山东大学 基于pl-icp的在线四舵轮agv内外参标定方法
KR102731628B1 (ko) * 2024-03-04 2024-11-18 국방과학연구소 관성항법 장치의 자세 오차 보정 방법 및 시스템

Also Published As

Publication number Publication date
JP6222353B2 (ja) 2017-11-08
US20170177958A1 (en) 2017-06-22
BR112016026372A2 (ja) 2017-08-15
CN106461403A (zh) 2017-02-22
EP3147629A4 (en) 2017-04-05
EP3147629B1 (en) 2019-07-10
MX2016014733A (es) 2017-03-06
US9767372B2 (en) 2017-09-19
CN106461403B (zh) 2019-02-15
RU2633641C1 (ru) 2017-10-16
EP3147629A1 (en) 2017-03-29
MX355397B (es) 2018-04-18
BR112016026372B1 (pt) 2022-03-03
JPWO2015177865A1 (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6222353B2 (ja) 物標検出装置及び物標検出方法
US20230152461A1 (en) Determining Yaw Error from Map Data, Lasers, and Cameras
EP3324152B1 (en) Own-position estimating device and own-position estimating method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP6567659B2 (ja) レーン検出装置およびレーン検出方法
JP5966747B2 (ja) 車両走行制御装置及びその方法
EP3147884B1 (en) Traffic-light recognition device and traffic-light recognition method
WO2015111344A1 (ja) 特異走行箇所検出装置および特異走行箇所検出方法
CN104136298A (zh) 测定车辆的速度和/或位置的方法和装置
JPWO2017009934A1 (ja) 信号機認識装置及び信号機認識方法
JP2019040390A (ja) 車両制御装置
CN107735826A (zh) 信号机检测装置及信号机检测方法
JP2018032253A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム
KR20180137904A (ko) 차량 주행 정보의 보정 장치 및 방법
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
JP7326429B2 (ja) センサの画像区間の選択方法
CN113795726B (zh) 自身位置修正方法及自身位置修正装置
WO2019151109A1 (ja) 路面情報取得方法
JP7468075B2 (ja) 管制制御システム
CN116203605A (zh) 周围环境检测传感器的测量不准确性的估计方法
KR101767169B1 (ko) 비전 센서 기반 자이로 드리프트 감소 장치 및 방법
TW202229818A (zh) 使用週期性地更新的錨座標系進行車道映射和定位

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14892586

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016520844

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/014733

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 15311250

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016026372

Country of ref document: BR

REEP Request for entry into the european phase

Ref document number: 2014892586

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014892586

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016146709

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112016026372

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20161110