JP2958043B2 - Mobile vehicle environment recognition device - Google Patents
Mobile vehicle environment recognition deviceInfo
- Publication number
- JP2958043B2 JP2958043B2 JP2076730A JP7673090A JP2958043B2 JP 2958043 B2 JP2958043 B2 JP 2958043B2 JP 2076730 A JP2076730 A JP 2076730A JP 7673090 A JP7673090 A JP 7673090A JP 2958043 B2 JP2958043 B2 JP 2958043B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- environment recognition
- collision
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
【発明の詳細な説明】 (産業上の利用分野) 本発明は、例えば前方を横切って自車と衝突の可能性
のあるような車両を認識捕捉するための、移動車の環境
認識装置に関し、特に、その認識の効率化、簡素化の向
上に関する。Description: TECHNICAL FIELD The present invention relates to an environment recognition apparatus for a mobile vehicle, for example, for recognizing and capturing a vehicle that may collide with the own vehicle across the front, and In particular, it relates to improving the efficiency and simplification of the recognition.
(従来の技術) 従来の自律走行車の走行制御における障害物認識で
は、超音波センサ、レーザレーダ等の距離センサが使用
されている。それらのセンサは一般に、ある特定の方向
の距離は計測できても、広い範囲に亙って計測すること
はできないという欠点を有している。かかる距離センサ
を補完するために、ステレオ視カメラを搭載して画像を
入力して環境認識を行なう障害物認識装置が、例えば、
特開昭64−26913号に提案されている。この特開昭で
は、2つのTVカメラを使って三角測量の原理で広い視野
の距離を計測するものである。(Prior Art) A distance sensor such as an ultrasonic sensor or a laser radar is used for obstacle recognition in conventional traveling control of an autonomous vehicle. These sensors generally have the disadvantage that they can measure distances in a particular direction, but not over a wide range. In order to complement such a distance sensor, an obstacle recognition device equipped with a stereo vision camera and performing image recognition by inputting an image, for example,
This is proposed in Japanese Patent Application Laid-Open No. 64-26913. In this Japanese Unexamined Patent Publication (Kokai), two TV cameras are used to measure the distance of a wide field of view based on the principle of triangulation.
(発明が解決しようとする課題) しかしながら、ステレオ視による画像処理では、左右
画像のマッチングをとるために膨大な処理が必要とな
り、リアルタイムで環境認識を行なう場合には実用化の
障害となっていた。特にその捕捉された移動体との衝突
可能性を予測するのは容易ではない。(Problems to be Solved by the Invention) However, in the image processing based on stereo vision, enormous processing is required for matching left and right images, and this is an obstacle to practical application when real-time environment recognition is performed. . In particular, it is not easy to predict the possibility of collision with the captured mobile.
例えば、画像認識による衝突予測を行なう場合、画像
の中から移動する物体を識別した後に、その移動方向と
自車との経路の計算を行なう必要があり、全ての物体に
対しての計算を行なうためには膨大な計算を必要として
いる。For example, when performing a collision prediction based on image recognition, it is necessary to identify a moving object in an image and then calculate a moving direction and a route to the own vehicle, and perform calculations for all objects. It requires a huge amount of computation.
そこで、本発明は上述従来例の欠点を除去するために
提案されたものでその目的は、効率良く且つ簡単に衝突
可能性のある移動体を認識することの可能な移動車の環
境認識装置を提案するところにある。Therefore, the present invention has been proposed to eliminate the above-mentioned disadvantages of the conventional example, and an object of the present invention is to provide an environment recognizing device for a mobile vehicle capable of efficiently and easily recognizing a mobile object having a collision possibility. There is a suggestion.
(課題を達成するための手段及び作用) 上記課題を達成するための本発明の、自車が移動する
第1の方向と交差する第2の方向に移動する移動体を認
識捕捉するための環境認識装置は、 前記第1の方向の外界の画像情報を、所定の水平線方
向に沿った所定幅だけ入力する画像入力手段と、 入力された外界画像情報の時間変化を検出する検出手
段と、 この時間変化に基づいて、前記移動体と自車との衝突
可能性を認識する認識手段とを具備したことを特徴とす
る。(Means and Actions for Achieving the Object) Environment for Recognizing and Capturing a Moving Body Moving in a Second Direction Intersecting with a First Direction in which the Vehicle Moves of the Present Invention for Achieving the Object An image input unit configured to input image information of the external world in the first direction by a predetermined width along a predetermined horizontal line direction; a detection unit configured to detect a temporal change in the input external world image information; A recognition unit for recognizing a possibility of collision between the moving object and the own vehicle based on a time change.
第2の方向に移動する移動体が自車と衝突する可能性
のある場合は、前記時間変化に一定の特徴が現われる。
この特徴により衝突可能性を予測することができる。When the moving body moving in the second direction has a possibility of colliding with the own vehicle, a certain characteristic appears in the time change.
With this feature, the possibility of collision can be predicted.
(実施例) 以下添付図面を参照して、本発明の環境認識装置の好
適な一実施例を説明する。(Embodiment) A preferred embodiment of an environment recognition device of the present invention will be described below with reference to the accompanying drawings.
第2図は、本実施例で用いられる画像処理の処理領域
6を説明するものである。即ち、第2図には、自車のカ
メラが得た画像を示す。第2図中、6は処理領域であっ
て、外界像ではない。FIG. 2 illustrates the processing area 6 of the image processing used in the present embodiment. That is, FIG. 2 shows an image obtained by the camera of the own vehicle. In FIG. 2, reference numeral 6 denotes a processing area, which is not an external image.
第2図中、1は自車の走行路、2,7は路端、3はセン
タライン、4は消失点である。5は自車の進行方向と直
交する道路の右側から現われた他車である。本実施例で
は、処理領域は画像消失点を含む水平線上の右半分に設
定している。本実施例では、説明を簡素化するために、
処理領域6を水平線上の右半分に設定しているが、もち
ろん、処理領域を右側に設定するか左側に設定するかは
任意であり、両側に設定してもよい。In FIG. 2, reference numeral 1 denotes a traveling path of the vehicle, 2, 7 denotes a road end, 3 denotes a center line, and 4 denotes a vanishing point. Reference numeral 5 denotes another vehicle appearing from the right side of a road orthogonal to the traveling direction of the own vehicle. In this embodiment, the processing area is set to the right half on the horizontal line including the image vanishing point. In this embodiment, in order to simplify the description,
Although the processing area 6 is set to the right half on the horizontal line, it is needless to say that the processing area is set to the right side or the left side, and may be set to both sides.
第3図に、自車のカメラ10と処理領域6との関係を図
示する。処理領域6は全部でn個の一次元に並んだ画素
ブロツクからなり、それらの画素を、A1,A2,‥‥‥,An
と呼ぶ。FIG. 3 illustrates the relationship between the camera 10 of the vehicle and the processing area 6. The processing area 6 is composed of a total of n one-dimensionally arranged pixel blocks, and these pixels are represented by A 1 , A 2 , ‥‥‥, An
Call.
第4A図,第4B図に基づいて、本実施例における衝突可
能性の予測原理を説明する。もし画像内の物体が全て静
止物であれば、自車の移動に伴なって得られる各画素の
時間変化は第4A図のように、消失点から遠去かる方向の
移動ベクトルを持つ。この中に移動体があれば、その移
動状態に応じて様々な移動ベクトルを示す。これを本実
施例のように、消失点を含む水平線上の右反面の一次元
情報のみで考えた場合には、固定物のベクトルは必ず右
移動を示し、移動物のベクトルはその移動速度方向に応
じて、右移動、静止、左移動を示す。The principle of predicting the possibility of collision in the present embodiment will be described with reference to FIGS. 4A and 4B. If the objects in the image are all stationary objects, the temporal change of each pixel obtained with the movement of the vehicle has a movement vector in the direction away from the vanishing point as shown in FIG. 4A. If there is a moving body in this, various moving vectors are shown according to the moving state. When this is considered only with one-dimensional information on the right side on the horizon including the vanishing point as in this embodiment, the vector of the fixed object always indicates rightward movement, and the vector of the moving object always indicates the moving speed direction. Indicates rightward movement, stillness, and leftward movement.
第4B図は、Y軸方向に沿って点Y1からY2に進行する自
車11と、X軸方向に沿って点X1から点X2に進む他車5と
を示している。自車11がY1にあるときにX1にある他車5
が角度α1の方向に見え、自車11がY2に進んだときにX2
の他車5が角度α2に見えたとする。もし、この他車5
が自車と衝突しそうならば、 α1≒α2 が関係が成り立つ筈である。もし、 α1>α2 ならば、この他車は自車が0点に近付く前にこの0点を
通り過ぎるであろう。また、 α1<α2 ならば、この他車が0点に近付く前に自車がこの0点を
通りすぎるであろう。本実施例ではこの性質を利用す
る。Figure 4B illustrates the vehicle 11 traveling from point Y 1 along the Y-axis direction to Y 2, and another vehicle 5 traveling from point X 1 to the point X 2 along the X-axis direction. Other car 5 on X 1 when own car 11 is on Y 1
X 2 when but visible in the direction of the angle alpha 1, the vehicle 11 is advanced to Y 2
Other vehicles 5 it is assumed that appeared to angle α 2. If this other car 5
If he is likely to collide with his own vehicle, α 1 ≒ α 2 should hold. If α 1 > α 2 , the other vehicle will pass this zero point before the vehicle approaches the zero point. If α 1 <α 2 , the own vehicle will pass through the zero point before the other vehicle approaches the zero point. This embodiment utilizes this property.
第3図に示したように、処理領域6は画像消失点を含
んで設定しているので、A1〜Anの各画素はカメラ10から
の視角に対応する。従って、自車がY1点にあったときに
得たA1〜Anの画像データが第5A図のようであったなら
ば、即ち、この他車に対応する画素のデータがAp〜Ap+4
の位置で安定な値を示し、他の画素位置ではこまかく変
化しているようであるならば、この他車が第4B図のよう
に移動した時点で自車カメラ10が得た領域6の画素のデ
ータは第5B図のようになるであろう。つまり、Y1点から
Y2に進んだときは、20の領域の画像データのパターンは
20′のパターンに変化しており、その各々の画素位置に
おける変化はランダムである。このことは、領域22と2
2′についても言える。従って、領域20と20′の対応画
素間の差を取り、22と22′の対応画素間の差を取ると、
ランダムに大きな変化が得られるであろう。何故なら、
これらの領域は静止物の画像であるからである。しかし
ながら、衝突が予想される他車に対応する画素領域21,2
1′については大きな変化がない。従って、対応する画
素間で差分を計算すると、差は“0"に近くなる。As shown in FIG. 3, since the processing region 6 is set include an image vanishing point, each pixel of the A 1 to A n corresponds to the viewing angle from the camera 10. Therefore, if the image data of the A 1 to A n in which the vehicle has obtained when there at one point Y is as shown in Figure 5A, i.e., data of pixels corresponding to the other vehicle is A p ~ A p + 4
If the other vehicle position shows a stable value and it seems that it is changing finely at other pixel positions, the pixel of the area 6 obtained by the own vehicle camera 10 at the time when the other vehicle moves as shown in FIG. 4B The data would look like Figure 5B. In other words, from Y 1 point
When it proceeds to Y 2, the pattern of the image data in the region of 20
The pattern changes to a 20 'pattern, and the change at each pixel position is random. This means that regions 22 and 2
The same can be said for 2 '. Therefore, taking the difference between the corresponding pixels of the regions 20 and 20 'and taking the difference between the corresponding pixels of 22 and 22',
Large random changes will be obtained. Because,
This is because these areas are images of still objects. However, pixel areas 21 and 2 corresponding to other vehicles where a collision is expected
There is no significant change for 1 '. Therefore, when the difference is calculated between the corresponding pixels, the difference approaches “0”.
第1図は、この原理に従って構成した実施例装置の概
念構成図である。微分演算部30は、各画素位置につい
て、時刻tと時刻t−1の画像データの差分を演算す
る。31は、各画素毎に、上記差分値が所定の値以上の値
を有しているか、即ち、画像データがある程度の変化を
しているかを判定する部分である。第5図で、20から2
0′のように変化している領域は、ある程度の大きな変
化をしているので、この判定部からの出力は“0"とな
る。一方、第5図の21の領域に対応する判定は“1"とな
る。第1図において、Ap〜Ap+4の画素位置に対して、判
定部31から“1"が出力される。FIG. 1 is a conceptual configuration diagram of an embodiment apparatus configured according to this principle. The differential calculator 30 calculates the difference between the image data at time t and the image data at time t−1 for each pixel position. Reference numeral 31 denotes a portion for determining whether the difference value has a value equal to or greater than a predetermined value for each pixel, that is, whether the image data has changed to some extent. In Figure 5, 20 to 2
Since the area that changes like 0 'has changed to some extent, the output from this determination unit is "0". On the other hand, the judgment corresponding to the area 21 in FIG. 5 is “1”. In FIG. 1, “1” is output from the determination unit 31 for the pixel positions of A p to A p + 4 .
第6図は、第1図の装置を更に具体化した回路構成を
示すものである。第1図の微分演算部30は、mビツトの
2つのシフトレジスタ40,41とmビツトの引き算器42と
からなる。画像入力がT秒毎に行なわれるとする。シフ
トレジスタ41には、所定時間前(時刻t−1)の1画素
の画像データ(mビツトの階調を有するとする)が格納
される。シフトレジスタ40には今回(時刻t)の画像デ
ータが格納される。シフトレジスタ40と41の内容は一定
時間毎(T秒毎)に引き算器42に入力される。その引き
算の一方でT/n秒毎に、シフトレジスタ40には画素Ai+1
(t)のデータが、シフトレジスタ41には画素Ai+1(t
+1)のデータが入力される。FIG. 6 shows a circuit configuration in which the apparatus of FIG. 1 is further embodied. The differential operation unit 30 shown in FIG. 1 includes two m-bit shift registers 40 and 41 and an m-bit subtractor 42. It is assumed that image input is performed every T seconds. The shift register 41 stores image data of one pixel (assumed to have m-bit gradation) a predetermined time before (time t-1). The shift register 40 stores the current (time t) image data. The contents of the shift registers 40 and 41 are input to the subtracter 42 at regular intervals (every T seconds). On the other hand, every T / n seconds, the shift register 40 stores the pixel A i + 1
The data of (t) is stored in the shift register 41 in the pixel A i + 1 (t
+1) is input.
第1図の判定部31は、第6図で、mビツトのデジタル
コンパレータ43とシフトレジスタ45とANDゲート46とか
らなる。コンパレータ43は、引き算器42からの差分(Ai
(t)−Ai(t−1))を所定の閾値と比較する。この
判定結果はi番目の画素位置についての判定結果であ
り、シフトレジスタ45にシフトインされる。即ち、3ビ
ツトのシフトレジスタ45には、3画素分の判定結果を保
持する。第6図の例では、3画素分の判定結果が“1"で
あれば、衝突の可能性があると判断する出力をゲート46
から出力する。もちろん、シフトレジスタ45のビツト数
を増やせば、より大きな範囲で“1"と判定されたものが
障害物と判定されるようになる。The decision section 31 shown in FIG. 1 comprises an m-bit digital comparator 43, a shift register 45, and an AND gate 46 in FIG. The comparator 43 calculates the difference (A i
(T) −A i (t−1)) is compared with a predetermined threshold value. This determination result is a determination result for the i-th pixel position, and is shifted into the shift register 45. That is, the 3-bit shift register 45 holds the determination results for three pixels. In the example of FIG. 6, if the determination result for three pixels is "1", an output for determining that there is a possibility of collision is output to the gate 46.
Output from Of course, if the number of bits of the shift register 45 is increased, the one determined as “1” in a larger range will be determined as an obstacle.
以上のようにして、障害物となりそうな移動体が高速
且つ簡単に発見できる。尚、障害物の位置は、判定器31
から“1"が出力される画素位置で判別できる。また、誤
判定を減らすために、ANDゲート45の長さを種々変えて
もよい。As described above, a moving object that is likely to be an obstacle can be quickly and easily found. Incidentally, the position of the obstacle is determined by the determiner 31.
Can be determined by the pixel position where “1” is output from the pixel. Further, the length of the AND gate 45 may be variously changed to reduce erroneous determination.
本発明はその主旨を逸脱しない範囲で種々変形が可能
である。The present invention can be variously modified without departing from the gist thereof.
上記実施例では、1つのカメラを用いていて、カメラ
を含む水平面内での衝突可能性を判断しているからであ
る。従って、異なる高さに取り付けた複数台のカメラを
設置し、これらから画像を得れば、予測精度は向上す
る。This is because in the above embodiment, one camera is used and the possibility of collision in a horizontal plane including the camera is determined. Therefore, if a plurality of cameras mounted at different heights are installed and images are obtained from these cameras, prediction accuracy is improved.
上記実施例の説明から容易に分るように、衝突の予測
には一次元画像で十分であるから、用いるカメラは高価
なエリアセンサを有したものである必要はなく、ライン
センサで十分である。As can be easily understood from the description of the above embodiment, since a one-dimensional image is sufficient for predicting a collision, a camera to be used does not need to have an expensive area sensor, and a line sensor is sufficient. .
(発明の効果) 以上説明したように本発明の、自車が移動する第1の
方向と交差する第2の方向に移動する移動体を認識捕捉
するための環境認識装置は、前記第1の方向の外界の画
像情報を、所定の水平線方向に沿った所定幅だけ入力す
る画像入力手段と、入力された外界画像情報の時間変化
を検出する検出手段と、この時間変化に基づいて、前記
移動体と自車との衝突可能性を認識する認識手段とを具
備したことを特徴とする。(Effects of the Invention) As described above, the environment recognition device for recognizing and capturing a moving body that moves in a second direction that intersects the first direction in which the own vehicle moves according to the present invention is the first environment recognition apparatus. Input means for inputting image information of the external world in a predetermined direction along a predetermined horizontal line direction, detecting means for detecting a time change of the input external world image information, and performing the movement based on the time change. A recognition means for recognizing a possibility of collision between the body and the own vehicle is provided.
即ち、第2の方向に移動する移動体が自車と衝突する
可能性のある場合は、前記時間変化に一定の特徴が現わ
れる。この特徴により衝突可能性を予測することができ
る。しかも、高度の認識処理を必要としないので、予測
は高速となる。That is, when the moving body moving in the second direction may collide with the own vehicle, a certain characteristic appears in the time change. With this feature, the possibility of collision can be predicted. In addition, since high-level recognition processing is not required, the prediction is performed at high speed.
第1図は本発明を適用した好適な実施例の構成を示すブ
ロツク図、 第2図は処理領域を説明する図、 第3図はカメラに対する処理領域を説明する図、 第4A図は前方に静止物しかない場合の画素のベクトル変
化を説明する図、 第4B図,第5A図,第5B図は本実施例に係る予測原理を説
明する図、 第6図は第1図実施例をより具体化した回路図である。 図中、 1……走行路、2,7……路端、3……センタライン、4
……画像消失点、5……障害物(他車)、6……対象領
域、10……カメラ、11……自車、20,20,20′,22,22′…
…静止物の画像領域、21,21′……障害物の画像領域、3
0……微分演算部、31……変化判定部、40,41,45……シ
フトレジスタ、42……引き算器、43……コンパレータ、
46……ANDゲートである。FIG. 1 is a block diagram showing the configuration of a preferred embodiment to which the present invention is applied, FIG. 2 is a diagram for explaining a processing region, FIG. 3 is a diagram for explaining a processing region for a camera, and FIG. FIG. 4B, FIG. 5A, and FIG. 5B are diagrams illustrating the prediction principle according to the present embodiment, and FIG. 6 is a diagram illustrating the prediction principle according to the present embodiment. It is a concrete circuit diagram. In the figure, 1 ... travel road, 2,7 ... road end, 3 ... center line, 4
...... Image vanishing point, 5 ... Obstacle (other car), 6 ... Target area, 10 ... Camera, 11 ... Own car, 20,20,20 ', 22,22' ...
... image area of a stationary object, 21, 21 '... image area of an obstacle, 3
0: Differential operation unit, 31: Change judgment unit, 40, 41, 45 ... Shift register, 42: Subtractor, 43: Comparator,
46 …… AND gate.
Claims (3)
の方向に移動する移動体を認識捕捉するための環境認識
装置において、 前記第1の方向の外界の画像情報を、所定の水平線方向
に沿った所定幅だけ入力する画像入力手段と、 入力された外界画像情報の時間変化を検出する検出手段
と、 この時間変化に基づいて、前記移動体と自車との衝突可
能性を認識する認識手段とを具備したことを特徴とする
移動車の環境認識装置。A second direction intersecting a first direction in which the vehicle moves;
An environment recognition device for recognizing and capturing a moving object moving in a direction of: an image input means for inputting image information of the external world in the first direction by a predetermined width along a predetermined horizontal line direction; An environment recognition system for a mobile vehicle, comprising: detection means for detecting a time change of external image information; and recognition means for recognizing a possibility of collision between the moving body and the own vehicle based on the time change. apparatus.
を、消失点を含み、消失点から水平線方向に前記所定幅
を有する領域に設定することを特徴とする請求項1に記
載の移動車の環境認識装置。2. The movement according to claim 1, wherein said image input means sets a target area of the input image to an area including a vanishing point and having the predetermined width in a horizontal line direction from the vanishing point. Car environment recognition device.
に移動物体を認識した場合に、自車位置と認識された前
記移動物体とを結ぶ方向が、所定の期間の間ほぼ一定で
ある場合に、前記移動物体を衝突可能性有りと判断する
ことを特徴とする請求項2に記載の移動車の環境認識装
置。A detecting means for detecting a moving object in the image information having the predetermined width, wherein a direction connecting the position of the vehicle and the recognized moving object is substantially constant for a predetermined period; The environment recognition apparatus for a mobile vehicle according to claim 2, wherein in a certain case, the mobile object is determined to have a possibility of collision.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2076730A JP2958043B2 (en) | 1990-03-28 | 1990-03-28 | Mobile vehicle environment recognition device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2076730A JP2958043B2 (en) | 1990-03-28 | 1990-03-28 | Mobile vehicle environment recognition device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH03278106A JPH03278106A (en) | 1991-12-09 |
| JP2958043B2 true JP2958043B2 (en) | 1999-10-06 |
Family
ID=13613695
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2076730A Expired - Lifetime JP2958043B2 (en) | 1990-03-28 | 1990-03-28 | Mobile vehicle environment recognition device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2958043B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9229450B2 (en) | 2011-05-31 | 2016-01-05 | Hitachi, Ltd. | Autonomous movement system |
| JP6248950B2 (en) * | 2015-01-13 | 2017-12-20 | トヨタ自動車株式会社 | VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD |
-
1990
- 1990-03-28 JP JP2076730A patent/JP2958043B2/en not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| JPH03278106A (en) | 1991-12-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6744380B2 (en) | Apparatus for monitoring area adjacent to vehicle | |
| EP1033694B1 (en) | Rear-view monitoring system for vehicles | |
| US5473364A (en) | Video technique for indicating moving objects from a movable platform | |
| US7684590B2 (en) | Method of recognizing and/or tracking objects | |
| JP7675339B2 (en) | Object Tracking Device | |
| CN102414715B (en) | Object detection device | |
| KR102580476B1 (en) | Method and device for calculating the occluded area within the vehicle's surrounding environment | |
| US20040057599A1 (en) | Image processing apparatus and method | |
| US20110228981A1 (en) | Method and system for processing image data | |
| JPH06281455A (en) | Vehicle surroundings monitoring device | |
| US20050152580A1 (en) | Obstacle detecting apparatus and method | |
| JP5418661B2 (en) | Vehicle periphery monitoring device | |
| US9098750B2 (en) | Gradient estimation apparatus, gradient estimation method, and gradient estimation program | |
| JPH11252587A (en) | Object tracking device | |
| US20190362512A1 (en) | Method and Apparatus for Estimating a Range of a Moving Object | |
| JPWO2017145541A1 (en) | Moving body | |
| JP6699728B2 (en) | Inter-vehicle distance estimation method and inter-vehicle distance estimation device | |
| JPH06180749A (en) | Roadside object monitoring device | |
| CN107341441B (en) | Pedestrian collision warning system and method applied to advanced driving assistance system | |
| CN115123291B (en) | A behavior prediction method and device based on obstacle recognition | |
| KR100994722B1 (en) | Continuous Object Tracking on Multiple Cameras Using Camera Handoff | |
| JP2958043B2 (en) | Mobile vehicle environment recognition device | |
| JP3226699B2 (en) | Perimeter monitoring device for vehicles | |
| JP2000251199A (en) | Rear side monitoring device for vehicles | |
| JP2000315255A (en) | Rear side monitoring device for vehicle and rear side monitoring alarm device for vehicle |