JP2005258696A - Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device - Google Patents
- ️Thu Sep 22 2005
以下、図面に基づいて本発明の実施の形態を説明する。
図1〜図11は本発明の実施の形態を示し、図1は車両に搭載した車両用運転支援装置の概略構成図、図2は車外監視装置の要部を示す機能ブロック図、図3は先行車推定プログラムのフローチャート、図4は走行領域内の立体物判定処理ルーチンのフローチャート、図5は白線認識率演算ルーチンのフローチャート、図6は走行領域の拡大処理ルーチンのフローチャート、図7は図6から続くフローチャート、図8は走行領域の縮小処理ルーチンのフローチャート、図9はフュージョン立体物の概念図、図10は走行領域の拡大補正の説明図、図11は走行領域の縮小補正の説明図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
1 to 11 show an embodiment of the present invention, FIG. 1 is a schematic configuration diagram of a vehicle driving support device mounted on a vehicle, FIG. 2 is a functional block diagram showing a main part of the outside monitoring device, and FIG. FIG. 4 is a flowchart of a three-dimensional object determination processing routine in the travel area, FIG. 5 is a flowchart of a white line recognition rate calculation routine, FIG. 6 is a flowchart of a travel area enlargement processing routine, and FIG. FIG. 8 is a flowchart of a travel area reduction processing routine, FIG. 9 is a conceptual diagram of a fusion three-dimensional object, FIG. 10 is an explanatory view of travel area enlargement correction, and FIG. 11 is an explanatory view of travel area reduction correction. is there.
図1において、符号1は自動車等の車両(自車両)で、この車両1には、走行制御装置の一例としての車間距離自動維持運転システム(ACC(Adaptive Cruise Control)システム)2が搭載されている。このACCシステム2は、主として、ステレオカメラ3と、ミリ波送受信部4と、車外監視装置5と、走行制御ユニット6とを有して構成されている。そして、ACCシステム2は、定速走行制御状態のときは運転者が設定した車速を保持した状態で走行し、追従走行制御状態のときは目標車速を先行車の車速に設定し、先行車に対して一定車間距離を保持した状態で走行する。 In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile (own vehicle), and the vehicle 1 is equipped with an automatic inter-vehicle distance maintenance operation system (ACC (Adaptive Cruise Control) system) 2 as an example of a travel control device. Yes. The ACC system 2 mainly includes a stereo camera 3, a millimeter wave transmission / reception unit 4, an out-of-vehicle monitoring device 5, and a travel control unit 6. The ACC system 2 travels while maintaining the vehicle speed set by the driver in the constant speed traveling control state, and sets the target vehicle speed to the preceding vehicle speed in the following traveling control state. On the other hand, the vehicle travels with a certain distance between vehicles maintained.
ステレオカメラ3は、ステレオ光学系として例えば電荷結合素子(CCD)等の個体撮像素子を用いた左右1組のCCDカメラで構成され、これら左右のCCDカメラは、それぞれ車室内の天井前方に一定の間隔をもって取り付けられ、車外の対象を異なる視点からステレオ撮像し、画像情報を車外監視装置5に入力する。 The stereo camera 3 is composed of a pair of left and right CCD cameras using a solid-state imaging device such as a charge coupled device (CCD) as a stereo optical system, and these left and right CCD cameras are respectively fixed in front of the ceiling in the passenger compartment. Attached at intervals, a subject outside the vehicle is imaged in stereo from different viewpoints, and image information is input to the vehicle exterior monitoring device 5.
ミリ波送受信部4は、自車両1の先端に設けられ、前方に所定にミリ波(例えば30G Hz 〜100G Hz の電波)を送信するとともに、反射して戻ってくるミリ波を受信し、送受信データを車外監視装置5に入力する。 The millimeter wave transmission / reception unit 4 is provided at the front end of the host vehicle 1 and transmits a predetermined millimeter wave (for example, a radio wave of 30 GHz to 100 GHz) in front of the vehicle 1, and receives and returns a millimeter wave reflected back. Data is input to the outside monitoring device 5.
また、自車両1には、車速を検出する車速センサ7が設けられており、この車速は車外監視装置5と走行制御ユニット6とに入力される。さらに、自車両1には、ハンドル角を検出するハンドル角センサ8、ヨーレートを検出するヨーレートセンサ9が設けられており、これらハンドル角の信号とヨーレートの信号は車外監視装置5に入力される。 In addition, the host vehicle 1 is provided with a vehicle speed sensor 7 that detects the vehicle speed, and this vehicle speed is input to the vehicle outside monitoring device 5 and the travel control unit 6. Further, the host vehicle 1 is provided with a handle angle sensor 8 for detecting a handle angle and a yaw rate sensor 9 for detecting a yaw rate. These handle angle signals and yaw rate signals are input to the outside monitoring device 5.
車外監視装置5は、図2に示すように、ステレオ画像処理部15と、測距処理部16と、フュージョン立体物設定部17と、自車進行路推定部18と、走行領域内立体物判定部19と、先行車認識部20とを有して主要に構成されている。 As shown in FIG. 2, the outside-of-vehicle monitoring device 5 includes a stereo image processing unit 15, a distance measurement processing unit 16, a fusion three-dimensional object setting unit 17, a host vehicle traveling path estimation unit 18, and a three-dimensional object determination within the travel area. It mainly comprises a part 19 and a preceding vehicle recognition part 20.
尚、本実施の形態において用いられる座標系は、自車両1の左右(幅)方向をX座標、自車両1の上下方向をY座標、自車両1の前後方向をZ座標とする自車両1を基準とする実空間の3次元座標系を用いて各処理を行う。この場合、ステレオカメラ3を成す2台のCCDカメラの中央の真下の道路面を原点として、自車両1の右側がX軸の+側、自車両1の上方がY軸の+側、自車両1の前方がZ軸の+側として設定される。 The coordinate system used in the present embodiment is the own vehicle 1 in which the left and right (width) direction of the own vehicle 1 is the X coordinate, the up and down direction of the own vehicle 1 is the Y coordinate, and the front and rear direction of the own vehicle 1 is the Z coordinate. Each processing is performed using a three-dimensional coordinate system in real space with reference to. In this case, with the road surface directly below the center of the two CCD cameras constituting the stereo camera 3 as the origin, the right side of the own vehicle 1 is the + side of the X axis, the upper side of the own vehicle 1 is the + side of the Y axis, and the own vehicle. The front of 1 is set as the + side of the Z axis.
ステレオ画像処理部15は、ステレオカメラ3からの画像を、例えば以下のように処理することで、白線認識、側壁認識、立体物認識等を行う。すなわち、ステレオ画像処理部15は、先ず、ステレオカメラ3のCCDカメラで自車両の進行方向を撮像した1組のステレオ画像対に対し、対応する位置のずれ量から三角測量の原理によって画像全体に渡る距離情報を求める処理を行って、三次元の距離分布を表す距離画像を生成する。そして、このデータを基に、周知のグルーピング処理や、予め記憶しておいた3次元的な進路形状データ、側壁データ、立体物データ等と比較し、画像上の白線、道路に沿って存在するガードレールや縁石等の側壁、車両等の立体物を抽出(検出)する。こうして抽出された白線、側壁、立体物に係る各データは、それぞれのデータ毎に異なったナンバーが割り当てられる。また、更に立体物データに関しては、自車両1からの距離の相対的な変化量と自車両1の車速との関係から、自車両1に向かって移動する逆方向移動物と、停止している停止物と、自車両1と略同方向に移動する順方向移動物の3種類に分類される。 The stereo image processing unit 15 performs white line recognition, side wall recognition, solid object recognition, and the like by processing the image from the stereo camera 3 as follows, for example. That is, first, the stereo image processing unit 15 applies a set of stereo images obtained by capturing the traveling direction of the host vehicle with the CCD camera of the stereo camera 3 to the entire image based on the principle of triangulation from the corresponding shift amount. A process for obtaining crossing distance information is performed to generate a distance image representing a three-dimensional distance distribution. And based on this data, it compares with the well-known grouping processing and prestored three-dimensional course shape data, side wall data, three-dimensional object data, etc., and exists along the white line and road on the image. Extract (detect) side walls such as guardrails and curbs, and three-dimensional objects such as vehicles. Each data related to the white line, the side wall, and the three-dimensional object extracted in this way is assigned a different number for each data. Further, regarding the three-dimensional object data, the moving object moving in the reverse direction moving toward the own vehicle 1 is stopped from the relationship between the relative change in the distance from the own vehicle 1 and the vehicle speed of the own vehicle 1. It is classified into three types: a stationary object and a forward moving object that moves in substantially the same direction as the host vehicle 1.
また、ステレオ画像処理部15は、画像情報に基づき、現在の走行環境が、霧状態か、雪道状態か、濡れ路面走行状態かを判定する。 Further, the stereo image processing unit 15 determines whether the current traveling environment is a fog state, a snowy road state, or a wet road surface traveling state based on the image information.
ここで、走行環境が霧状態か否かの判定は、例えば、先行車のテールランプやブレーキランプとその周辺の光幕領域を抽出し、対象までの距離を測定し、先行車両のテールランプやブレーキランプの領域とその周辺の光幕領域の輝度比と距離データとから霧状態を判定する。その他、白線輝度の変化量から霧状態を判断する方法や、また、画像データの変化から霧濃度の変化を検出するようにしても良い。 Here, the determination as to whether or not the driving environment is in fog is, for example, extracting the tail lamp and brake lamp of the preceding vehicle and the surrounding light curtain area, measuring the distance to the object, and determining the tail lamp and brake lamp of the preceding vehicle. The fog state is determined from the brightness ratio and distance data of the area and the surrounding light curtain area. In addition, a method of determining the fog state from the amount of change in white line luminance, or a change in fog density from a change in image data may be detected.
また、走行環境が雪道状態の判定は、例えば、本出願人が特開2001−43352号公報で詳述するように、左右のステレオカメラ3により得られた撮像画像中の所定領域に設定された監視領域における画像データに基づいて、路面一面雪とみなせる状態を検出することにより行う。具体的には、監視領域の水平方向に関する輝度エッジの数と、監視領域の全体的な輝度の大きさを算出し、輝度エッジの数が判定値よりも少なく、且つ、全体的な輝度の大きさが判定値よりも大きい場合に一面雪とみなせる状態で雪道と判定する。 In addition, the determination as to whether the driving environment is a snowy road state is set in a predetermined area in the captured image obtained by the left and right stereo cameras 3 as described in detail in Japanese Patent Application Laid-Open No. 2001-43352, for example. This is performed by detecting a state that can be regarded as snow on the road surface based on the image data in the monitored area. Specifically, the number of luminance edges in the horizontal direction of the monitoring area and the overall luminance level of the monitoring area are calculated, the number of luminance edges is less than the determination value, and the overall luminance level is large. If it is larger than the judgment value, it is judged as a snowy road in a state where it can be regarded as single-sided snow.
更に、濡れ路面状態の判定は、例えば、本出願人が特開2001−41741号公報で詳述する方法で行う。具体的には、道路が存在するであろうと予測される自車両の前方に距離データ監視領域を設定し、この監視領域内に存在する距離データに関して、高さ方向の分布を評価する。すなわち、算出された距離データに関する三次元空間における高さを求め、立体物が路面に映り込んでいることに起因した距離データ数をウェットデータ数としてカウントする。濡れた路面では、ドライな路面と比べて、多数の距離データが路面位置より下に算出されるという特性がある。このような特性に鑑み、距離データ監視領域内にウェットデータが多数存在する場合、濡れ路面状態であると判定する。 Further, the determination of the wet road surface state is performed by the method described in detail in Japanese Patent Application Laid-Open No. 2001-41741 by the present applicant, for example. Specifically, a distance data monitoring area is set in front of the host vehicle where a road is predicted to exist, and the distribution in the height direction is evaluated with respect to the distance data existing in the monitoring area. That is, the height in the three-dimensional space related to the calculated distance data is obtained, and the number of distance data resulting from the three-dimensional object reflected on the road surface is counted as the number of wet data. A wet road surface has a characteristic that many distance data are calculated below the road surface position as compared to a dry road surface. In view of such characteristics, when there are a lot of wet data in the distance data monitoring area, it is determined that the road surface is wet.
測距処理部16は、ミリ波送受信部4からの送受信データを、例えば以下のように処理することで立体物認識を行う。すなわち、測距処理部16では、送信波が目標で反射されて戻ってくるまでの時間差をもとに、自車両1から目標までの相対距離を計測する。そして、距離値の分布状態から、同一の距離値が連続する部分を1つの立体物として抽出する。 The distance measurement processing unit 16 performs solid object recognition by processing transmission / reception data from the millimeter wave transmission / reception unit 4 as follows, for example. That is, the distance measurement processing unit 16 measures the relative distance from the host vehicle 1 to the target based on the time difference until the transmitted wave is reflected by the target and returns. And the part where the same distance value continues is extracted as one solid thing from the distribution state of distance value.
ここで、測距処理部16には前回抽出され登録された立体物(以下、ミリ波立体物と称す)に係るデータが格納されており、測距処理部16は、新たな立体物(以下、検出ミリ波立体物と称す)を抽出すると、ミリ波立体物との対応判定を行う。すなわち、測距処理部16では、検出ミリ波立体物とミリ波立体物とについての同一確率Pを算出し、同一確率Pが閾値以上ならば対応と判定する。本実施の形態において、同一確率Pは、例えば、検出ミリ波立体物とミリ波立体物との間のZ座標、X座標、及び、Z方向速度の同一確率Pz,Px,Pvを求め、それらを統合することで算出される。 Here, the distance measurement processing unit 16 stores data related to a three-dimensional object extracted and registered last time (hereinafter referred to as a millimeter wave three-dimensional object), and the distance measurement processing unit 16 stores a new three-dimensional object (hereinafter referred to as a three-dimensional object). , Which is referred to as a detected millimeter wave solid object), the correspondence with the millimeter wave solid object is determined. That is, the distance measurement processing unit 16 calculates the same probability P for the detected millimeter-wave solid object and the millimeter-wave solid object, and determines that it is a correspondence if the same probability P is equal to or greater than a threshold value. In the present embodiment, the same probability P is obtained by, for example, obtaining the Z-coordinate, the X-coordinate, and the Z-direction velocity probability Pz, Px, Pv between the detected millimeter wave solid object and the millimeter wave solid object. It is calculated by integrating.
具体的に説明すると、ある検出ミリ波立体物nとあるミリ波立体物mとの間のZ座標、X座標、Z方向速度の差がΔZ、ΔX、ΔVであるときの同一確率Pz,Px,Pvは、標準偏差σz,σx,σvの正規分布の累積分布関数によって、例えば、
により算出される。そして、これら検出ミリ波立体物nとミリ波立体物mとの間の各同一確率Pz,Px,Pvを統合した同一確率Pが、
P=Pz×Px×Pv …(4)
によって求められる。
Is calculated by The same probability P obtained by integrating the same probabilities Pz, Px, Pv between the detected millimeter wave solid object n and the millimeter wave solid object m is
P = Pz × Px × Pv (4)
Sought by.
測距処理部16では、このような演算を検出ミリ波立体物とミリ波立体物との全ての組合わせに対して行い、同一確率Pが閾値(例えば30%)以上且つ最大となる組み合わせを選出する。そして、測距処理部16では、検出立体物が対応したミリ波立体物を上述の検出ミリ波立体物で更新してミリ波立体物として継続登録するとともに、対応しなかった検出ミリ波立体物のデータを新たなミリ波立体物として登録する。さらに、検出ミリ波立体物に対応しなかったミリ波立体物のデータについては、所定の消去要件のもとで消去する。 The distance measurement processing unit 16 performs such calculation for all combinations of the detected millimeter wave solid object and the millimeter wave solid object, and obtains a combination in which the same probability P is equal to or greater than a threshold (for example, 30%). elect. Then, the distance measurement processing unit 16 updates the millimeter wave solid object corresponding to the detected solid object with the above-described detected millimeter wave solid object and continuously registers it as the millimeter wave solid object, and also detects the detected millimeter wave solid object that does not correspond. Is registered as a new millimeter-wave solid object. Further, the data of the millimeter wave solid object that does not correspond to the detected millimeter wave solid object is deleted under a predetermined deletion requirement.
フュージョン立体物設定部17は、ステレオ画像処理部15から各立体物(以下、画像立体物と称する)に係る情報が入力されるとともに、測距処理部16から各ミリ波立体物に係る情報が入力され、これらを融合することで、フュージョン立体物を設定する。 The fusion three-dimensional object setting unit 17 receives information on each three-dimensional object (hereinafter referred to as an image three-dimensional object) from the stereo image processing unit 15, and information on each millimeter wave three-dimensional object from the distance measurement processing unit 16. A fusion three-dimensional object is set by inputting and fusing them.
具体的に説明すると、フュージョン立体物設定部17は、先ず、各画像立体物と各ミリ波立体物との対応判定を行う。すなわち、フュージョン立体物設定部17では、各画像立体物のZ座標、X座標、及び、Z方向速度と、各ミリ波立体物のZ座標、X座標、及び、Z方向速度とを用いて、例えば上述の式(1)〜(4)により、各組み合わせによる同一確率Pを演算する。これにより、画像立体物とミリ波立体物とが対応する場合には、これらの同一確率Pが最大且つ閾値以上となる組み合わせが決定される。 Specifically, the fusion solid object setting unit 17 first determines the correspondence between each image solid object and each millimeter wave solid object. That is, the fusion three-dimensional object setting unit 17 uses the Z coordinate, the X coordinate, and the Z direction speed of each image solid object, and the Z coordinate, the X coordinate, and the Z direction speed of each millimeter wave solid object, For example, the same probability P by each combination is calculated by the above formulas (1) to (4). Thereby, when an image solid object and a millimeter wave solid object correspond, the combination with which the same probability P becomes the maximum and more than a threshold value is determined.
そして、フュージョン立体物設定部17は、画像立体物とミリ波立体物との融合による各フュージョン立体物を得る。すなわち、フュージョン立体物設定部17は、例えば図9に示すように、画像立体物単体のフュージョン立体物(図9中に四角で表示)、ミリ波立体物単体のフュージョン立体物(図9中に丸で表示)、或いは、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物(図9中に四角と丸で表示)の何れかからなる各フュージョン立体物を得る。 Then, the fusion solid object setting unit 17 obtains each fusion solid object by fusing the image solid object and the millimeter wave solid object. That is, the fusion three-dimensional object setting unit 17, for example, as shown in FIG. 9, a fusion three-dimensional object of a single image three-dimensional object (indicated by a square in FIG. 9), a fusion three-dimensional object of a single millimeter wave solid object (in FIG. 9). Each fusion solid object is obtained from either a fusion solid object (indicated by squares and circles in FIG. 9) or a combination of an image solid object and a millimeter wave solid object.
ここで、各フュージョン立体物は、当該フュージョン立体物の自車両1との間の距離、X座標、速度、幅等の各情報や、Z方向速度で判定される移動状況(順方向移動物、停止物、或いは、対向車)等の情報を有する。この場合において、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物では、自車両1との距離の設定に際してはミリ波立体物の情報が優先的に採用され、X座標の設定に際しては画像立体物の情報が優先的に採用され、速度の設定に際してはミリ波立体物の情報が優先的に採用され、幅の設定に際しては画像立体物の情報が優先的に採用される。 Here, each fusion three-dimensional object is each information such as the distance from the host vehicle 1 of the fusion three-dimensional object, the X coordinate, the speed, the width, and the movement situation (forward moving object, (Stopped object or oncoming vehicle). In this case, in the fusion three-dimensional object obtained by combining the image three-dimensional object and the millimeter wave three-dimensional object, the information on the millimeter wave three-dimensional object is preferentially adopted when setting the distance from the host vehicle 1, and when setting the X coordinate. The information of the image solid object is preferentially adopted, the information of the millimeter wave solid object is preferentially adopted when setting the speed, and the information of the image solid object is preferentially adopted when setting the width.
このようにして新たなフュージョン立体物が設定されると、フュージョン立体物設定部17は、前回登録されたフュージョン立体物との一致判定を行い、一致したフュージョン立体物についてはその登録情報を新たなフュージョン立体物の情報に基づいて更新することで継続登録する。また、フュージョン立体物設定部17では、一致しなかった新たなフュージョン立体物に関しての新規登録を行うとともに、一致しなかった過去のフュージョン立体物に関しては即消去する。 When a new fusion three-dimensional object is set in this way, the fusion three-dimensional object setting unit 17 performs a match determination with the previously registered fusion three-dimensional object. The registration is continued by updating based on the information of the fusion solid object. Further, the fusion three-dimensional object setting unit 17 newly registers a new fusion three-dimensional object that does not match, and immediately deletes a past fusion three-dimensional object that does not match.
このように、本実施の形態においては、ステレオ画像処理部15、測距処理部16及びフュージョン立体物設定部17は、前方認識手段を構成し、ステレオ画像処理部15は、走行環境認識手段としての機能も有している。 Thus, in the present embodiment, the stereo image processing unit 15, the distance measurement processing unit 16, and the fusion three-dimensional object setting unit 17 constitute a forward recognition unit, and the stereo image processing unit 15 serves as a traveling environment recognition unit. It also has the function of
自車走行領域推定部18は、車速センサ7からの車速信号、ハンドル角センサ8からのハンドル角信号、ヨーレートセンサ9からのヨーレート信号等が入力されるとともに、ステレオ画像処理部15から白線データや側壁データ等が入力され、自車進行路を推定する自車進行路推定手段として設けられる。 The own vehicle traveling area estimation unit 18 receives a vehicle speed signal from the vehicle speed sensor 7, a steering wheel angle signal from the steering wheel angle sensor 8, a yaw rate signal from the yaw rate sensor 9, and the like. Side wall data or the like is input, and the vehicle traveling path estimation means for estimating the traveling path of the own vehicle is provided.
この場合、自車走行領域推定部18では、先ず、例えば以下の4通りにより自車進行路の推定を行う。
a.白線に基づく自車進行路推定…左右両方、若しくは、左右どちらか片側の白線データが得られており、これら白線データから自車両1が走行している車線の形状が推定できる場合、自車進行路は、自車両1の幅や、自車両1の現在の車線内の位置を考慮して、白線と並行して形成される。
In this case, the host vehicle travel region estimation unit 18 first estimates the host vehicle traveling path by, for example, the following four methods.
a. The own vehicle traveling path estimation based on the white line ... If the white line data on both the left and right sides or the left and right sides is obtained, and the shape of the lane in which the vehicle 1 is traveling can be estimated from these white line data, the own vehicle travels The road is formed in parallel with the white line in consideration of the width of the host vehicle 1 and the position of the host vehicle 1 in the current lane.
b.ガードレール、縁石等の側壁データに基づく自車進行路推定…左右両方、若しくは、左右どちらか片側の側壁データが得られており、これら側壁データから自車両1が走行している車線の形状が推定できる場合、自車進行路は、自車両1の幅や、自車両1の現在の車線内の位置を考慮して、側壁と並行して形成される。 b. Self-vehicle travel path estimation based on side data of guardrails, curbs, etc. Side wall data on both the left and right sides or left and right sides is obtained, and the shape of the lane in which the vehicle 1 is traveling is estimated from these side wall data If possible, the own vehicle traveling path is formed in parallel with the side wall in consideration of the width of the own vehicle 1 and the position of the own vehicle 1 in the current lane.
c.先行車軌跡に基づく自車進行路推定…先行車の過去の走行軌跡を基に、自車進行路を推定する。 c. Estimating own vehicle traveling path based on preceding vehicle trajectory: Estimating own vehicle traveling path based on past traveling trajectory of preceding vehicle.
d.自車両1の走行軌跡に基づく自車走行路推定…自車両1の運転状態を基に、自車進行路を推定する。例えば、ヨーレートγ、車速V、ハンドル角θHを基に、以下の手順で自車進行路を推定する。 d. Self-vehicle travel path estimation based on the travel trajectory of the host vehicle 1 ... The host vehicle travel path is estimated based on the driving state of the host vehicle 1. For example, the own vehicle traveling path is estimated by the following procedure based on the yaw rate γ, the vehicle speed V, and the steering wheel angle θH.
まず、ヨーレートセンサ9が有効か判定され、ヨーレートセンサ9が有効であれば、
Cua=γ/V …(5)
により現在の旋回曲率Cuaが算出される。
First, it is determined whether the yaw rate sensor 9 is valid. If the yaw rate sensor 9 is valid,
Cua = γ / V (5)
Thus, the current turning curvature Cua is calculated.
一方、ヨーレートセンサ9が無効であれば、ハンドル角θHから求められる操舵角δが、所定値(例えば0.57度)以上で転舵が行われているか否か判定され、操舵角δが0.57度以上で操舵が行われている場合は、操舵角δと自車速Vを用いて、例えば
Re=(1+A・V2)・(L/δ) …(6)
Cua=1/Re …(7)
により現在の旋回曲率Cuaが算出される。ここで、Reは旋回半径、Aは車両のスタビリティファクタ、Lはホイールベースである。
On the other hand, if the yaw rate sensor 9 is invalid, it is determined whether or not the steering angle δ obtained from the steering wheel angle θH is a predetermined value (for example, 0.57 degrees) or more, and the steering angle δ is 0. When steering is performed at 57 ° or more, using the steering angle δ and the vehicle speed V, for example, Re = (1 + A · V2) · (L / δ) (6)
Cua = 1 / Re (7)
Thus, the current turning curvature Cua is calculated. Here, Re is a turning radius, A is a vehicle stability factor, and L is a wheelbase.
また、操舵角δが0.57度より小さい場合は、現在の旋回曲率Cuaは0(直進走行状態)とされる。 When the steering angle δ is smaller than 0.57 degrees, the current turning curvature Cua is set to 0 (straight running state).
こうして、得られる現在の旋回曲率Cuaを加えた過去所定時間(例えば約0.3秒間)の旋回曲率から平均旋回曲率を算出し、自車進行路を推定する。 In this way, the average turning curvature is calculated from the turning curvature of the past predetermined time (for example, about 0.3 seconds) to which the obtained current turning curvature Cua is added, and the own vehicle traveling path is estimated.
尚、ヨーレートセンサ9が有効であって、上述の(5)式により現在の旋回曲率Cuaが算出される場合であっても、操舵角δが0.57度より小さい場合は、現在の旋回曲率Cuaは0(直進走行状態)に補正するようにしても良い。 Even when the yaw rate sensor 9 is effective and the current turning curvature Cua is calculated by the above equation (5), if the steering angle δ is smaller than 0.57 degrees, the current turning curvature is Cua may be corrected to 0 (straight running state).
走行領域内立体物判定部19は、ステレオ画像処理部15から白線情報が入力され、フュージョン立体物設定部17から上述の立体物が各情報(移動速度、位置座標)とともに入力され、自車進行路推定部18から自車進行路が入力される。 The three-dimensional object determination unit 19 in the travel area receives white line information from the stereo image processing unit 15 and receives the above-described three-dimensional object from the fusion three-dimensional object setting unit 17 together with each piece of information (moving speed and position coordinates). The own vehicle traveling path is input from the path estimation unit 18.
そして、走行領域内立体物判定部19は、後述の図4のフローチャートに従って、各立体物毎に、立体物が存在する位置における自車両の走行領域を自車進行路に基づき推定し、この走行領域と立体物位置とを比較して、それぞれの立体物が走行領域内にあるか否か判定する。走行領域内立体物判定部19は、認識状態判定手段、及び、走行領域推定手段としての機能を有して構成されるが、詳細は後述する。 Then, the three-dimensional object determination unit 19 in the traveling area estimates the traveling area of the host vehicle at the position where the three-dimensional object exists for each three-dimensional object according to the flowchart of FIG. The area and the three-dimensional object position are compared, and it is determined whether or not each three-dimensional object is within the traveling area. The in-travel area solid object determination unit 19 is configured to have functions as a recognition state determination unit and a travel area estimation unit, which will be described in detail later.
先行車認識部20は、先行車認識手段としてのものであり、走行領域内立体物判定部19から、走行領域内に存在する順方向に走行する車両の情報が入力され、これらの立体物の中から、自車両1に最も近い車両を先行車として認識し、走行制御ユニット6に出力する。 The preceding vehicle recognizing unit 20 is used as a preceding vehicle recognizing means, and information on vehicles traveling in the forward direction existing in the traveling region is input from the traveling region three-dimensional object determining unit 19, and these three-dimensional objects are detected. From the inside, the vehicle closest to the host vehicle 1 is recognized as a preceding vehicle and is output to the traveling control unit 6.
一方、定速走行スイッチ10は、定速走行時の目標車速を設定する車速セットスイッチ、主に目標車速を下降側へ変更設定するコーストスイッチ、主に目標車速を上昇側へ変更設定するリジュームスイッチ等で構成されている。更に、この定速走行操作レバーの近傍には、走行制御のON/OFFを行うメインスイッチ(図示せず)が配設されている。 On the other hand, the constant speed travel switch 10 is a vehicle speed set switch that sets a target vehicle speed during constant speed travel, a coast switch that mainly changes and sets the target vehicle speed to the lower side, and a resume switch that mainly changes and sets the target vehicle speed to the higher side. Etc. Further, a main switch (not shown) for turning on / off the travel control is disposed in the vicinity of the constant speed travel operation lever.
運転者が図示しないメインスイッチをONし、定速走行操作レバーにより、希望する速度をセットすると、定速走行スイッチ10からの信号が走行制御ユニット6に入力され、走行制御ユニット6は、車速センサ7で検出した車速が運転者のセットした設定車速に収束するように、スロットルアクチュエータ11を駆動させてスロットル弁12の開度をフィードバック制御し、自車両を自動的に定速状態で走行させる。 When a driver turns on a main switch (not shown) and sets a desired speed with a constant speed traveling operation lever, a signal from the constant speed traveling switch 10 is input to the traveling control unit 6, and the traveling control unit 6 receives a vehicle speed sensor. The throttle actuator 11 is driven to feedback-control the opening of the throttle valve 12 so that the vehicle speed detected in 7 converges to the set vehicle speed set by the driver, and the host vehicle is automatically driven at a constant speed.
又、走行制御ユニット6は、定速走行制御を行っている際に、車外監視装置5にて先行車を認識し、先行車の速度が自車両の設定した目標速度以下の場合には、先行車に対して一定の車間距離を保持した状態で走行する追従走行制御へ自動的に切換える。 Further, the traveling control unit 6 recognizes the preceding vehicle by the outside monitoring device 5 during the constant speed traveling control, and if the speed of the preceding vehicle is equal to or lower than the target speed set by the own vehicle, the traveling control unit 6 The system automatically switches to follow-up running control in which the vehicle runs while maintaining a certain distance between the vehicles.
車両の走行制御が追従走行制御へ移行すると、走行制御ユニット6は、車外監視装置5で求めた自車両1と先行車との車間距離及び先行車速と、車速センサ7で検出した自車速とに基づき適切な車間距離の目標値を設定する。そして、車間距離が目標値になるように、スロットルアクチュエータ11へ駆動信号を出力して、スロットル弁12の開度をフィードバック制御し、先行車に対して一定車間距離を保持した状態で追従走行させる。 When the travel control of the vehicle shifts to the follow-up travel control, the travel control unit 6 converts the inter-vehicle distance between the host vehicle 1 and the preceding vehicle and the preceding vehicle speed obtained by the outside monitoring device 5 and the own vehicle speed detected by the vehicle speed sensor 7. Based on this, set a target value for the appropriate inter-vehicle distance. Then, a drive signal is output to the throttle actuator 11 so that the inter-vehicle distance becomes a target value, and the opening degree of the throttle valve 12 is feedback-controlled so that the preceding vehicle follows the vehicle while maintaining a constant inter-vehicle distance. .
次に、車外監視装置5で実行される先行車推定プログラムを、図3のフローチャートで説明する。
まず、ステップ(以下、「S」と略称)101で必要パラメータを読み込み、S102に進んで、上述の如く、ステレオ画像処理部15、測距処理部16、フュージョン立体物設定部17により立体物認識処理を行う。
Next, the preceding vehicle estimation program executed by the outside monitoring apparatus 5 will be described with reference to the flowchart of FIG.
First, in step (hereinafter abbreviated as “S”) 101, necessary parameters are read, and the process proceeds to S102. As described above, the three-dimensional object recognition is performed by the stereo image processing unit 15, the distance measurement processing unit 16, and the fusion three-dimensional object setting unit 17. Process.
次いで、S103に進み、上述の如く、自車進行路推定部18で自車進行路の推定を行い、S104に進んで、走行領域内立体物判定部19において後述する図4のフローチャートに従って走行領域内の立体物判定処理を行う。 Next, the process proceeds to S103, and as described above, the host vehicle travel path estimation unit 18 estimates the host vehicle travel path. The process proceeds to S104, and the travel area solid object determination unit 19 performs the travel area according to the flowchart of FIG. The three-dimensional object determination process is performed.
その後、S105に進み、先行車認識部20において先行車の推定を行い結果を出力してプログラムを抜ける。 Thereafter, the process proceeds to S105, the preceding vehicle recognition unit 20 estimates the preceding vehicle, outputs the result, and exits the program.
次に、上述のS104で実行する走行領域内の立体物判定処理を図4のフローチャートで説明する。
まず、S201で白線認識率COUNTを読み込む。この白線認識率COUNTは、遠方まで良好に認識する状態にあるかの基準となる値で、詳しい演算は、後述の図5で説明する。
Next, the three-dimensional object determination process in the travel area executed in S104 will be described with reference to the flowchart of FIG.
First, the white line recognition rate COUNT is read in S201. This white line recognition rate COUNT is a value that serves as a reference for whether or not it is in a state of being well recognized far away, and detailed calculation will be described later with reference to FIG.
次いで、S202に進み、白線認識率COUNTが設定値Cc(例えば、50)以上か否か判定する。そして、この判定の結果、白線認識率COUNTが設定値Ccよりも小さい、すなわち、遠方まで良好に認識する状態にないと判定できる場合には、S203に進み、全ての立体物毎に、拡大した走行領域の領域内にあるか否かを判断する立体物判定処理(第一の立体物判定処理(走行領域の拡大については図6,7で説明))を実行し、S205で結果を出力してルーチンを抜ける。 Next, in S202, it is determined whether the white line recognition rate COUNT is equal to or greater than a set value Cc (for example, 50). If the white line recognition rate COUNT is smaller than the set value Cc as a result of this determination, that is, it can be determined that the white line recognition rate COUNT is not well recognized far away, the process proceeds to S203, and the enlargement is performed for every three-dimensional object. A solid object determination process (first solid object determination process (explanation of the travel area is described in FIGS. 6 and 7)) for determining whether or not the vehicle is within the travel area is executed, and the result is output in S205. Exit the routine.
逆に、S202の判定の結果、白線認識率COUNTが設定値Cc以上、すなわち、遠方まで良好に認識する状態にあると判定できる場合には、S204に進み、全ての立体物毎に、縮小した走行領域の領域内にあるか否かを判断する立体物判定処理(第二の立体物判定処理(走行領域の縮小については図8で説明))を実行し、S205で結果を出力してルーチンを抜ける。 On the other hand, as a result of the determination in S202, if it can be determined that the white line recognition rate COUNT is greater than or equal to the set value Cc, that is, it is in a state of being well recognized far away, the process proceeds to S204, and all solid objects are reduced. A solid object determination process (second solid object determination process (the reduction of the travel area is described in FIG. 8)) for determining whether or not the vehicle is within the travel area is executed, and the result is output in S205 to be a routine. Exit.
次に、白線認識率COUNTの演算を、図5のフローチャートで説明する。
まず、S301では、白線が認識される最遠の距離、すなわち、最遠認識距離が80m以上か否か判定され、80m以上の場合は、S302に進んで、COUNT=COUNT+1とする。
Next, the calculation of the white line recognition rate COUNT will be described with reference to the flowchart of FIG.
First, in S301, it is determined whether or not the farthest distance at which the white line is recognized, that is, whether the farthest recognition distance is 80 m or more. If 80 m or more, the process proceeds to S302 and COUNT = COUNT + 1.
S301で、最遠認識距離が80mより低いと判定された場合は、S303に進み、最遠認識距離が60m以上か否か判定され、60m以上の場合は、S304に進んで、COUNT=COUNTとする。 If it is determined in S301 that the farthest recognition distance is lower than 80 m, the process proceeds to S303, and it is determined whether or not the farthest recognition distance is 60 m or more. If it is 60 m or more, the process proceeds to S304 and COUNT = COUNT To do.
S303で、最遠認識距離が60mより低いと判定された場合は、S305に進み、最遠認識距離が40m以上か否か判定され、40m以上の場合は、S306に進んで、COUNT=COUNT−1とする。 If it is determined in S303 that the farthest recognition distance is less than 60 m, the process proceeds to S305, where it is determined whether the farthest recognition distance is 40 m or more. If it is 40 m or more, the process proceeds to S306 and COUNT = COUNT− Set to 1.
S305で、最遠認識距離が40mより低いと判定された場合は、S307に進み、COUNT=COUNT−2とする。 If it is determined in S305 that the farthest recognition distance is less than 40 m, the process proceeds to S307 and COUNT = COUNT-2.
S302、S304、S306、或いは、S307で白線認識率COUNTを設定した後は、S308に進み、白線認識率COUNTの最大値を100、最小値を0に制限してルーチンを抜ける。 After the white line recognition rate COUNT is set in S302, S304, S306, or S307, the process proceeds to S308, where the maximum value of the white line recognition rate COUNT is limited to 100 and the minimum value is limited to 0, and the routine is exited.
尚、ここで白線認識率COUNTのカウントを行う判定距離80m、60m、40mはあくまで一例であり、他の判定距離であっても良い。また、白線認識率COUNTのカウントのカウント値も一例であり、他の値でカウントしていくようにしても良い。 Here, the determination distances 80 m, 60 m, and 40 m for counting the white line recognition rate COUNT are merely examples, and other determination distances may be used. Further, the count value of the white line recognition rate COUNT is also an example, and it may be counted at another value.
このように、遠方まで良好に認識する状態にあるかの基準となる値に白線認識率COUNTを用いることにより、一時的なノイズ等の変化で認識している状態が誤判定されることが防止できるようになっている。 In this way, by using the white line recognition rate COUNT as a reference value for whether or not a state is well recognized far away, it is possible to prevent erroneous recognition of the recognized state due to a temporary change in noise or the like. It can be done.
次に、上述のS203の第一の立体物判定処理で、全立体物毎に生成される走行領域の拡大処理を、図6,7のフローチャートで説明する。
まず、S401で左右の演算の基本とする走行領域幅(基本走行領域幅)dxl0、dxr0を設定する。本実施の形態では、例として、dxl0=dxr0=1mとする。
Next, the travel area enlargement process generated for every three-dimensional object in the first three-dimensional object determination process of S203 described above will be described with reference to the flowcharts of FIGS.
First, in S401, the travel area widths (basic travel area widths) dxl0 and dxr0 that are the basis of the left and right calculations are set. In the present embodiment, as an example, dxl0 = dxr0 = 1m.
次いで、S402に進み、フュージョン率frを設定する。このフュージョン率frは、認識状態、具体的には、視界の悪さを評価する値であり、前述の、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物の数をミリ波で検出している立体物の数で除すること、すなわち、(画像立体物とミリ波立体物との組み合わせによるフュージョン立体物の数)/(ミリ波で検出している立体物の数)、で演算される。 Next, in S402, the fusion rate fr is set. This fusion rate fr is a value that evaluates the recognition state, specifically, poor visibility, and detects the number of fusion solid objects by the combination of the above-described image solid object and millimeter wave solid object with millimeter waves. Dividing by the number of solid objects, that is, (number of fusion solid objects by a combination of image solid objects and millimeter wave solid objects) / (number of solid objects detected by millimeter waves) is calculated.
次いで、S403に進み、左右の走行領域の拡張率al、arの初期値を設定する。本実施の形態では、例として、al=ar=1.0とする。 Next, the process proceeds to S403, where the initial values of the expansion rates al and ar of the left and right traveling areas are set. In the present embodiment, as an example, al = ar = 1.0.
その後、S404に進むと、フュージョン率frと予め設定しておいた閾値frLC(例えば0.5)とを比較する。この比較の結果、フュージョン率frが閾値frLC以下の場合には、視界が不良と判定して、S405に進み、左右の走行領域の拡張率al、arを拡張(例えば、al=al+0.2、ar=ar+0.2)してS406に進む。また、S404の判定の結果、フュージョン率frが閾値frLCより低いと判定されたらそのままS406に進む。 Thereafter, in S404, the fusion rate fr is compared with a preset threshold frLC (for example, 0.5). As a result of this comparison, when the fusion rate fr is equal to or less than the threshold value frLC, it is determined that the field of view is poor, and the process proceeds to S405 to expand the expansion rates al and a r of the left and right traveling areas (for example, al = al + 0.2, ar = ar + 0.2) and proceed to S406. If it is determined in S404 that the fusion rate fr is lower than the threshold frLC, the process proceeds to S406 as it is.
S406では、左白線が不検出状態か否か判定する。この判定の結果、左白線が不検出であれば、S407に進み、左の走行領域の拡張率alを拡張(例えば、al=al+0.1)してS408に進む。また、S406の判定の結果、左白線が検出されているのであれば、そのままS408に進む。 In S406, it is determined whether the left white line is in a non-detected state. If the left white line is not detected as a result of this determination, the process proceeds to S407, and the expansion rate al of the left travel area is expanded (for example, al = al + 0.1), and the process proceeds to S408. If the result of the determination in S406 is that a left white line has been detected, the process proceeds directly to S408.
S408では、右白線が不検出状態か否か判定する。この判定の結果、右白線が不検出であれば、S409に進み、右の走行領域の拡張率arを拡張(例えば、ar=ar+0.1)してS410に進む。また、S408の判定の結果、右白線が検出されているのであれば、そのままS410に進む。 In S408, it is determined whether or not the right white line is in a non-detected state. As a result of the determination, if the right white line is not detected, the process proceeds to S409, the expansion rate a r of the right traveling area is expanded (for example, ar = ar + 0.1), and the process proceeds to S410. If a right white line is detected as a result of the determination in S408, the process proceeds to S410 as it is.
S410では、霧が発生した状態か否か判定する。この判定の結果、霧状態の場合には、視界不良の可能性が高いため、S411に進み、左右の走行領域の拡張率al、arを拡張(例えば、al=al+0.2、ar=ar+0.2)してS412に進む。また、S410の判定の結果、霧状態ではない場合には、そのままS412に進む。 In S410, it is determined whether or not fog is generated. As a result of the determination, since the possibility of poor visibility is high in the fog state, the process proceeds to S411, and the expansion rates al and a r of the left and right traveling areas are expanded (for example, al = al + 0.2, ar = ar + 0. 2) and proceed to S412. If the result of determination in S410 is not foggy, the process proceeds directly to S412.
S412では、雪道状態か否か判定する。この判定の結果、雪道状態の場合には、視界不良の可能性が高いため、S413に進み、左右の走行領域の拡張率al、arを拡張(例えば、al=al+0.1、ar=ar+0.1)してS414に進む。また、S412の判定の結果、雪道状態ではない場合には、そのままS414に進む。 In S412, it is determined whether it is a snowy road condition. As a result of the determination, since the possibility of poor visibility is high in the case of a snowy road condition, the process proceeds to S413, and the expansion ratios al and ar of the left and right traveling areas are expanded (for example, al = al + 0.1, ar = ar + 0). .1) and proceed to S414. If the result of determination in S412 is not a snowy road condition, the process proceeds directly to S414.
S414では、濡れ路面走行状態か否か判定する。この判定の結果、濡れ路面状態の場合には、視界不良の可能性が高いため、S415に進み、左右の走行領域の拡張率al、arを拡張(例えば、al=al+0.1、ar=ar+0.1)してS416に進む。また、S414の判定の結果、濡れ路面状態ではない場合には、そのままS416に進む。 In S414, it is determined whether or not the vehicle is in a wet road state. If the result of this determination is that the road surface is wet, there is a high possibility of poor visibility, so the process proceeds to S415, where the expansion rates al and ar of the left and right traveling areas are expanded (for example, al = al + 0.1, ar = ar + 0). .1) and proceed to S416. If the result of determination in S414 is that the road surface is not wet, the process proceeds directly to S416.
S416では、画像で検出している立体物がないか否か判定する。この判定の結果、画像で検出している立体物がない場合には、前方を走行する車両の雪や水の巻き上げ等による視界不良の可能性が高いため、S417に進み、左右の走行領域の拡張率al、arを拡張(例えば、al=al+0.2、ar=ar+0.2)してS418に進む。また、S416の判定の結果、画像で検出している立体物がある場合には、そのままS418に進む。 In S416, it is determined whether there is any solid object detected in the image. As a result of this determination, if there is no solid object detected in the image, there is a high possibility of poor visibility due to snow or water hoisting of the vehicle traveling ahead, so the process proceeds to S417 and the left and right traveling areas are The expansion rates al and ar are expanded (for example, al = al + 0.2, ar = ar + 0.2), and the process proceeds to S418. If there is a solid object detected in the image as a result of the determination in S416, the process directly proceeds to S418.
S418では、今まで(S403〜S417)設定してきた左右の走行領域の拡張率al、arと、S401で設定した左右の基本走行領域幅dxl0、dxr0を用いて、最大遠方(本実施の形態においては100m)前方での左右の走行領域幅dxl100、dxr100を設定する。例えば、dxl100=al・dxl0、dxr100=ar・dxr0で設定する。 In S418, the far left (in this embodiment) using the left and right basic travel area widths dxl0 and dxr0 set in S401 and the left and right travel area expansion rates al and ar set up to now (S403 to S417). 100m) Set the left and right traveling area widths dxl100 and dxr100 in front. For example, dxl100 = al · dxl0 and dxr100 = ar · dxr0 are set.
その後、S419に進み、立体物のz座標位置zmにおける左右の走行領域幅dxl、dxrを設定する。この立体物のz座標位置zmにおける左右の走行領域幅dxl、dxrの設定は、例えば、図10に示すように、遠方になるに従って拡大するように以下の式により設定する。
dxl=1+(zm/100)・dxl100
dxr=1+(zm/100)・dxr100
Thereafter, the process proceeds to S419, and the left and right traveling area widths dxl and dxr at the z coordinate position zm of the three-dimensional object are set. The left and right traveling area widths dxl and dxr at the z-coordinate position zm of the three-dimensional object are set by the following expression so as to increase as the distance increases, for example, as shown in FIG.
dxl = 1 + (zm / 100) · dxl100
dxr = 1 + (zm / 100) · dxr100
そして、S420に進み、S419で設定した左右の走行領域幅dxl、dxrと自車進行路を用いて左右の走行領域座標xfl、xfrを設定してルーチンを抜ける。立体物位置における自車進行路のx座標をxpとすると、左右の走行領域座標xfl、xfrは以下の式により設定する。
xfl=xp−dxl
xfr=xp+dxr
In S420, the left and right traveling area coordinates xfl and xfr are set using the left and right traveling area widths dxl and dxr set in S419 and the own vehicle traveling path, and the routine is exited. If the x coordinate of the own vehicle traveling path at the three-dimensional object position is xp, the left and right traveling region coordinates xfl and xfr are set by the following equations.
xfl = xp-dxl
xfr = xp + dxr
次に、上述のS204の第二の立体物判定処理で、全立体物毎に生成される走行領域の縮小処理を、図8のフローチャートで説明する。 Next, the travel area reduction process generated for every three-dimensional object in the above-described second three-dimensional object determination process in S204 will be described with reference to the flowchart of FIG.
まず、S501で左右の演算の基本とする走行領域幅(基本走行領域幅)dxl0、dxr0を設定する。本実施の形態では、例として、dxl0=dxr0=1.5mとする。 First, in S501, the running area widths (basic running area widths) dxl0 and dxr0 that are the basis of the left and right calculations are set. In this embodiment, as an example, dxl0 = dxr0 = 1.5 m.
次いで、S502に進み、立体物のz座標位置zmと白線を検出している最遠認識距離zlm(但し、最小値を、例えば、80mに設定)とを比較する。この比較の結果、zm≦zlmであれば、S503以下の処理を実行し、zm>zlmであれば、そのままルーチンを抜ける。 Next, in S502, the z coordinate position zm of the three-dimensional object is compared with the farthest recognition distance zlm (however, the minimum value is set to 80 m, for example) for detecting the white line. As a result of the comparison, if zm ≦ zlm, the processing from S503 is executed, and if zm> zlm, the routine is directly exited.
S502で、zm≦zlmであると判定され、S503に進むと、左右の走行領域縮小率bl、brの初期値を設定する。本実施の形態では、例として、bl=br=1.0とする。 In S502, it is determined that zm ≦ zlm, and if the process proceeds to S503, initial values of the left and right traveling area reduction ratios bl and br are set. In the present embodiment, as an example, bl = br = 1.0.
次いで、S504に進み、左白線を検出しているか否か判定し、左白線を検出している場合には、左車線の立体物を先行車として誤登録するのを防止するため、立体物のz座標位置zmにおける左の走行領域幅dxlを縮小補正して演算し、S506に進む。また、S504で左白線を検出していない場合は、そのままS506に進む。 Next, in S504, it is determined whether or not a left white line is detected. If a left white line is detected, a three-dimensional object in the left lane is prevented from being erroneously registered as a preceding vehicle. The left traveling area width dxl at the z coordinate position zm is calculated by being reduced, and the process proceeds to S506. If the left white line is not detected in S504, the process proceeds to S506 as it is.
この立体物のz座標位置zmにおける左の走行領域幅dxlの設定は、例えば、図11に示すように、遠方になるに従って縮小するように以下の式により設定する。
dxl=(bl−(zm/zlm)・dxl0
The setting of the left travel area width dxl at the z-coordinate position zm of the three-dimensional object is set by the following equation so as to decrease as the distance increases, for example, as shown in FIG.
dxl = (bl− (zm / zlm) · dxl0
S506では、右白線を検出しているか否か判定し、右白線を検出している場合には、右車線の立体物を先行車として誤登録するのを防止するため、立体物のz座標位置zmにおける右の走行領域幅dxrを縮小補正して演算し、S508に進む。また、S506で右白線を検出していない場合は、そのままS508に進む。 In S506, it is determined whether or not the right white line is detected. If the right white line is detected, the z-coordinate position of the three-dimensional object is prevented in order to prevent erroneous registration of the three-dimensional object in the right lane as the preceding vehicle. The right traveling area width dxr at zm is calculated by being reduced, and the process proceeds to S508. If the right white line is not detected in S506, the process proceeds to S508 as it is.
この立体物のz座標位置zmにおける右の走行領域幅dxrの設定は、例えば、図11に示すように、遠方になるに従って縮小するように以下の式により設定する。
dxr=(br−(zm/zlm)・dxr0
The setting of the right travel area width dxr at the z coordinate position zm of the three-dimensional object is set by the following equation so as to decrease as the distance increases, for example, as shown in FIG.
dxr = (br− (zm / zlm) · dxr0
そして、S508に進み、S501、或いは、S505、或いは、S507で設定した左右の走行領域幅dxl、dxrと自車進行路を用いて左右の走行領域座標xfl、xfrを設定してルーチンを抜ける。左右の走行領域座標xfl、xfrは以下の式により設定する。尚、S505、S507を経ず、S501の左右の基本走行領域幅dxl0、dxr0をそのまま用いる場合は、この値を左右の走行領域幅dxl、dxrとする。 In step S508, the left and right traveling region coordinates xfl and xfr are set using the left and right traveling region widths dxl and dxr set in step S501, S505, and S507 and the own vehicle traveling path, and the routine is exited. The left and right travel area coordinates xfl and xfr are set by the following equations. If the left and right basic travel area widths dxl0 and dxr0 of S501 are used as they are without passing through S505 and S507, these values are set as the left and right travel area widths dxl and dxr.
xfl=xp−dxl
xfr=xp+dxr
xfl = xp-dxl
xfr = xp + dxr
このように本実施の形態によれば、遠方まで良好に認識する状態にないと判定できる場合には、走行領域を拡大し、遠方まで良好に認識する状態にあると判定できる場合には、走行領域を縮小して、この走行領域を基に先行車の抽出を行うようになっている。このため、走行環境が悪環境(霧、濡れ路面、雪路等)の下では、視界が悪くなり先行車の検出自体が難しくなるため、より積極的に先行車を検出して、自然で安定した制御が可能となる。また、遠方まで良好に認識できる状態では、隣車線の車両等を先行車として誤登録することを防止することが可能になる。 As described above, according to the present embodiment, when it can be determined that the vehicle is not in a state of being well recognized far away, the traveling region is expanded, and when the vehicle is determined to be in a state of being well recognized far away, The area is reduced, and the preceding vehicle is extracted based on the travel area. For this reason, when the driving environment is bad (fog, wet road surface, snowy road, etc.), the visibility becomes worse and the detection of the preceding vehicle becomes difficult. Control becomes possible. Further, in a state where the vehicle can be well recognized far away, it is possible to prevent erroneous registration of a vehicle or the like in the adjacent lane as a preceding vehicle.
また、走行領域を拡大する量は、その時の走行環境や白線の検出状態に応じて可変されるので、緻密な制御とすることが可能である。走行領域の縮小する量も、白線の認識状態と最遠認識距離に応じて可変されるので、緻密な制御とすることが可能である。 In addition, since the amount for expanding the travel region is variable according to the travel environment at that time and the detection state of the white line, precise control can be performed. Since the amount by which the travel area is reduced is also changed according to the white line recognition state and the farthest recognition distance, precise control can be performed.
尚、本実施の形態では、走行領域を拡大する量を、フュージョン率fr、白線の検出状態、霧発生、雪道状態、濡れ路面、画像による立体物検出の各条件で設定するようになっているが、これら全てを行うものに限定されるものでは無い。 In the present embodiment, the amount by which the travel area is enlarged is set in each condition of the fusion rate fr, the detection state of the white line, the fog generation, the snowy road condition, the wet road surface, and the three-dimensional object detection by the image. However, it is not limited to those that do all of these.
1 自車両
2 ACCシステム
3 ステレオカメラ
4 ミリ波送受信部
5 車外監視装置
6 走行制御ユニット
15 ステレオ画像処理部(前方認識手段、走行環境認識手段)
16 測距処理部(前方認識手段)
17 フュージョン立体物設定部(前方認識手段)
18 自車走行領域推定部(自車進行路推定手段)
19 走行領域内立体物判定部(認識状態判定手段、走行領域推定手段)
20 先行車認識部(先行車認識手段)
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 1 Own vehicle 2 ACC system 3 Stereo camera 4 Millimeter wave transmission / reception part 5 Out-of-vehicle monitoring apparatus 6 Traveling control unit 15 Stereo image processing part (forward recognition means, traveling environment recognition means)
16 Distance measurement processing unit (forward recognition means)
17 Fusion three-dimensional object setting unit (front recognition means)
18 Own vehicle travel area estimation unit (own vehicle travel path estimation means)
19 Travel area solid object determination unit (recognition state determination means, travel area estimation means)
20 Preceding vehicle recognition unit (preceding vehicle recognition means)
Agent Patent Attorney Susumu Ito