一種基于圖像處理的駕駛員未系安全帶檢測(cè)識(shí)別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及圖像模式識(shí)別及智能交通領(lǐng)域,具體是關(guān)于智能交通系統(tǒng)中采用圖像處理技術(shù)自動(dòng)檢測(cè)駕駛員未系安全帶的一種方法,特別針對(duì)通過(guò)高清監(jiān)控?cái)z像機(jī)抓拍的卡口圖片。
【背景技術(shù)】
[0002]隨著人工智能技術(shù)的飛速發(fā)展,運(yùn)用圖像處理及電子信息技術(shù)實(shí)現(xiàn)安全、高效的管理的成為智能交通的一個(gè)主要發(fā)展方向。據(jù)有關(guān)部門從大量的交事故數(shù)據(jù)中統(tǒng)計(jì)得出,排除其他人員的傷亡數(shù)據(jù),單就駕駛員傷亡這一數(shù)字來(lái)看,不系安全帶是造成死亡事故的第三大原因,僅次于超速行駛和酒后駕駛。汽車事故調(diào)查表明,在發(fā)生正面撞車時(shí),如果系了安全帶,可使死亡率減少57%,側(cè)面撞車時(shí)可減少44%,翻車時(shí)可減少80%。因此如何有效的監(jiān)管駕駛員是否系安全帶并促使駕駛員有意識(shí)的養(yǎng)成安全文明駕車的習(xí)慣,從而最終達(dá)到減少交通事故中的人員傷亡是一個(gè)有意義的課題。
[0003]近些年來(lái),基于圖像處理技術(shù)的智能交通系統(tǒng)目前已經(jīng)取得了非常廣泛的應(yīng)用,但通過(guò)高清監(jiān)控?cái)z像機(jī)采集的卡口圖像數(shù)據(jù)來(lái)分析駕駛員是否系了安全帶仍然面臨著諸多困難,沒(méi)有非常成熟的算法。如何通過(guò)圖像識(shí)別的高端技術(shù)手段,輔助交警通過(guò)強(qiáng)制執(zhí)法處罰不系安全帶的駕駛行為,來(lái)提高駕駛員自覺(jué)系安全帶的意識(shí)是一個(gè)全新的研究方向。本發(fā)明就是致力于采用圖像處理的技術(shù)手段來(lái)解決這一難題。
【發(fā)明內(nèi)容】
[0004]本發(fā)明針對(duì)高清監(jiān)控?cái)z像機(jī)拍攝的卡口圖片,提出了一種自動(dòng)檢測(cè)識(shí)別駕駛員未系安全帶的方法,該方法主要由四個(gè)部分構(gòu)成:
[0005]S1:車牌定位模塊,所述車牌定位是指通過(guò)對(duì)原始圖像數(shù)據(jù)進(jìn)行分析,自動(dòng)輸出圖片中機(jī)動(dòng)車輛的車牌屬性,包括車牌位置和車牌顏色,初步確認(rèn)圖片中車輛的位置信息。然后根據(jù)車牌位置,以車牌為基準(zhǔn)向上拓展3至5個(gè)車牌的寬度,向右拓展2至5個(gè)車牌的寬度即可得到駕駛員的候選區(qū)域。
[0006]S2:駕駛員檢測(cè)模塊,駕駛員檢測(cè)模塊主要完成駕駛員上半身區(qū)域的精確定位。本發(fā)明提出了一種全新的通過(guò)分析駕駛員頭肩特征并結(jié)合AdaBo ο s t算法的駕駛員上半身定位方法。為了適應(yīng)各種復(fù)雜的環(huán)境,本發(fā)明收集了 10萬(wàn)張駕駛員頭肩區(qū)域樣本圖片,30萬(wàn)張非駕駛員頭肩區(qū)域的車窗區(qū)域負(fù)樣本,采用AdaBoost算法構(gòu)建了一個(gè)非常穩(wěn)定的駕駛員頭肩區(qū)域檢測(cè)器。AdaBoost是一種迭代尋優(yōu)的算法,針對(duì)訓(xùn)練樣本集反復(fù)訓(xùn)練出多個(gè)簡(jiǎn)單的分類器,最后再將這些分類器組合起來(lái)形成一個(gè)分類能力更強(qiáng)的分類器。
[0007]S3:圖像清晰度分析模塊,在S2的基礎(chǔ)上,檢測(cè)到駕駛員區(qū)域后,進(jìn)一步對(duì)該區(qū)域的圖像清晰程度進(jìn)行分析。具體為本發(fā)明提出了采用sobel邊緣梯度特征并結(jié)合支撐向量機(jī)的圖像清晰度分析方法,人工將預(yù)先準(zhǔn)備的所有駕駛員區(qū)域圖像樣本集分為清晰和不清晰的兩部分,分別提取每一個(gè)樣本的sobel邊緣梯度特征,得到清晰和不清晰的兩類圖像的邊緣梯度表述,再結(jié)合線性支撐向量機(jī)訓(xùn)練出一個(gè)穩(wěn)定性極高的清晰/不清晰的判別模型。利用該模型,即可評(píng)判其他駕駛員區(qū)域圖像是否清晰。不清晰的圖像將直接被視為駕駛員已經(jīng)系了安全帶而不做進(jìn)一步分析。
[0008]S4:安全帶檢測(cè)模塊,本發(fā)明提出了一種全新的基于深度卷積網(wǎng)絡(luò)的安全帶檢測(cè)算法,該網(wǎng)絡(luò)使用了 10萬(wàn)張清晰的駕駛員頭肩區(qū)域樣本訓(xùn)練而成,其中5萬(wàn)張系安全帶的正樣本和5萬(wàn)張沒(méi)系安全帶的負(fù)樣本,實(shí)踐證明基于深度卷積網(wǎng)絡(luò)的安全帶檢測(cè)具有非常高的檢測(cè)識(shí)別精度。本發(fā)明的優(yōu)選網(wǎng)絡(luò)結(jié)構(gòu)由1個(gè)輸入層,4個(gè)卷積層,3個(gè)下采樣層,2個(gè)全連接層和1個(gè)輸出層構(gòu)成。
【附圖說(shuō)明】
:
[0009]下面結(jié)合附圖的詳細(xì)說(shuō)明將更為清晰的解釋本發(fā)明的特征、目的和優(yōu)勢(shì),其中:
[0010]圖1是表示本發(fā)明的整體流程框架示意圖。
【具體實(shí)施方式】
[0011 ]現(xiàn)在,將參照附圖描述本發(fā)明的優(yōu)選實(shí)施例。
[0012]圖1表示本發(fā)明的整體流程示意圖。
[0013]如圖1所示,本發(fā)明由車牌定位模塊S1、駕駛員檢測(cè)模塊S2、圖像清晰度分析模塊S3、安全帶檢測(cè)模塊S4這個(gè)四個(gè)部分構(gòu)成。
[0014]S1:車牌定位模塊,通過(guò)對(duì)原始圖像數(shù)據(jù)進(jìn)行分析,自動(dòng)輸出圖片中機(jī)動(dòng)車輛的車牌屬性,根據(jù)車牌可初步確認(rèn)圖片中車輛的位置。
[0015]車牌定位的作用主要是可以根據(jù)車牌位置粗略估計(jì)駕駛員所在的位置,本實(shí)施例中采用的具體方法是以車牌位置為基準(zhǔn),向上拓展3至5個(gè)車牌的寬度,向右拓展2至5個(gè)車牌的寬度。
[0016]S2:駕駛員檢測(cè)模塊,車窗內(nèi)環(huán)境較為復(fù)雜,再加上車窗的反光等干擾,難以通過(guò)檢測(cè)駕駛員的人臉特征來(lái)實(shí)現(xiàn)駕駛員位置的準(zhǔn)確定位。本發(fā)明提出了一種分析駕駛員頭肩特征并結(jié)合AdaBoos t算法的駕駛員上半身定位方法。
[0017]采用AdaBoost檢測(cè)駕駛員的基本原理是:
[0018]S21、離線構(gòu)建駕駛員檢測(cè)的分類模型,具體分為如下兩步:
[0019]1)準(zhǔn)備駕駛員頭肩部分的正樣本圖片集合和非駕駛員頭肩部分的負(fù)樣本圖片集合。為了能夠適應(yīng)各種復(fù)雜的環(huán)境,提高駕駛員檢測(cè)算法的魯棒性,本發(fā)明收集了不同環(huán)境下的駕駛員頭肩區(qū)域正樣本100000張,所有駕駛員圖片的寬高均歸一化為30x18。非駕駛員的負(fù)樣本圖片的收集,本發(fā)明并非是采用隨意抓取的一些圖片,而是將車頭圖像經(jīng)過(guò)特殊處理(抹掉駕駛員及副駕駛區(qū)域)而得到的,為了提升負(fù)樣本集合的多樣性,本發(fā)明累從各種不同的卡口圖片中收集的負(fù)樣本圖片達(dá)30萬(wàn)張。
[0020]2)使用100000張駕駛員頭肩正樣本再結(jié)合經(jīng)典的AdaBoost方法,通過(guò)幾天的訓(xùn)練可得到判斷一個(gè)圖像區(qū)域是否為駕駛員頭肩區(qū)域的分類器。
[0021]S22、在線的駕駛員頭肩區(qū)域檢測(cè)
[0022]在依據(jù)車牌位置估計(jì)得到的車窗候選區(qū)域中中,遍歷所有位置尺度為30x18的子窗口圖像,分別采用S21中訓(xùn)練的模型進(jìn)行判斷,得出該子窗口區(qū)域是否為駕駛員頭肩部分的結(jié)論。由于攝像機(jī)安裝位置的原因,圖像中車輛的大小存在一