一、基于紅外圖像的道路識別算法研究(論文文獻(xiàn)綜述)
杜越[1](2021)在《移動機(jī)器人智能監(jiān)控與應(yīng)急救援關(guān)鍵技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理視頻監(jiān)控是安防及應(yīng)急救援的重要組成部分,因其呈現(xiàn)方式直觀、傳遞信息多元而廣泛應(yīng)用于各類場景之中。傳統(tǒng)方法的視頻監(jiān)控主要存在三大問題,其一是缺少視頻智能分析,在監(jiān)控過程中需要依靠人工同時對多個攝像頭所拍攝的監(jiān)控畫面進(jìn)行較長時間的觀察,而且僅能對監(jiān)控內(nèi)容給出主觀的判斷,使得工作效率較低。其二是缺乏靈活監(jiān)控,大多數(shù)的攝像頭采用固定安裝的方式,易存在監(jiān)控盲區(qū),同時極易受限于光照的變化,在更為重要的低照度或黑暗場景下不具備良好的監(jiān)控能力,且若大量布置或是升級硬件會使成本較高。其三是視頻監(jiān)控與應(yīng)急救援無法快速響應(yīng)并進(jìn)行高效的聯(lián)動作業(yè)。針對以上問題,本文主要研究工作有以下三點(diǎn):針對現(xiàn)有視頻監(jiān)控易受限于真實(shí)環(huán)境中的光照變化的問題,重點(diǎn)研究了低照度情況下的視頻監(jiān)控區(qū)域入侵檢測。設(shè)計(jì)了視頻監(jiān)控畫面的亮度評估及低照度情況下的圖像亮度增強(qiáng)方法,解決了在低照度情況下圖像過暗、目標(biāo)不清的問題,優(yōu)化了在低照度情況下的前景分割算法,有效消減陰影的干擾,提高對入侵目標(biāo)輪廓提取的準(zhǔn)確性。同時提出了全畫面及區(qū)域劃定兩種區(qū)域入侵方法,在利用幾何關(guān)系判定的基礎(chǔ)上引入評估入侵程度的參數(shù),提高判定效率與準(zhǔn)確率,結(jié)合方向梯度直方圖特征提取方法,實(shí)現(xiàn)準(zhǔn)確高效的入侵目標(biāo)檢測。針對固定攝像頭監(jiān)控畫面覆蓋不全,易存在監(jiān)控盲區(qū)且大量布置會導(dǎo)致成本較高的問題,本文基于移動機(jī)器人平臺設(shè)計(jì)了遠(yuǎn)程控制精準(zhǔn)巡邏的探測方法。運(yùn)用基于激光雷達(dá)的地圖構(gòu)建及路徑規(guī)劃算法,實(shí)現(xiàn)了遠(yuǎn)程控制地面移動機(jī)器人精準(zhǔn)巡邏快速聯(lián)動。同時利用深度學(xué)習(xí)實(shí)現(xiàn)了黑暗環(huán)境下紅外視頻圖像的行人檢測,彌補(bǔ)監(jiān)控視角盲區(qū)。為實(shí)現(xiàn)視頻監(jiān)控與應(yīng)急救援間的快速聯(lián)動,本文基于瀏覽器和服務(wù)器架構(gòu)設(shè)計(jì)了智能視頻監(jiān)控與應(yīng)急救援軟件平臺,實(shí)現(xiàn)了事故報(bào)警、應(yīng)急救援聯(lián)動以及事故信息整合等功能。構(gòu)建了快速響應(yīng)的視頻監(jiān)控與應(yīng)急救援聯(lián)動機(jī)制,在提升監(jiān)控效率的同時提高事故處理的靈活性。
張子睿[2](2021)在《面向汽車輔助駕駛的紅外及可見光融合目標(biāo)識別技術(shù)研究》文中研究指明近年來,隨著國民收入的不斷提高,人們愈發(fā)傾向于購買汽車滿足自己的出行需求,也正因如此,交通事故也頻頻發(fā)生。通過分析有關(guān)部門的統(tǒng)計(jì)發(fā)現(xiàn),交通事故發(fā)生的原因主要有兩點(diǎn):一是光照不足或視線受遮擋,如夜間行車、雨雪天行車等,二是駕駛員疲勞駕駛。在這些情況下,駕駛員無法及時根據(jù)前方道路環(huán)境做出正確的操作。為了減少交通事故的發(fā)生概率,越來越多的汽車制造商和研究機(jī)構(gòu)將精力集中在汽車輔助駕駛技術(shù)的研究上。汽車輔助駕駛技術(shù)可以有效的減少交通事故發(fā)生的概率。通過分析發(fā)現(xiàn),當(dāng)前大多數(shù)汽車輔助駕駛技術(shù)主要基于可見光設(shè)備,在晴朗的白天效果較好,在夜晚或其他光照條件不良的情況下,效果不佳,無法實(shí)現(xiàn)全天候的輔助駕駛。但基于紅外的成像設(shè)備的出現(xiàn),補(bǔ)足了可見光設(shè)備的短板,使得全天候的汽車輔助駕駛成為了可能。本文基于紅外圖像與可見光圖像的融合,對傳統(tǒng)目標(biāo)識別技術(shù)中各階段的算法做了研究和改進(jìn),提高了汽車輔助駕駛系統(tǒng)對于行人和車輛識別的準(zhǔn)確性和對于復(fù)雜場景的適應(yīng)性。在圖像預(yù)處理階段,本文首先對紅外圖像和可見光圖像的成像原理和特性進(jìn)行了研究。根據(jù)二者的聯(lián)系與區(qū)別,在圖像去噪階段,針對中值濾波算法進(jìn)行了改進(jìn),在圖像增強(qiáng)階段,針對直方圖均衡化算法進(jìn)行了改進(jìn)。在圖像融合階段,針對NSCT變換融合算法中的低頻子帶融合策略進(jìn)行了改進(jìn)。在目標(biāo)檢測階段,針對傳統(tǒng)目標(biāo)檢測算法的問題,提出了一種結(jié)合形態(tài)學(xué)、小波變換兩種目標(biāo)檢測算法優(yōu)點(diǎn)的改進(jìn)算法。在目標(biāo)定位階段,選用基于物體重心的目標(biāo)定位算法來實(shí)現(xiàn)本文對于汽車輔助駕駛系統(tǒng)中對于目標(biāo)準(zhǔn)確定位的需求。在提取目標(biāo)特征階段,研究了Haarlike特征,LBP特征和HOG特征,并在此基礎(chǔ)上提出了一種改進(jìn)的HOG-LBP特征。在目標(biāo)識別階段,研究了SVM分類器和Ada Boost分類器,實(shí)現(xiàn)了將SVM分類器作為Ada Boost分類器的弱分類器,使得Ada Boost分類器具備了對于高維特征的處理。通過實(shí)驗(yàn)證明,本文提出的改進(jìn)算法能夠有效實(shí)現(xiàn)對于融合視頻中出現(xiàn)的行人,車輛的識別。
孟志敏[3](2021)在《紅外與可見光圖像融合的目標(biāo)識別方法研究》文中研究說明面對復(fù)雜戰(zhàn)場環(huán)境下的戰(zhàn)略偵查,目標(biāo)識別,精準(zhǔn)制導(dǎo)等軍事行動,可見光與紅外圖像融合識別技術(shù)在理論和現(xiàn)實(shí)方面有迫切需求。當(dāng)前目標(biāo)識別方法大多基于單一傳感器進(jìn)行研究,而且識別算法結(jié)構(gòu)的復(fù)雜,難以部署在嵌入式系統(tǒng)中。本文針對坦克目標(biāo)識別的關(guān)鍵問題,提出紅外與可見光圖像融合的目標(biāo)識別算法,通過不同算法對比并進(jìn)行算法仿真驗(yàn)證?;赬ilinx Zynq平臺對所提算法進(jìn)行移植以及硬件優(yōu)化加速并搭建嵌入式紅外與可見光圖像融合的目標(biāo)識別系統(tǒng)。主要研究內(nèi)容包括圖像數(shù)據(jù)采集,異源圖像配準(zhǔn)及融合算法和圖像的識別算法在嵌入式系統(tǒng)中實(shí)現(xiàn)。如下所述:基于紅外與可見光成像的特點(diǎn),對圖像預(yù)處理方法進(jìn)行分析研究,對紅外與可見光圖像采取灰度處理、中值濾波、均值濾波、直方圖均衡化以及圖像的銳化增強(qiáng)處理。為圖像配準(zhǔn)融合提供有效的特征并通過實(shí)驗(yàn)驗(yàn)證預(yù)處理算法的可行性。針對坦克目標(biāo)特點(diǎn),對比Hu不變矩、SURF特征描述以及形狀上下文特征匹配的正確率,選取適合坦克目標(biāo)異源圖像配準(zhǔn)方法,對配準(zhǔn)后的圖像進(jìn)行小波變換圖像融合。利用融合規(guī)則對圖像中相應(yīng)的高頻分量以及低頻分量進(jìn)行融合并通過主觀視覺與客觀指標(biāo)對融合算法進(jìn)行評價。提高目標(biāo)識別特征選取的可靠性?;谔箍四繕?biāo)識別算法的分析研究,對比坦克的局部二元模式特征、SIFT特征描述、梯度方向直方圖特征。結(jié)合算法處理實(shí)時性及FPGA計(jì)算特性,采用HOG特征描述作為識別判斷的特征依據(jù),通過訓(xùn)練SVM分類器實(shí)現(xiàn)目標(biāo)的分類識別。嵌入式圖像融合的目標(biāo)識別系統(tǒng)搭建,在FPGA上部署定制算法IP核模塊實(shí)現(xiàn)硬件加速設(shè)計(jì),ARM上實(shí)現(xiàn)硬件驅(qū)動程序的設(shè)計(jì)以及模塊時序控制和構(gòu)建SVM分類器模型。通過Peta Linux工具在開發(fā)環(huán)境中移植Linux系統(tǒng)以及Open CV庫函數(shù)和Qt庫函數(shù),實(shí)現(xiàn)高效的圖像處理。實(shí)驗(yàn)結(jié)果驗(yàn)證了算法的有效性。
仝礦偉[4](2020)在《礦用空壓機(jī)工作狀態(tài)紅外識別關(guān)鍵技術(shù)研究》文中指出礦用空壓機(jī)作為煤礦生產(chǎn)的重要動力源和安全保障設(shè)備,在煤炭安全高效生產(chǎn)中占有舉足輕重的地位。礦用空壓機(jī)的智能化水平制約著礦井壓風(fēng)系統(tǒng)的工作可靠性,而礦用空壓機(jī)工作狀態(tài)準(zhǔn)確快速識別是實(shí)現(xiàn)其智能控制的前提。目前礦用空壓機(jī)主要由人工定時巡檢實(shí)現(xiàn)工作狀態(tài)監(jiān)測,并依靠操作工人的經(jīng)驗(yàn)進(jìn)行工作狀態(tài)識別和故障診斷。因此,有必要對礦用空壓機(jī)工作狀態(tài)識別的關(guān)鍵技術(shù)進(jìn)行研究,進(jìn)而提高空壓機(jī)的智能化水平。礦用空壓機(jī)所處工況具有溫度高、噪聲強(qiáng)、振動劇烈的特征,紅外熱成像檢測技術(shù)具有非接觸、穿透性強(qiáng)及不受外部噪聲及光照條件影響的特點(diǎn)。通過礦用空壓機(jī)輻射的紅外信號,可以實(shí)現(xiàn)對關(guān)鍵部件的狀態(tài)識別。本課題以礦用空壓機(jī)工作狀態(tài)紅外識別為研究目標(biāo),利用紅外熱成像檢測技術(shù)獲取空壓機(jī)關(guān)鍵部件的工作狀態(tài)圖像,對原始紅外圖像中復(fù)雜背景噪聲在線去除、超高維圖像特征快速降維以及基于機(jī)器學(xué)習(xí)的空壓機(jī)工作狀態(tài)準(zhǔn)確識別等方法和技術(shù)進(jìn)行了深入研究。主要研究內(nèi)容如下:(1)分析了礦用空壓機(jī)的基本結(jié)構(gòu),并結(jié)合生產(chǎn)實(shí)際,詳細(xì)研究了螺桿式空壓機(jī)吸氣、封閉、壓縮和排氣的工作原理,基于礦用空壓機(jī)狀態(tài)識別系統(tǒng)的功能需求,搭建了礦用空壓機(jī)狀態(tài)識別的總體框架,分析了其主要組成和識別流程。(2)設(shè)計(jì)了基于優(yōu)化小波閾值的紅外圖像去噪算法,消除原始紅外圖像中包含的高斯噪聲和沖擊噪聲,利用改進(jìn)的果蠅算法獲取各階小波去噪閾值,并針對標(biāo)準(zhǔn)果蠅算法容易陷入局部最優(yōu)的問題,引入動態(tài)步長分布算子增強(qiáng)全局和局部尋優(yōu)能力。(3)研究了超高維數(shù)據(jù)的低維表征方法,提出了基于流形學(xué)習(xí)的非線性降維方法對紅外圖像進(jìn)行降維,設(shè)計(jì)了礦用空壓機(jī)狀態(tài)識別評價系統(tǒng),引入堵塞率ρ和堵塞程度判別因子Φ、溫度偏離因子γ和空壓機(jī)健康狀態(tài)評價因子H對礦用空壓機(jī)工作狀態(tài)進(jìn)行詳細(xì)劃分。(4)提出了基于優(yōu)化支持向量機(jī)的礦用空壓機(jī)運(yùn)行狀態(tài)識別算法,利用改進(jìn)的蝙蝠優(yōu)化算法對非線性支持向量機(jī)關(guān)鍵參數(shù)進(jìn)行優(yōu)化,并在基本蝙蝠算法的基礎(chǔ)上,引入精英族群和探索族群增強(qiáng)蝙蝠算法的全局尋優(yōu)能力,實(shí)現(xiàn)了礦用空壓機(jī)工作狀態(tài)的準(zhǔn)確識別。設(shè)計(jì)并搭建了礦用空壓機(jī)工作狀態(tài)識別系統(tǒng),在實(shí)驗(yàn)室和龍王莊煤業(yè)股份有限公司分別進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:該系統(tǒng)可以對礦用空壓機(jī)紅外圖像進(jìn)行有效處理,能夠準(zhǔn)確識別空壓機(jī)關(guān)鍵部件的工作狀態(tài),為進(jìn)一步提高空壓機(jī)的智能化水平奠定了基礎(chǔ)。該論文有圖50幅,表18個,參考文獻(xiàn)146篇。
王周春[5](2020)在《基于機(jī)器學(xué)習(xí)的目標(biāo)探測與識別技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理在計(jì)算機(jī)視覺、圖像處理、模式識別、機(jī)器學(xué)習(xí)研究領(lǐng)域中,目標(biāo)探測(亦稱檢測,后面統(tǒng)一稱檢測)與目標(biāo)識別一直是永恒的熱門課題,紅外成像以及處理技術(shù)由于得天獨(dú)厚的優(yōu)勢,在智能交通、安防監(jiān)控、工業(yè)生產(chǎn)檢測、軍事目標(biāo)識別等有廣泛運(yùn)用。在科學(xué)研究旅程中,人類一直在思考,機(jī)器是否可以像人類一樣具有思考能力以及智能解決疑難問題,經(jīng)過多年的持續(xù)研究,機(jī)器學(xué)習(xí)算法取得很大發(fā)展,特別是紅外技術(shù)領(lǐng)域中的目標(biāo)檢測與識別研究工作取得不少成果,但是仍然存在很多需要解決的關(guān)鍵科學(xué)技術(shù)問題,目標(biāo)所處環(huán)境復(fù)雜多變,目前還沒有一種比較通用成熟的檢測與識別算法,因此,在實(shí)際應(yīng)用中,算法研究的機(jī)遇與挑戰(zhàn)并存。本文針對紅外技術(shù)應(yīng)用領(lǐng)域的目標(biāo)檢測和識別三個方面分別進(jìn)行研究,取得的主要創(chuàng)新性結(jié)果如下:1.基于對比度的紅外點(diǎn)目標(biāo)檢測與識別技術(shù)研究:當(dāng)目標(biāo)本身形體很小,或者是目標(biāo)和紅外成像系統(tǒng)之間距離非常遠(yuǎn),目標(biāo)成像面積很小,在視場中表現(xiàn)為孤點(diǎn)或者斑點(diǎn),紅外點(diǎn)目標(biāo)檢測與識別技術(shù)難度較大。本文采用一種以局部對比測度(LCM)方法為基礎(chǔ)的MLCM算法,結(jié)合SSDA模板匹配算法、數(shù)學(xué)形態(tài)學(xué)運(yùn)算、基于塊的多尺寸對比測度(MPCM)算法,解決視場中表現(xiàn)為孤點(diǎn)或者斑點(diǎn)目標(biāo)的難題,對紅外點(diǎn)目標(biāo)進(jìn)行檢測識別,算法工作性能良好,適合多種運(yùn)用場景。2.基于支持向量機(jī)的紅外面目標(biāo)分類識別技術(shù)研究:面目標(biāo)的成像面積比點(diǎn)目標(biāo)大,在紅外成像系統(tǒng)中,相同一個人穿著不同的服飾,成像特點(diǎn)不一樣,不同的行人成像特點(diǎn)也不同等。本文采用一種以SVM+HOG為基礎(chǔ)的分類模型,通過加入GLCM算法提取目標(biāo)紋理特征,對紅外面目標(biāo)進(jìn)行分類識別,解決穿著不同服飾的紅外面目標(biāo)分類識別問題。結(jié)果顯示,在自己采集的長波紅外面目標(biāo)場景中,提出的SVM+HOG+GLCM算法模型對面目標(biāo)的分類識別的正確率較高,達(dá)到90.5%,可以滿足一定應(yīng)用需求。3.基于卷積神經(jīng)網(wǎng)絡(luò)的紅外空中動目標(biāo)和地上行人檢測研究:針對紅外空中動目標(biāo)檢測和地上行人檢測,采用兩種思路進(jìn)行解決;對于紅外高空動目標(biāo),先使用傳統(tǒng)的基于閾值分割的幀間差分檢測算法,然后使用Faster R-CNN算法對其進(jìn)行檢測,最后將兩種類型算法的檢測結(jié)果進(jìn)行比較,分析它們的優(yōu)點(diǎn)與缺點(diǎn);對于紅外地上行人目標(biāo),同樣也先使用傳統(tǒng)的級聯(lián)檢測器對目標(biāo)進(jìn)行檢測,然后使用Faster R-CNN算法對其進(jìn)行檢測,最后比較兩種算法的檢測效果;比較兩種目標(biāo)場景的檢測結(jié)果,卷積神經(jīng)網(wǎng)絡(luò)算法的檢測效果更加優(yōu)異??傊?本文主要針對紅外技術(shù)應(yīng)用領(lǐng)域的目標(biāo)檢測和識別三個方面進(jìn)行研究,同時也研究傳統(tǒng)的目標(biāo)檢測算法,對兩種類型算法的檢測結(jié)果進(jìn)行比較,研究算法間的優(yōu)點(diǎn)與不足,取得一定的研究成果,但仍然存在一些問題,特別是機(jī)器學(xué)習(xí)算法是近年來國際興起的新型研究領(lǐng)域,需要在往后的研究工作中進(jìn)一步深入。本文的研究結(jié)果將對紅外技術(shù)領(lǐng)域中的目標(biāo)檢測與識別應(yīng)用起到一定的促進(jìn)作用。
宋永超[6](2020)在《異源視覺道路行車場景的交通對象分類檢測算法研究》文中研究指明隨著自動駕駛和高級輔助駕駛技術(shù)的快速發(fā)展,視覺環(huán)境下道路行車場景的交通對象檢測不可或缺,對提高智能交通的智能化、安全性水平,實(shí)現(xiàn)安全、可靠、舒適的出行任務(wù)尤為重要。廣泛且充分的感知車輛周圍環(huán)境信息,獲得道路交通對象的檢測信息,提高道路出行安全,減少交通安全事故是當(dāng)前智能交通領(lǐng)域研究的重要內(nèi)容,并已成為這一領(lǐng)域?qū)W者研究和關(guān)注的熱點(diǎn)。本文在充分調(diào)研國內(nèi)外研究現(xiàn)狀的基礎(chǔ)上,圍繞道路車輛環(huán)境感知需求,針對道路行車場景中交通對象檢測存在的諸多問題,重點(diǎn)研究了不同視覺源下道路交通三要素(道路、車輛、行人)的分類檢測方法。論文的主要研究工作及成果如下:針對大多數(shù)道路檢測方法對光照變化、陰影敏感,而傳統(tǒng)光照不變道路檢測方法存在相機(jī)軸標(biāo)定角度難以確定、道路樣本采樣失真等多重問題,提出了一種基于學(xué)習(xí)光照無關(guān)圖的帶陰影道路在線檢測算法。首先,手工標(biāo)定出道路圖像序列的道路塊和非道路塊,利用多特征融合方法訓(xùn)練生成道路塊SVM分類器;然后,將組合道路塊RGB空間轉(zhuǎn)換為幾何均值對數(shù)色度空間,并根據(jù)Shannon熵確定每幀圖像相機(jī)軸的標(biāo)定角,以獲取各自幀的光照無關(guān)圖;最后,通過車前安全距離區(qū)域隨機(jī)采樣方法提取道路樣本點(diǎn),建立道路置信區(qū)間分類器,將道路從背景中分離出來。使用多個視頻序列評估算法的有效性,實(shí)驗(yàn)結(jié)果表明,此方法可以得到高質(zhì)量的道路檢測結(jié)果,實(shí)現(xiàn)檢測過程的實(shí)時性。針對現(xiàn)實(shí)交通環(huán)境中雙目視差圖匹配誤差大、計(jì)算復(fù)雜度高,以及車輛等交通對象檢測缺少必要的深度信息等問題,提出了一種基于單目深度估計(jì)和精細(xì)化U-V視圖的路上車輛檢測算法。使用加入邊緣增強(qiáng)損失函數(shù)的單目深度估計(jì)模型得到原始視差圖,并通過原始視差圖的水平和垂直投影來定義初始的U和V視圖;提出精細(xì)化U、V視圖的道路感興趣區(qū)域檢測算法獲得路上車輛感興趣區(qū)域;提出道路區(qū)域平行掃描算法確定路上車輛或行人源點(diǎn),使用鄰間視差相似性算法對目標(biāo)區(qū)域進(jìn)行補(bǔ)全和提取,結(jié)合長寬比、透視比和面積比等多特征融合方法對提取的目標(biāo)區(qū)域精確分割,獲得路上車輛檢測結(jié)果。實(shí)驗(yàn)結(jié)果表明,此方法實(shí)現(xiàn)了同一檢測框架下路上車輛或行人的分類檢測,滿足路上車輛檢測的時間有效性。針對可見光圖像在夜間交通對象檢測尤其是行人檢測中失效以及現(xiàn)存的夜間行人檢測方法準(zhǔn)確率和實(shí)時性矛盾的問題,提出了一種基于快速顯著性和多特征融合的夜間行人檢測算法。使用一種紅外圖像行人目標(biāo)顯著性模型,實(shí)現(xiàn)夜間行人目標(biāo)區(qū)域的快速獲取;提出目標(biāo)區(qū)域細(xì)化分離方法,去除感興趣區(qū)域中可能存在的非行人區(qū)域粘連干擾,獲得夜間行人候選邊界框;使用多特征融合的夜間行人特征提取方法,結(jié)合SVM分類算法,實(shí)現(xiàn)對夜間行人的分類,并使用多個視頻序列評估夜間行人分類檢測算法的有效性。實(shí)驗(yàn)結(jié)果表明,此方法可以獲得高質(zhì)量的夜間行人的分類檢測結(jié)果,滿足道路場景的實(shí)時性要求。本文的研究工作可以實(shí)現(xiàn)異源視覺下道路行車場景中道路、車輛和行人等交通對象的分類檢測,提供了一種道路行車場景的交通環(huán)境感知新模式,對助力提高道路交通車輛的行車安全具有一定意義,為構(gòu)建基于視覺信息的道路環(huán)境感知系統(tǒng)提供了一種有效方法。
趙夢[7](2020)在《基于紅外圖像的電力設(shè)備故障分析研究》文中研究說明隨著我國綜合國力的大幅提升,對于電力的依賴與日俱增,電力行業(yè)的角色愈發(fā)重要,其中電力設(shè)備是否能夠安全、可靠、長久、穩(wěn)定作業(yè),是整個電力系統(tǒng)的關(guān)鍵所在。因此,為保障電力設(shè)備運(yùn)行的安全性與可靠性,對電力設(shè)備進(jìn)行有效的監(jiān)控,觀測、記錄電力設(shè)備溫度的變化,并實(shí)時、自動分析電力設(shè)備有無故障、故障程度、故障位置以及故障預(yù)測等已經(jīng)成為研究的熱點(diǎn)。本文依賴紅外熱成像技術(shù),在紅外圖像的基礎(chǔ)上設(shè)計(jì)了兩種基于深度學(xué)習(xí)的電力設(shè)備故障檢測與分析方法,具體如下:提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分析方法。首先,對于電力設(shè)備紅外圖像采用圖像預(yù)處理進(jìn)行濾波平滑,減少干擾,為后續(xù)進(jìn)行圖像分割、故障定位奠定基礎(chǔ)。本文針對圖像噪聲特點(diǎn),采用一種均值濾波與中值濾波相結(jié)合的方法,能夠有效抑制高斯噪聲和椒鹽噪聲的影響。其次,設(shè)計(jì)電力設(shè)備紅外圖像故障分類卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)驗(yàn)證明該網(wǎng)絡(luò)具有極高的識別能力,適合實(shí)際生產(chǎn)工作。最后,針對故障電力設(shè)備進(jìn)行故障分析并開展健康管理研究,故障分析包括故障定位和故障等級判斷,故障區(qū)域定位依賴于圖像分割技術(shù),本文提出基于像素聚類的SLIC(simple linear iterative clustering)與全局閾值相結(jié)合的算法,結(jié)果表明此方法不僅分割效果良好,而且更具標(biāo)簽功能,從而實(shí)現(xiàn)真正意義上的區(qū)域定位,以方便后續(xù)溫度提取操作,然后再結(jié)合具有一定適用性的相對溫差判據(jù)實(shí)現(xiàn)故障等級判斷;圍繞健康管理的思想,引入紅外圖像序列的時空特性,采用擬合的方式,預(yù)測設(shè)備狀態(tài)趨勢曲線,并設(shè)計(jì)顯示界面,完成對故障電力設(shè)備的集中顯示、分類存儲、統(tǒng)一管理,為日后的研究奠定基礎(chǔ),從而可以提高電力設(shè)備紅外圖像方面的診斷效率與準(zhǔn)確率。提出基于SSDMobilenet網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分析方法,該方法是在計(jì)算機(jī)視覺與深度學(xué)習(xí)以及目標(biāo)檢測技術(shù)飛速發(fā)展的歷程下,對電力設(shè)備紅外圖像故障目標(biāo)檢測的嘗試。本文基于現(xiàn)有有限數(shù)據(jù),僅進(jìn)行可行性實(shí)驗(yàn),同時給出了整個分析流程:基于方法一中分類存儲的基礎(chǔ),獲取足夠樣本數(shù)據(jù)集后,采用SSDMobilenet目標(biāo)檢測網(wǎng)絡(luò)進(jìn)行處理,便可直接獲得電力設(shè)備的故障部位及缺陷等級,最終再進(jìn)行包括趨勢預(yù)測、集中顯示等健康管理,以實(shí)現(xiàn)更高程度的自動化檢測,進(jìn)一步簡化檢測步驟,提高生產(chǎn)工作中的檢測效率。
金璐[8](2020)在《少樣本條件下的紅外空中目標(biāo)識別與檢測技術(shù)研究》文中研究表明紅外成像具備探測距離遠(yuǎn)、隱蔽性高、可穿透煙霧以及全天候工作等優(yōu)勢,在光電探測領(lǐng)域受到了廣泛的重視、研究和應(yīng)用。在紅外探測系統(tǒng)中,目標(biāo)識別與檢測能夠?yàn)閳D像中的潛在目標(biāo)提供類別判斷和坐標(biāo)定位,是后續(xù)跟蹤任務(wù)的基礎(chǔ),也是后續(xù)決策系統(tǒng)的有力支撐。近年來,隨著計(jì)算能力和大數(shù)據(jù)的推進(jìn),深度學(xué)習(xí)模型已經(jīng)在計(jì)算機(jī)視覺領(lǐng)域取得了異常矚目的進(jìn)展,在很多大型數(shù)據(jù)集上,一些算法的認(rèn)知水平甚至超過了人類的分辨能力。然而,這些算法之所以性能強(qiáng)大,很大程度上依賴于訓(xùn)練數(shù)據(jù)的充分程度。在紅外空中目標(biāo)的識別問題上,獲取樣本數(shù)據(jù)的代價十分昂貴,某些少見機(jī)型的數(shù)據(jù)樣本甚至僅有個位數(shù),很難建立充分的樣本庫來對各種型號的飛機(jī)紅外數(shù)據(jù)進(jìn)行分析。本文圍繞少量樣本場景下的紅外空中目標(biāo)識別問題,結(jié)合圖像處理、模式識別、稀疏表示、深度學(xué)習(xí)等領(lǐng)域進(jìn)行了深入研究,主要工作與創(chuàng)新點(diǎn)如下。(1)提出了一種基于稀疏表示的紅外條狀噪聲校正方法。首先利用K-SVD字典學(xué)習(xí)算法對無噪聲干擾的紅外圖像進(jìn)行訓(xùn)練,提高字典對紅外圖像的表達(dá)能力;然后利用OMP算法對噪聲圖像進(jìn)行稀疏求解和圖像重建;隨后利用重建圖像與噪聲圖像,根據(jù)最小二乘法逐行求取校正系數(shù);最后利用校正系數(shù)和噪聲圖像輸出校正圖像。實(shí)驗(yàn)結(jié)果表明,該方法對條狀噪聲的校正效果比較穩(wěn)定,不受場景約束,且對稀疏求解的誤差容忍度較高。(2)提出了一種基于判別稀疏表示的紅外空中目標(biāo)識別模型。首先提出了具有旋轉(zhuǎn)不變性的方向梯度直方圖特征,然后將訓(xùn)練樣本的該特征作為原子組成初始字典,利用FDDL字典學(xué)習(xí)算法對字典進(jìn)行優(yōu)化,同時提高字典的編碼能力和判別能力。隨后提取測試樣本的特征向量作為原始信號,利用同倫算法求解稀疏表示系數(shù),最后根據(jù)各類別的重構(gòu)殘差輸出紅外空中目標(biāo)的預(yù)測標(biāo)簽。該方法理論基礎(chǔ)充分,實(shí)驗(yàn)結(jié)果表明,該方法擁有較強(qiáng)的旋轉(zhuǎn)不變性、判別能力以及抗噪性能。(3)針對某些少見機(jī)型樣本稀少的問題,提出了一種改進(jìn)關(guān)系網(wǎng)絡(luò)的少樣本紅外空中目標(biāo)分類方法。該方法將關(guān)系網(wǎng)絡(luò)模型與多尺度特征融合方法以及元學(xué)習(xí)的訓(xùn)練策略相結(jié)合,首先構(gòu)造多尺度特征提取模塊提取支撐樣本和查詢樣本的特征信息,然后把查詢樣本和支撐樣本的圖像特征連接起來輸入關(guān)系模塊,根據(jù)查詢樣本和各類支撐樣本之間的關(guān)系值作為類別判斷依據(jù)。在訓(xùn)練方式上,采用元學(xué)習(xí)的訓(xùn)練策略。實(shí)驗(yàn)結(jié)果表明,本文提出的方法能夠在少量樣本的情況下,實(shí)現(xiàn)多種機(jī)型的紅外空中目標(biāo)的識別任務(wù)。(4)針對紅外空中目標(biāo)尺寸偏小、分布稀疏的特性,提出了一種增強(qiáng)小尺寸目標(biāo)關(guān)注的少樣本紅外空中目標(biāo)檢測方法。該方法對特征權(quán)重調(diào)整模型加以改進(jìn),在特征提取模塊,通過深淺層特征圖融合的方式增強(qiáng)特征提取模塊輸出的特征圖表達(dá)能力;在權(quán)重調(diào)整模塊,使用熱力圖取代二值圖像作為標(biāo)注信息的輸入形式,增強(qiáng)紅外目標(biāo)與背景之間的關(guān)聯(lián),使模型能夠關(guān)注到較小尺寸目標(biāo)。在訓(xùn)練方式上,采用基礎(chǔ)訓(xùn)練與少樣本元任務(wù)微調(diào)相結(jié)合的方式。實(shí)驗(yàn)結(jié)果表明,該方法能夠在少量標(biāo)注樣本的情況下,實(shí)現(xiàn)紅外空中目標(biāo)的檢測任務(wù)。
金展翌[9](2020)在《基于紅外攝像頭的手勢識別》文中提出隨著物質(zhì)生活的不斷豐富,人們開始探索貼合人類使用習(xí)慣的人機(jī)交互技術(shù),其中基于視覺的手勢識別技術(shù)為機(jī)器理解手勢提供了必要的輔助?;趫D像的手勢識別無需佩戴其它額外的硬件設(shè)備,與傳統(tǒng)的輸入方式相比,無需人機(jī)接觸,且易于操作,在手語識別、輔助駕駛、設(shè)備控制、智能家居等交互領(lǐng)域具有廣泛的應(yīng)用。然而,目前大部分的研究僅限于光照充足的環(huán)境下,對于全天候執(zhí)行的任務(wù),特別是軍事、安防領(lǐng)域等需要夜間執(zhí)行的工作,普通彩色攝像頭無法勝任,很大程度上阻礙了手勢識別的實(shí)用化進(jìn)程?;谝陨涎芯楷F(xiàn)狀,提出將手勢識別技術(shù)與紅外夜視技術(shù)相結(jié)合的研究,圍繞紅外圖像的特點(diǎn),實(shí)現(xiàn)夜間環(huán)境下的多種手勢識別,具體的工作如下:采用近距離微弱紅外輔助照明獲取紅外圖像,針對夜間拍攝噪聲干擾嚴(yán)重,畫質(zhì)較差的問題,分析噪聲產(chǎn)生的原因,通過非均勻性觀察實(shí)驗(yàn)分析紅外噪聲的特點(diǎn)。針對噪聲所呈現(xiàn)的條紋特征,提出基于卡爾曼濾波的校正方法,該方法不僅去除了大幅噪聲波動,還對細(xì)節(jié)特征有較完整的保留,對提高紅外圖像的質(zhì)量有實(shí)際意義。針對近距離微弱紅外輔助照明獲得的紅外圖像,利用手勢與背景之間的灰度差,使用基于K-Means聚類的分割算法,提取手勢區(qū)域,然后根據(jù)手勢的幾何信息進(jìn)行分類。通過實(shí)驗(yàn)分析可得出K-Means聚類算法存在局限性,手勢分割的完整性除了受光照均勻性的影響外,算法穩(wěn)定性還與K值、初始種子點(diǎn)的選取有關(guān)。針對手勢位置偏離光軸,造成灰度不均勻的紅外圖像無法通過聚類算法得到有效手勢的問題,提出基于HOG特征的SVM手勢分類算法。基于紅外手勢的特征金字塔建立手勢分類模型,該模型無需依賴于手勢分割的結(jié)果,算法的可用性得以提升?;谏鲜鲅芯抗ぷ?本文實(shí)現(xiàn)了夜間紅外圖像的多種手勢識別。通過基于卡爾曼濾波的紅外圖像條紋噪聲去除算法,提升了紅外圖像的峰值信噪比,并在此基礎(chǔ)上通過手勢識別算法,進(jìn)行夜間環(huán)境下的十種紅外手勢識別。經(jīng)測試評估,識別率為91.8%,不受光源引起的非均勻性影響,能夠較好地實(shí)現(xiàn)夜間環(huán)境下的多種手勢識別。
賈新慶[10](2020)在《基于紅外識別的掘進(jìn)機(jī)截割軌跡規(guī)劃研究》文中進(jìn)行了進(jìn)一步梳理巷道掘進(jìn)是煤礦開采過程中的一道重要工序,掘進(jìn)施工工藝的優(yōu)化程度直接影響到工程的效率與質(zhì)量,高效機(jī)械化掘進(jìn)是保證礦井實(shí)現(xiàn)高產(chǎn)高效的必要條件,也是巷道掘進(jìn)技術(shù)的發(fā)展方向。當(dāng)掘進(jìn)機(jī)截割到夾矸時,機(jī)體將會產(chǎn)生劇烈振動,如果不能及時減速或避讓,截齒會產(chǎn)生劇烈磨損。采用有效的煤巖識別技術(shù),使截割軌跡避開大塊夾矸,是提高掘進(jìn)效率的必要措施。因此本文對煤巖識別方法、截割軌跡規(guī)劃、掘進(jìn)機(jī)控制系統(tǒng)進(jìn)行研究。采用解析法研究包含截齒、巖樣與巖屑的封閉系統(tǒng),建立截割過程中截齒與巖樣接觸面的熱量傳遞模型,分析截割過程中巖樣抗壓強(qiáng)度與截割溫度變化的關(guān)系。基于煤巖截割實(shí)驗(yàn)臺與四塊不同硬度巖樣進(jìn)行截割實(shí)驗(yàn),利用紅外熱像儀獲取整個截割過程紅外圖像;對紅外圖像進(jìn)行處理與分析,獲得截割過程的閃溫特性值,通過分析截割過程中閃溫特性值與抗壓強(qiáng)度的關(guān)系,得出結(jié)論:不同力學(xué)性質(zhì)巖樣具有不同的閃溫特性值,且閃溫特性值與巖樣抗壓強(qiáng)度呈正相關(guān),使用閃溫特性值可以區(qū)分掘進(jìn)機(jī)截割狀態(tài),并進(jìn)行實(shí)驗(yàn)驗(yàn)證其有效性。建立包含隨機(jī)位置及大小夾矸的柵格地圖,對巷道斷面地圖進(jìn)行預(yù)處理,設(shè)置柵格屬性。基于生物激勵神經(jīng)網(wǎng)絡(luò),對斷面地圖中所有柵格賦予活性值,初步規(guī)劃截割頭運(yùn)動軌跡;針對出現(xiàn)的復(fù)雜斷面地圖,利用浮動模板法輔助判斷移動方向,使判定更加準(zhǔn)確。仿真驗(yàn)證該方法能夠在保證覆蓋率基本超過95%的情況下,重復(fù)率平均值為10%左右,達(dá)到預(yù)期效果。對掘進(jìn)機(jī)截割臂進(jìn)行幾何分析,獲得驅(qū)動油缸伸縮量與柵格地圖坐標(biāo)的關(guān)系。對截割臂控制系統(tǒng)的硬件與軟件進(jìn)行研究,建立MATLAB、Win CC與PLC之間通訊方式,編寫監(jiān)控與控制界面、控制程序等;確定煤巖分布獲取方法,搭建Simulink控制模型。系統(tǒng)由前一次截割過程的驅(qū)動油缸伸縮量與閃溫特性值確定斷面煤巖分布,導(dǎo)入軌跡規(guī)劃程序獲得后一次截割軌跡,并通過控制程序使截割頭能夠按照預(yù)期的軌跡移動。實(shí)驗(yàn)結(jié)果證明其可行性與準(zhǔn)確性。該論文有圖45幅,表6幅,參考文獻(xiàn)105篇。
二、基于紅外圖像的道路識別算法研究(論文開題報(bào)告)
(1)論文研究背景及目的
此處內(nèi)容要求:
首先簡單簡介論文所研究問題的基本概念和背景,再而簡單明了地指出論文所要研究解決的具體問題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。
寫法范例:
本文主要提出一款精簡64位RISC處理器存儲管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過程。在該MMU結(jié)構(gòu)中,TLB采用叁個分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁面大小,采用多級分層頁表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級頁表轉(zhuǎn)換過程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲系統(tǒng)實(shí)現(xiàn)的一個重要組成部分。
(2)本文研究方法
調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對象的具體信息。
觀察法:用自己的感官和輔助工具直接觀察研究對象從而得到有關(guān)信息。
實(shí)驗(yàn)法:通過主支變革、控制研究對象來發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。
文獻(xiàn)研究法:通過調(diào)查文獻(xiàn)來獲得資料,從而全面的、正確的了解掌握研究方法。
實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。
定性分析法:對研究對象進(jìn)行“質(zhì)”的方面的研究,這個方法需要計(jì)算的數(shù)據(jù)較少。
定量分析法:通過具體的數(shù)字,使人們對研究對象的認(rèn)識進(jìn)一步精確化。
跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對某一課題進(jìn)行研究。
功能分析法:這是社會科學(xué)用來分析社會現(xiàn)象的一種方法,從某一功能出發(fā)研究多個方面的影響。
模擬法:通過創(chuàng)設(shè)一個與原型相似的模型來間接研究原型某種特性的一種形容方法。
三、基于紅外圖像的道路識別算法研究(論文提綱范文)
(1)移動機(jī)器人智能監(jiān)控與應(yīng)急救援關(guān)鍵技術(shù)研究(論文提綱范文)
摘要 |
abstract |
第一章 緒論 |
1.1 研究背景及意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 視頻監(jiān)控系統(tǒng)研究現(xiàn)狀 |
1.2.2 運(yùn)動目標(biāo)檢測技術(shù)研究現(xiàn)狀 |
1.2.3 機(jī)器人巡邏監(jiān)控研究現(xiàn)狀 |
1.3 主要研究內(nèi)容 |
1.4 論文結(jié)構(gòu)安排 |
第二章 相關(guān)技術(shù)及理論基礎(chǔ) |
2.1 引言 |
2.2 運(yùn)動目標(biāo)檢測方法 |
2.3 紅外線及紅外攝像技術(shù) |
2.4 本章小結(jié) |
第三章 低照度下視頻監(jiān)控區(qū)域入侵目標(biāo)檢測算法研究 |
3.1 引言 |
3.2 低照度下區(qū)域入侵檢測主要流程 |
3.3 低照度下區(qū)域入侵檢測算法研究與實(shí)現(xiàn) |
3.3.1 視頻亮度異常檢測 |
3.3.2 低照度下前景分割算法研究 |
3.3.3 低照度下結(jié)合圖像增強(qiáng)的前景分割算法優(yōu)化 |
3.3.4 入侵判定方法研究 |
3.4 實(shí)驗(yàn)結(jié)果分析 |
3.5 本章小結(jié) |
第四章 遠(yuǎn)程控制機(jī)器人精準(zhǔn)巡邏探測方法研究 |
4.1 引言 |
4.2 基于地面移動機(jī)器人的視頻監(jiān)控平臺搭建 |
4.2.1 地面移動機(jī)器人同步定位與地圖構(gòu)建 |
4.2.2 地面移動機(jī)器人路徑規(guī)劃 |
4.3 機(jī)器人巡邏紅外目標(biāo)檢測算法研究 |
4.3.1 基于SIFT算法的紅外圖像檢測 |
4.3.2 基于Efficient Det網(wǎng)絡(luò)架構(gòu)的紅外圖像檢測 |
4.4 實(shí)驗(yàn)結(jié)果分析 |
4.5 本章小結(jié) |
第五章 移動機(jī)器人智能監(jiān)控與應(yīng)急救援軟件平臺總體設(shè)計(jì)與實(shí)現(xiàn) |
5.1 引言 |
5.2 需求分析 |
5.3 移動機(jī)器人智能監(jiān)控與應(yīng)急救援監(jiān)控系統(tǒng)總體架構(gòu) |
5.4 軟件系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn) |
5.4.1 實(shí)時監(jiān)控與檢測系統(tǒng) |
5.4.2 應(yīng)急報(bào)警與聯(lián)動救援系統(tǒng) |
5.4.3 信息統(tǒng)計(jì)與反饋系統(tǒng) |
5.5 主要功能測試 |
5.6 本章小結(jié) |
第六章 移動機(jī)器人智能監(jiān)控與應(yīng)急救援實(shí)驗(yàn)驗(yàn)證 |
6.1 引言 |
6.2 系統(tǒng)軟硬件平臺 |
6.3 實(shí)驗(yàn)驗(yàn)證與分析 |
6.3.1 低照度情況下區(qū)域入侵檢測驗(yàn)證 |
6.3.2 基于地面移動機(jī)器人巡邏的視頻監(jiān)控驗(yàn)證 |
6.4 本章小結(jié) |
第七章 總結(jié)及展望 |
7.1 全文總結(jié) |
7.2 工作展望 |
致謝 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間取得的研究成果 |
(2)面向汽車輔助駕駛的紅外及可見光融合目標(biāo)識別技術(shù)研究(論文提綱范文)
摘要 |
abstract |
第1章 緒論 |
1.1 研究背景及意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 汽車輔助駕駛技術(shù)國內(nèi)外研究現(xiàn)狀 |
1.2.2 圖像融合技術(shù)國內(nèi)外研究現(xiàn)狀 |
1.3 研究內(nèi)容和章節(jié)安排 |
1.3.1 研究內(nèi)容 |
1.3.2 章節(jié)安排 |
第2章 紅外圖像與可見光圖像的特性及預(yù)處理 |
2.1 紅外圖像成像原理及特性分析 |
2.1.1 紅外圖像的成像原理 |
2.1.2 紅外圖像的特性 |
2.2 可見光圖像成像原理及特性分析 |
2.2.1 可見光圖像的成像原理 |
2.2.2 可見光圖像的特性 |
2.3 紅外圖像與可見光圖像的區(qū)別與聯(lián)系 |
2.4 圖像預(yù)處理 |
2.4.1 圖像去噪 |
2.4.2 圖像增強(qiáng) |
2.5 實(shí)驗(yàn)結(jié)果與分析 |
2.5.1 圖像去噪算法的實(shí)驗(yàn)結(jié)果與分析 |
2.5.2 圖像增強(qiáng)算法的實(shí)驗(yàn)結(jié)果與分析 |
2.6 本章小結(jié) |
第3章 紅外圖像與可見光圖像的融合 |
3.1 圖像融合層次 |
3.1.1 像素級融合 |
3.1.2 特征級融合 |
3.1.3 決策級融合 |
3.2 像素級融合算法分析 |
3.2.1 加權(quán)平均融合算法 |
3.2.2 小波變換融合算法 |
3.2.3 NSCT變換融合算法 |
3.3 改進(jìn)的圖像融合算法 |
3.4 融合圖像質(zhì)量的評定 |
3.4.1 主觀圖像融合質(zhì)量評定法 |
3.4.2 客觀圖像融合質(zhì)量評定法 |
3.5 實(shí)驗(yàn)結(jié)果與分析 |
3.6 本章小結(jié) |
第4章 目標(biāo)檢測與定位 |
4.1 目標(biāo)檢測算法分析 |
4.1.1 形態(tài)學(xué)目標(biāo)檢測算法 |
4.1.2 小波變換目標(biāo)檢測算法 |
4.2 改進(jìn)的目標(biāo)檢測算法 |
4.3 目標(biāo)定位算法分析 |
4.3.1 基于灰度特征的目標(biāo)定位算法 |
4.3.2 基于物體重心的目標(biāo)定位算法 |
4.4 實(shí)驗(yàn)結(jié)果與分析 |
4.4.1 目標(biāo)檢測算法的實(shí)驗(yàn)結(jié)果與分析 |
4.4.2 目標(biāo)定位算法的實(shí)驗(yàn)結(jié)果與分析 |
4.5 本章小結(jié) |
第5章 目標(biāo)特征提取 |
5.1 目標(biāo)特征提取算法分析 |
5.1.1 Haar-like特征 |
5.1.2 LBP特征 |
5.1.3 HOG特征 |
5.2 改進(jìn)的目標(biāo)特征提取算法 |
5.2.1 改進(jìn)的HOG特征 |
5.2.2 串行融合改進(jìn)HOG特征與LBP特征 |
5.3 實(shí)驗(yàn)結(jié)果與分析 |
5.4 本章小結(jié) |
第6章 目標(biāo)識別 |
6.1 目標(biāo)識別算法分析 |
6.1.1 SVM分類器 |
6.1.2 AdaBoost分類器 |
6.2 改進(jìn)AdaBoost分類器的訓(xùn)練模型 |
6.2.1 弱分類器訓(xùn)練模型 |
6.2.2 強(qiáng)分類器訓(xùn)練模型 |
6.2.3 弱分類器的權(quán)重調(diào)整 |
6.3 改進(jìn)AdaBoost分類器的訓(xùn)練 |
6.3.1 弱分類器的訓(xùn)練 |
6.3.2 強(qiáng)分類器的訓(xùn)練 |
6.3.3 級聯(lián)分類器的訓(xùn)練 |
6.4 實(shí)驗(yàn)結(jié)果與分析 |
6.5 本章小結(jié) |
結(jié)論 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間發(fā)表的論文和獲得的科研成果 |
致謝 |
(3)紅外與可見光圖像融合的目標(biāo)識別方法研究(論文提綱范文)
摘要 |
abstract |
第1章 緒論 |
1.1 課題研究背景及研究意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 圖像融合及目標(biāo)識別的研究現(xiàn)狀 |
1.2.2 嵌入式平臺下圖像處理的研究現(xiàn)狀 |
1.3 本文主要研究工作和章節(jié)安排 |
第2章 紅外與可見光成像原理及預(yù)處理方法 |
2.1 紅外與可見光成像原理 |
2.1.1 紅外熱成像傳感器工作原理 |
2.1.2 可見光成像傳感器工作原理 |
2.2 紅外與可見光圖像的特點(diǎn) |
2.3 紅外與可見光圖像的預(yù)處理方法 |
2.3.1 可見光圖像預(yù)處理 |
2.3.2 紅外圖像預(yù)處理 |
2.4 本章小結(jié) |
第3章 坦克目標(biāo)的圖像配準(zhǔn)與融合方法 |
3.1 紅外與可見光圖像配準(zhǔn) |
3.1.1 圖像配準(zhǔn)概述 |
3.1.2 配準(zhǔn)幾何變換模型 |
3.1.3 圖像配準(zhǔn)方法 |
3.2 紅外與可見光圖像的特征配準(zhǔn) |
3.2.1 不變矩特征 |
3.2.2 SURF特征描述子 |
3.2.3 形狀上下文特征 |
3.2.4 圖像配準(zhǔn)評價 |
3.3 紅外與可見光圖像融合 |
3.3.1 圖像融合算法 |
3.3.2 基于小波變換的圖像融合 |
3.3.3 融合結(jié)果分析 |
3.4 本章小結(jié) |
第4章 坦克目標(biāo)的特征提取與識別方法 |
4.1 圖像模式識別方法概述 |
4.2 坦克目標(biāo)特征提取方法 |
4.2.1 局部二元模式特征 |
4.2.2 SIFT特征描述 |
4.2.3 梯度方向直方圖特征 |
4.3 小樣本數(shù)據(jù)的目標(biāo)分類決策方法 |
4.3.1 最優(yōu)分類面的選擇 |
4.3.2 支持向量機(jī) |
4.3.3 核函數(shù)選擇 |
4.4 基于HOG+SVM目標(biāo)識別算法 |
4.4.1 融合目標(biāo)的特征選擇 |
4.4.2 HOG特征提取 |
4.4.3 SVM分類器訓(xùn)練及分類 |
4.4.4 多尺度窗口融合方法 |
4.4.5 識別結(jié)果分析 |
4.5 本章小結(jié) |
第5章 ARM+FPGA的嵌入式系統(tǒng)實(shí)現(xiàn)與結(jié)果分析 |
5.1 FPGA平臺下的算法加速優(yōu)化 |
5.1.1 圖像配準(zhǔn)算法優(yōu)化 |
5.1.2 融合算法優(yōu)化 |
5.1.3 HOG特征提取算法的優(yōu)化 |
5.2 融合圖像的目標(biāo)識別系統(tǒng)搭建 |
5.2.1 Zynq平臺簡介 |
5.2.2 系統(tǒng)總體架構(gòu)部署 |
5.2.3 模塊化IP設(shè)計(jì) |
5.2.4 運(yùn)行環(huán)境配置 |
5.2.5 軟件工程設(shè)計(jì) |
5.3 系統(tǒng)驗(yàn)證與性能分析 |
5.3.1 實(shí)驗(yàn)結(jié)果對比分析 |
5.3.2 系統(tǒng)性能分析 |
5.4 本章小結(jié) |
結(jié)論 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間發(fā)表的論文和獲得的科研成果 |
致謝 |
(4)礦用空壓機(jī)工作狀態(tài)紅外識別關(guān)鍵技術(shù)研究(論文提綱范文)
致謝 |
摘要 |
abstract |
變量注釋表 |
1 緒論 |
1.1 課題來源及背景 |
1.2 課題研究現(xiàn)狀及存在問題 |
1.3 課題研究內(nèi)容與方法 |
1.4 課題研究意義 |
2 礦用空壓機(jī)工作狀態(tài)識別系統(tǒng)總體設(shè)計(jì) |
2.1 礦用空壓機(jī)基本結(jié)構(gòu)與工作原理 |
2.2 礦用空壓機(jī)工作狀態(tài)識別系統(tǒng) |
2.3 本章小結(jié) |
3 礦用空壓機(jī)紅外熱圖像去噪技術(shù)研究 |
3.1 不同傳感信號在表征空壓機(jī)工作狀態(tài)中的適用性分析 |
3.2 紅外熱成像原理及其在空壓機(jī)運(yùn)行狀態(tài)監(jiān)測中的應(yīng)用 |
3.3 礦用空壓機(jī)關(guān)鍵部件紅外熱圖像自適應(yīng)去噪 |
3.4 仿真分析 |
3.5 本章小結(jié) |
4 礦用空壓機(jī)紅外圖像降維方法研究 |
4.1 機(jī)械學(xué)習(xí)降維方法概述 |
4.2 圖像降維方法對比分析 |
4.3 圖像降維算法的性能分析 |
4.4 本章小結(jié) |
5 基于機(jī)器學(xué)習(xí)的礦用空壓機(jī)工作狀態(tài)識別方法研究 |
5.1 空壓機(jī)工作狀態(tài)劃分方法 |
5.2 空壓機(jī)工作狀態(tài)紅外識別算法 |
5.3 本章小結(jié) |
6 實(shí)驗(yàn)研究 |
6.1 實(shí)驗(yàn)室實(shí)驗(yàn)平臺的搭建 |
6.2 實(shí)驗(yàn)室試驗(yàn)結(jié)果分析 |
6.3 工業(yè)性試驗(yàn) |
6.4 本章小結(jié) |
7 總結(jié)與展望 |
7.1 總結(jié) |
7.2 論文創(chuàng)新點(diǎn) |
7.3 展望 |
參考文獻(xiàn) |
作者簡歷 |
學(xué)位論文數(shù)據(jù)集 |
(5)基于機(jī)器學(xué)習(xí)的目標(biāo)探測與識別技術(shù)研究(論文提綱范文)
摘要 |
abstract |
第1章 引言 |
1.1 研究背景和意義 |
1.2 國內(nèi)外發(fā)展?fàn)顩r |
1.2.1 傳統(tǒng)目標(biāo)檢測算法 |
1.2.2 基于深度學(xué)習(xí)的目標(biāo)檢測算法 |
1.2.3 機(jī)器學(xué)習(xí)算法 |
1.3 研究內(nèi)容和論文章節(jié)安排 |
第2章 紅外成像和目標(biāo)檢測技術(shù) |
2.1 紅外成像技術(shù)理論 |
2.1.1 紅外輻射基本理論 |
2.1.2 紅外成像原理介紹 |
2.1.3 紅外圖像特點(diǎn)介紹 |
2.2 紅外目標(biāo)檢測與識別技術(shù)流程 |
2.2.1 紅外目標(biāo)檢測與識別技術(shù)基礎(chǔ) |
2.2.2 紅外目標(biāo)檢測與識別技術(shù)方案 |
2.3 本章總結(jié) |
第3章 基于對比度的紅外點(diǎn)目標(biāo)檢測與識別技術(shù)研究 |
3.1 常規(guī)的紅外點(diǎn)目標(biāo)檢測算法介紹 |
3.2 基于局部對比測度的紅外點(diǎn)目標(biāo)檢測識別 |
3.2.1 基于局部對比測度基本原理介紹 |
3.2.2 基于局部對比測度的紅外點(diǎn)目標(biāo)檢測結(jié)果 |
3.3 基于模板匹配算法的紅外點(diǎn)目標(biāo)檢測識別 |
3.3.1 模板匹配算法原理介紹 |
3.3.2 基于模板匹配算法的紅外點(diǎn)目標(biāo)檢測結(jié)果 |
3.4 基于數(shù)學(xué)形態(tài)學(xué)運(yùn)算的紅外點(diǎn)目標(biāo)檢測識別 |
3.4.1 二值圖像中的基本數(shù)學(xué)形態(tài)學(xué)運(yùn)算 |
3.4.2 灰度圖像中的基本數(shù)學(xué)形態(tài)學(xué)運(yùn)算 |
3.4.3 基于數(shù)學(xué)形態(tài)學(xué)的紅外點(diǎn)目標(biāo)檢測結(jié)果 |
3.5 基于塊的多尺度對比測度的紅外點(diǎn)目標(biāo)檢測識別 |
3.5.1 基于塊的多尺度對比測度算法原理介紹 |
3.5.2 基于塊的多尺度對比測度的紅外點(diǎn)目標(biāo)檢測結(jié)果 |
3.6 本章總結(jié) |
第4章 基于支持向量機(jī)的紅外面目標(biāo)分類識別技術(shù)研究 |
4.1 基于不同服飾的紅外面目標(biāo)分類識別的科學(xué)問題 |
4.2 面目標(biāo)識別特征提取算法分析 |
4.2.1 方向梯度直方圖算法介紹 |
4.2.2 灰度共生矩陣算法介紹 |
4.3 支持向量機(jī)分類器介紹 |
4.4 分類模型算法設(shè)計(jì)與驗(yàn)證結(jié)果 |
4.4.1 分類模型介紹 |
4.4.2 混淆矩陣和分類模型性能評估參數(shù) |
4.4.3 分類模型算法參數(shù)設(shè)計(jì)與實(shí)驗(yàn)結(jié)果 |
4.5 本章總結(jié) |
第5章 基于卷積神經(jīng)網(wǎng)絡(luò)的紅外空中動目標(biāo)和地上行人檢測研究 |
5.1 深度學(xué)習(xí)理論基礎(chǔ) |
5.1.1 感知器原理介紹 |
5.1.2 反向傳播算法介紹 |
5.1.3 卷積神經(jīng)網(wǎng)絡(luò)介紹 |
5.2 典型CNN網(wǎng)絡(luò)介紹 |
5.2.1 R-CNN網(wǎng)絡(luò)介紹 |
5.2.2 SPP-Net網(wǎng)絡(luò)介紹 |
5.2.3 Fast R-CNN網(wǎng)絡(luò)介紹 |
5.2.4 Faster R-CNN網(wǎng)絡(luò)介紹 |
5.3 紅外空中動目標(biāo)檢測算法研究 |
5.3.1 閾值分割算法原理介紹 |
5.3.2 基于閾值分割的幀間差分算法的目標(biāo)檢測結(jié)果 |
5.3.3 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測結(jié)果 |
5.3.4 本節(jié)總結(jié) |
5.4 紅外地上行人檢測算法研究 |
5.4.1 級聯(lián)目標(biāo)檢測器原理介紹 |
5.4.2 基于級聯(lián)檢測器的目標(biāo)檢測結(jié)果 |
5.4.3 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測結(jié)果 |
5.4.4 本節(jié)總結(jié) |
5.5 本章總結(jié) |
第6章 結(jié)論和展望 |
6.1 結(jié)論 |
6.2 展望 |
參考文獻(xiàn) |
致謝 |
作者簡歷及攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文與研究成果 |
(6)異源視覺道路行車場景的交通對象分類檢測算法研究(論文提綱范文)
摘要 |
abstract |
第一章 緒論 |
1.1 選題背景及意義 |
1.2 國內(nèi)外研究現(xiàn)狀分析 |
1.2.1 自動駕駛技術(shù) |
1.2.2 高級輔助駕駛技術(shù) |
1.2.3 車載視覺技術(shù) |
1.2.4 道路檢測 |
1.2.5 車輛檢測 |
1.2.6 行人檢測 |
1.3 研究內(nèi)容與章節(jié)安排 |
1.3.1 研究內(nèi)容 |
1.3.2 章節(jié)安排 |
第二章 異源視覺道路行車場景視覺處理 |
2.1 單目視覺色度空間 |
2.1.1 RGB顏色空間 |
2.1.2 光照不變對數(shù)色度空間 |
2.2 深度視覺場景構(gòu)建 |
2.2.1 深度視覺道路場景模型 |
2.2.2 U、V視圖 |
2.2.3 深度視覺道路場景特性 |
2.3 紅外視覺圖像處理 |
2.3.1 紅外視覺道路場景行人特性 |
2.3.2 紅外視覺注意機(jī)制 |
2.4 本章小結(jié) |
第三章 基于學(xué)習(xí)光照無關(guān)圖的帶陰影道路在線檢測算法 |
3.1 引言 |
3.2 光照無關(guān)圖 |
3.3 基于學(xué)習(xí)的在線?角標(biāo)定 |
3.3.1 多特征融合的道路塊特征提取 |
3.3.2 SVM道路塊判定器 |
3.3.3 最小熵求解 |
3.4 道路檢測算法 |
3.4.1 感興趣區(qū)域提取 |
3.4.2 光照無關(guān)圖獲取 |
3.4.3 道路樣本集 |
3.4.4 道路分類器 |
3.5 實(shí)驗(yàn)結(jié)果與分析 |
3.5.1 CVC公共數(shù)據(jù)集測試 |
3.5.2 自制視頻序列測試 |
3.5.3 強(qiáng)太陽光和低對比度條件檢測 |
3.5.4 時間有效性分析 |
3.6 本章小結(jié) |
第四章 基于單目深度估計(jì)和精細(xì)化U-V視圖的車輛檢測算法 |
4.1 引言 |
4.2 單目深度估計(jì)模型 |
4.3 道路感興趣區(qū)域檢測算法 |
4.3.1 精細(xì)化U、V視圖 |
4.3.2 地平線檢測 |
4.3.3 道路區(qū)域修正 |
4.4 路上車輛檢測 |
4.4.1 路上車輛源點(diǎn)生成 |
4.4.2 路上車輛目標(biāo)檢測 |
4.5 實(shí)驗(yàn)結(jié)果與分析 |
4.5.1 邊緣增強(qiáng)損失視差圖 |
4.5.2 道路感興趣區(qū)域檢測結(jié)果 |
4.5.3 路上車輛檢測結(jié)果 |
4.5.4 時間有效性分析 |
4.6 本章小結(jié) |
第五章 基于快速顯著性和多特征融合的夜間行人檢測算法 |
5.1 引言 |
5.2 夜間行人感興趣區(qū)域生成 |
5.2.1 快速顯著性圖獲取 |
5.2.2 目標(biāo)區(qū)域細(xì)化分離 |
5.3 夜間行人結(jié)果確定 |
5.3.1 多特征融合的夜間行人特征提取 |
5.3.2 線性核SVM夜間行人分類器 |
5.4 實(shí)驗(yàn)結(jié)果與分析 |
5.4.1 數(shù)據(jù)集描述 |
5.4.2 夜間行人檢測結(jié)果 |
5.4.3 時間有效性分析 |
5.5 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 研究工作總結(jié) |
6.2 研究工作展望 |
參考文獻(xiàn) |
攻讀博士學(xué)位期間取得的研究成果 |
致謝 |
(7)基于紅外圖像的電力設(shè)備故障分析研究(論文提綱范文)
摘要 |
Abstract |
1 緒論 |
1.1 研究背景及意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 紅外熱成像技術(shù)研究現(xiàn)狀 |
1.2.2 電力設(shè)備紅外故障檢測研究現(xiàn)狀 |
1.3 本文主要工作 |
1.4 本文章節(jié)安排 |
2 電力設(shè)備紅外圖像預(yù)處理 |
2.1 紅外熱成像技術(shù) |
2.1.1 紅外熱成像技術(shù)原理 |
2.1.2 紅外檢測基本要求 |
2.1.3 紅外圖像特點(diǎn) |
2.2 紅外圖像預(yù)處理 |
2.2.1 均值濾波 |
2.2.2 維納濾波 |
2.2.3 中值濾波 |
2.2.4 雙邊濾波 |
2.2.5 本文方法 |
2.3 實(shí)驗(yàn)結(jié)果及圖像質(zhì)量分析 |
2.4 本章小結(jié) |
3 基于卷積神經(jīng)網(wǎng)絡(luò)的紅外圖像故障分類 |
3.1 卷積神經(jīng)網(wǎng)絡(luò)概述 |
3.1.1 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 |
3.1.2 卷積神經(jīng)網(wǎng)絡(luò)基本組成 |
3.1.3 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程 |
3.2 基于卷積神經(jīng)網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分類 |
3.2.1 故障分類卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) |
3.2.2 樣本數(shù)據(jù)集 |
3.2.3 網(wǎng)絡(luò)訓(xùn)練及結(jié)果分析 |
3.3 本章小結(jié) |
4 基于卷積神經(jīng)網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分析及健康管理 |
4.1 電力設(shè)備故障區(qū)域定位 |
4.1.1 圖像分割原理 |
4.1.2 傳統(tǒng)圖像分割算法 |
4.1.3 聚類分析圖像分割算法 |
4.1.4 實(shí)驗(yàn)結(jié)果與分析 |
4.2 電力設(shè)備故障等級診斷 |
4.2.1 電力設(shè)備故障介紹 |
4.2.2 常用紅外診斷方法 |
4.2.3 電力設(shè)備故障判斷方法 |
4.3 電力設(shè)備健康管理 |
4.3.1 故障趨勢預(yù)測 |
4.3.2 健康管理界面 |
4.4 基于卷積神經(jīng)網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分析方法 |
4.5 本章小結(jié) |
5 基于SSD_Mobilenet網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障目標(biāo)檢測方法 |
5.1 目標(biāo)檢測簡述 |
5.2 SSD_Mobilenet目標(biāo)檢測網(wǎng)絡(luò) |
5.2.1 SSD網(wǎng)絡(luò) |
5.2.2 Mobilenet網(wǎng)絡(luò) |
5.2.3 SSD_Mobilenet網(wǎng)絡(luò) |
5.3 實(shí)驗(yàn)及結(jié)果分析 |
5.4 基于SSD_Mobilenet網(wǎng)絡(luò)的電力設(shè)備紅外圖像故障分析方法 |
5.5 本章小結(jié) |
6 總結(jié)與展望 |
6.1 總結(jié) |
6.2 展望 |
致謝 |
參考文獻(xiàn) |
攻讀學(xué)位期間主要研究成果 |
(8)少樣本條件下的紅外空中目標(biāo)識別與檢測技術(shù)研究(論文提綱范文)
摘要 |
abstract |
專業(yè)術(shù)語注釋表 |
第1章 緒論 |
1.1 研究背景與意義 |
1.2 紅外目標(biāo)檢測算法研究現(xiàn)狀 |
1.2.1 紅外圖像預(yù)處理技術(shù)研究現(xiàn)狀 |
1.2.2 候選區(qū)域生成技術(shù)研究現(xiàn)狀 |
1.2.3 紅外目標(biāo)識別算法研究現(xiàn)狀 |
1.3 本文內(nèi)容與章節(jié)安排 |
1.3.1 主要研究內(nèi)容 |
1.3.2 論文結(jié)構(gòu)安排 |
第2章 基于稀疏表示的條狀噪聲校正方法 |
2.1 引言 |
2.2 條狀噪聲的建模分析與評價指標(biāo) |
2.2.1 噪聲的建模分析 |
2.2.2 條狀噪聲消除的評價指標(biāo) |
2.3 基于稀疏表示的條狀噪聲校正方法 |
2.3.1 稀疏表示模型 |
2.3.2 l0-稀疏求解算法 |
2.3.3 圖像重建 |
2.3.4 最小二乘法求取校正系數(shù) |
2.3.5 K-SVD字典學(xué)習(xí)算法 |
2.4 實(shí)驗(yàn)與結(jié)果分析 |
2.4.1 實(shí)驗(yàn)準(zhǔn)備與數(shù)據(jù)來源 |
2.4.2 字典學(xué)習(xí) |
2.4.3 誤差容限對校正結(jié)果的影響 |
2.4.4 對比實(shí)驗(yàn) |
2.5 小結(jié) |
第3章 基于判別稀疏表示的紅外空中目標(biāo)識別方法 |
3.1 引言 |
3.2 算法模型 |
3.2.1 判別稀疏表示原理 |
3.2.2 FDDL字典學(xué)習(xí) |
3.2.3 具有旋轉(zhuǎn)不變性的HOG特征 |
3.3 實(shí)驗(yàn)與結(jié)果分析 |
3.3.1 實(shí)驗(yàn)準(zhǔn)備與數(shù)據(jù)來源 |
3.3.2 梯度統(tǒng)計(jì)劃分區(qū)間 |
3.3.3 字典學(xué)習(xí) |
3.3.4 分類結(jié)果分析 |
3.3.5 抗噪性能分析 |
3.4 小結(jié) |
第4章 基于少樣本學(xué)習(xí)的紅外空中目標(biāo)分類方法 |
4.1 引言 |
4.2 基于元學(xué)習(xí)的少樣本學(xué)習(xí)方法 |
4.2.1 與模型無關(guān)的元學(xué)習(xí)方法 |
4.2.2 LSTM模型元學(xué)習(xí) |
4.3 基于度量學(xué)習(xí)的少樣本學(xué)習(xí)方法 |
4.3.1 匹配網(wǎng)絡(luò) |
4.3.2 原型網(wǎng)絡(luò) |
4.3.3 關(guān)系網(wǎng)絡(luò) |
4.4 多尺度改進(jìn)關(guān)系網(wǎng)絡(luò) |
4.4.1 多尺度改進(jìn)關(guān)系網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì) |
4.4.2 多尺度改進(jìn)關(guān)系網(wǎng)絡(luò)的學(xué)習(xí)策略 |
4.5 實(shí)驗(yàn)與結(jié)果分析 |
4.5.1 實(shí)驗(yàn)準(zhǔn)備與數(shù)據(jù)來源 |
4.5.2 mini-Image Net少樣本學(xué)習(xí)任務(wù) |
4.5.3 Infra-aircraft少樣本學(xué)習(xí)任務(wù) |
4.6 小結(jié) |
第5章 基于少樣本學(xué)習(xí)的小尺寸紅外空中目標(biāo)檢測方法 |
5.1 引言 |
5.2 特征權(quán)重調(diào)整模型 |
5.3 針對紅外空中目標(biāo)的特征權(quán)重調(diào)整模型 |
5.3.1 特征提取模塊 |
5.3.2 特征權(quán)重調(diào)整模塊 |
5.3.3 預(yù)測模塊 |
5.3.4 訓(xùn)練策略 |
5.4 實(shí)驗(yàn)與結(jié)果分析 |
5.4.1 實(shí)驗(yàn)準(zhǔn)備與數(shù)據(jù)來源 |
5.4.2 評價指標(biāo) |
5.4.3 Pascal-VOC數(shù)據(jù)集測試結(jié)果 |
5.4.4 紅外數(shù)據(jù)集測試結(jié)果 |
5.5 小結(jié) |
第6章 總結(jié)與展望 |
6.1 全文工作總結(jié) |
6.1.1 主要研究工作 |
6.1.2 特色與創(chuàng)新 |
6.2 未來研究展望 |
參考文獻(xiàn) |
致謝 |
作者簡歷及攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文與研究成果 |
(9)基于紅外攝像頭的手勢識別(論文提綱范文)
摘要 |
Abstract |
第一章 緒論 |
1.1 論文研究背景與意義 |
1.1.1 論文研究背景 |
1.1.2 論文研究意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 手勢識別技術(shù)研究現(xiàn)狀 |
1.2.2 紅外技術(shù)研究現(xiàn)狀 |
1.3 論文主要工作 |
1.4 論文組織結(jié)構(gòu) |
第二章 紅外夜視技術(shù)與紅外手勢識別 |
2.1 紅外夜視技術(shù) |
2.1.1 被動紅外夜視技術(shù) |
2.1.2 主動紅外夜視技術(shù) |
2.2 紅外手勢識別模塊 |
2.2.1 紅外發(fā)光二極管 |
2.2.2 紅外發(fā)光二極管輻射強(qiáng)度與偏轉(zhuǎn)夾角的關(guān)系 |
2.2.3 紅外發(fā)光二極管輻射強(qiáng)度與距離的關(guān)系 |
2.2.4 紅外攝像頭模組 |
2.3 紅外手勢識別的難點(diǎn)與解決方案 |
2.3.1 可見光手勢圖像與紅外手勢圖像的區(qū)別 |
2.3.2 紅外手勢識別的問題與難點(diǎn) |
2.3.3 紅外手勢識別的解決方案 |
2.4 本章小結(jié) |
第三章 紅外圖像條紋非均勻性校正 |
3.1 紅外圖像非均勻性 |
3.1.1 非均勻性原因 |
3.1.2 非均勻性校正算法 |
3.2 紅外圖像條紋非均勻性 |
3.2.1 條紋非均勻性的產(chǎn)生機(jī)理 |
3.2.2 條紋非均勻性的實(shí)驗(yàn)分析 |
3.3 紅外圖像條紋非均勻性校正算法 |
3.3.1 條帶噪聲去除流程 |
3.3.2 紅外圖像列均值和列方差的特點(diǎn) |
3.3.3 紅外圖像列均值和列方差的擬合 |
3.4 紅外圖像去噪評價 |
3.4.1 去噪評價指標(biāo) |
3.4.2 紅外圖像條紋非均勻性校正評價 |
3.5 本章小結(jié) |
第四章 基于K-Means聚類和形態(tài)學(xué)的紅外手勢識別 |
4.1 基于K-Means聚類的紅外手勢分割 |
4.1.1 基于K-Means聚類的紅外手勢分割原理 |
4.1.2 基于K-Means紅外手勢分割的影響因素 |
4.2 特征點(diǎn)定位 |
4.2.1 掌心定位 |
4.2.2 指尖點(diǎn)定位 |
4.3 基于幾何特征的手勢分類 |
4.4 本章小結(jié) |
第五章 基于HOG特征提取和SVM分類的紅外手勢識別 |
5.1 HOG特征 |
5.1.1 像素級特征提取 |
5.1.2 空間聚合 |
5.1.3 歸一化和截?cái)?/td> |
5.1.4 降維 |
5.1.5 HOG特征 |
5.2 HOG特征金字塔 |
5.3 紅外手勢的HOG特征 |
5.3.1 HOG特征可視化 |
5.3.2 HOG特征優(yōu)缺點(diǎn) |
5.4 SVM分類 |
5.4.1 線性分類 |
5.4.2 支持向量機(jī) |
5.4.3 核函數(shù) |
5.5 基于HOG特征的紅外手勢識別 |
5.5.1 紅外手勢識別流程 |
5.5.2 紅外手勢分類模型 |
5.5.3 紅外手勢識別效果 |
5.6 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 研究內(nèi)容總結(jié) |
6.2 展望 |
致謝 |
參考文獻(xiàn) |
作者簡介 |
(10)基于紅外識別的掘進(jìn)機(jī)截割軌跡規(guī)劃研究(論文提綱范文)
致謝 |
摘要 |
abstract |
變量注釋表 |
1 緒論 |
1.1 選題背景與研究意義 |
1.2 煤巖識別及掘進(jìn)機(jī)截割軌跡規(guī)劃概述 |
1.3 國內(nèi)外研究現(xiàn)狀及存在問題 |
1.4 主要研究內(nèi)容 |
1.5 本章小結(jié) |
2 截割溫度特性研究 |
2.1 溫度特性理論分析 |
2.2 紅外圖像獲取 |
2.3 紅外圖像處理 |
2.4 本章小結(jié) |
3 巷道斷面全覆蓋軌跡規(guī)劃 |
3.1 巷道斷面建模 |
3.2 基于生物激勵神經(jīng)網(wǎng)絡(luò)的軌跡規(guī)劃 |
3.3 改進(jìn)的全覆蓋式軌跡規(guī)劃方法設(shè)計(jì) |
3.4 仿真驗(yàn)證 |
3.5 本章小結(jié) |
4 截割臂軌跡控制系統(tǒng)設(shè)計(jì) |
4.1 截割臂運(yùn)動學(xué)分析 |
4.2 控制系統(tǒng)硬件設(shè)計(jì) |
4.3 控制系統(tǒng)軟件設(shè)計(jì) |
4.4 煤巖分布獲取 |
4.5 Simulink模型搭建 |
4.6 本章小結(jié) |
5 回轉(zhuǎn)擺動截割實(shí)驗(yàn) |
5.1 實(shí)驗(yàn)?zāi)康?/td> |
5.2 回轉(zhuǎn)擺動截割實(shí)驗(yàn)臺 |
5.3 實(shí)驗(yàn)研究 |
5.4 本章小結(jié) |
6 結(jié)論與展望 |
6.1 結(jié)論 |
6.2 創(chuàng)新點(diǎn) |
6.3 展望 |
參考文獻(xiàn) |
作者簡歷 |
學(xué)位論文數(shù)據(jù)集 |
四、基于紅外圖像的道路識別算法研究(論文參考文獻(xiàn))
- [1]移動機(jī)器人智能監(jiān)控與應(yīng)急救援關(guān)鍵技術(shù)研究[D]. 杜越. 電子科技大學(xué), 2021(01)
- [2]面向汽車輔助駕駛的紅外及可見光融合目標(biāo)識別技術(shù)研究[D]. 張子睿. 沈陽理工大學(xué), 2021(01)
- [3]紅外與可見光圖像融合的目標(biāo)識別方法研究[D]. 孟志敏. 沈陽理工大學(xué), 2021(01)
- [4]礦用空壓機(jī)工作狀態(tài)紅外識別關(guān)鍵技術(shù)研究[D]. 仝礦偉. 中國礦業(yè)大學(xué), 2020
- [5]基于機(jī)器學(xué)習(xí)的目標(biāo)探測與識別技術(shù)研究[D]. 王周春. 中國科學(xué)院大學(xué)(中國科學(xué)院上海技術(shù)物理研究所), 2020(03)
- [6]異源視覺道路行車場景的交通對象分類檢測算法研究[D]. 宋永超. 長安大學(xué), 2020(06)
- [7]基于紅外圖像的電力設(shè)備故障分析研究[D]. 趙夢. 西安理工大學(xué), 2020(01)
- [8]少樣本條件下的紅外空中目標(biāo)識別與檢測技術(shù)研究[D]. 金璐. 中國科學(xué)院大學(xué)(中國科學(xué)院上海技術(shù)物理研究所), 2020(03)
- [9]基于紅外攝像頭的手勢識別[D]. 金展翌. 東南大學(xué), 2020(01)
- [10]基于紅外識別的掘進(jìn)機(jī)截割軌跡規(guī)劃研究[D]. 賈新慶. 中國礦業(yè)大學(xué), 2020(03)