国产精品三级AV三级AV三级_日韩AV无码一区二区三区不卡_青青草激情在线久久久免费播放_人妻无码视频免费看

一種基于顏色信息的人臉檢測(cè)方法

一種基于顏色信息的人臉檢測(cè)方法

一、一種基于顏色信息的人臉檢測(cè)方法(論文文獻(xiàn)綜述)

張登奎[1](2021)在《基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)》文中研究指明2020年新冠疫情的爆發(fā)給社會(huì)經(jīng)濟(jì)發(fā)展和民眾生命健康帶來(lái)了巨大威脅,口罩和護(hù)目鏡等個(gè)人防護(hù)用品的正確佩戴可以有效降低普通民眾和醫(yī)護(hù)人員感染的風(fēng)險(xiǎn)。在化工、冶煉工作場(chǎng)所和實(shí)驗(yàn)室當(dāng)中,也明確要求佩戴護(hù)目鏡以防止眼部損傷。但目前護(hù)目鏡佩戴情況主要依賴人工檢查,效率低下,耗費(fèi)大量人力,因此設(shè)計(jì)并實(shí)現(xiàn)一個(gè)自動(dòng)化的護(hù)目鏡佩戴檢測(cè)系統(tǒng),檢測(cè)進(jìn)入或停留在特定場(chǎng)所人員的護(hù)目鏡佩戴情況,是十分有必要的。本文結(jié)合實(shí)際應(yīng)用場(chǎng)景,提出了一個(gè)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)算法,通過(guò)改進(jìn)深度殘差網(wǎng)絡(luò)結(jié)構(gòu)及引入Dropout機(jī)制降低過(guò)擬合現(xiàn)象,提高了護(hù)目鏡佩戴情況的分類準(zhǔn)確率。同時(shí)建立了一個(gè)護(hù)目鏡佩戴數(shù)據(jù)集,并提出了一種基于人臉特征點(diǎn)的護(hù)目鏡佩戴圖像合成算法,提高了護(hù)目鏡佩戴檢測(cè)算法的泛化能力。在此基礎(chǔ)上,結(jié)合面部和眼部區(qū)域的分類結(jié)果,設(shè)計(jì)并實(shí)現(xiàn)了一個(gè)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,系統(tǒng)在實(shí)時(shí)性和準(zhǔn)確性方面均滿足實(shí)際場(chǎng)景需求。

程小雨[2](2021)在《基于多特征的靜態(tài)視頻摘要算法研究》文中指出技術(shù)對(duì)于解決視頻數(shù)據(jù)量不斷增長(zhǎng)所帶來(lái)的瀏覽耗時(shí)的問(wèn)題有著重要的意義。視頻摘要即對(duì)視頻的概括,按照生成的摘要形式可以分為靜態(tài)視頻摘要和動(dòng)態(tài)視頻摘要。在實(shí)際工程應(yīng)用中,靜態(tài)視頻摘要技術(shù)更為常用,因此本文主要研究靜態(tài)視頻摘要算法,旨在通過(guò)一定的技術(shù)手段去除視頻中的冗余信息,并選取視頻中最能代表視頻內(nèi)容的關(guān)鍵幀生成簡(jiǎn)短的摘要。本文分析了現(xiàn)有的視頻摘要算法所存在的一些不足之處,然后提出了兩種全新的基于多特征的靜態(tài)視頻摘要算法。(1)針對(duì)于僅僅使用全局特征無(wú)法很好地表示視頻幀間的相似性和差異性的問(wèn)題,本文提出了一種基于顏色特征和目標(biāo)特征相融合的視頻摘要算法。該算法首先提取了視頻幀的顏色直方圖以及目標(biāo)特征并將二者進(jìn)行融合,然后使用聚類算法提取視頻關(guān)鍵幀,最終生成視頻摘要。在兩個(gè)通用的數(shù)據(jù)集上做了實(shí)驗(yàn),結(jié)果證明該方法比先前的一些技術(shù)手段效果要好。(2)為了滿足特定應(yīng)用對(duì)于視頻中人物表情的分析需要,本文提出了一種基于身份特征和表情特征的視頻摘要算法,該算法能夠生成和某一特定人物相關(guān)的基于情緒分析的視頻摘要。首先通過(guò)人臉檢測(cè)和人臉識(shí)別算法,篩選出包含特定人物的表情圖像,然后構(gòu)建了一個(gè)用于表情識(shí)別的卷積神經(jīng)網(wǎng)絡(luò),提取表情特征。最后同樣地使用聚類算法,提取視頻關(guān)鍵幀,生成視頻摘要。在自行構(gòu)建的數(shù)據(jù)集中所做的實(shí)驗(yàn)以及實(shí)際項(xiàng)目中的使用效果表明該算法具有很強(qiáng)的競(jìng)爭(zhēng)性。

張蛟嬌[3](2021)在《基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)》文中進(jìn)行了進(jìn)一步梳理人臉信息被用于各種驗(yàn)證場(chǎng)所,主要是因?yàn)橄啾扔谄渌J(rèn)證手段,人臉信息具有唯一性、實(shí)時(shí)性和難偽造性。跟機(jī)場(chǎng)、火車站等一些大型場(chǎng)所相比,住宅小區(qū)的住戶容量較小,住戶信息較穩(wěn)定,可以更充分發(fā)揮人臉識(shí)別技術(shù)的優(yōu)勢(shì)。本文設(shè)計(jì)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng),實(shí)現(xiàn)無(wú)接觸、快速的門禁檢測(cè)。本文主要對(duì)人臉檢測(cè)、活體檢測(cè)、人臉特征提取和對(duì)比等方面進(jìn)行了學(xué)習(xí)與研究。采用核相關(guān)濾波算法(Kernel Correlation Filter,KCF)和Adaboost融合的方法實(shí)現(xiàn)人臉檢測(cè)。在KCF目標(biāo)跟蹤算法中利用方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征和顏色直方圖特征融合的方法對(duì)跟蹤目標(biāo)進(jìn)行多尺度跟蹤,使其能夠跟蹤檢測(cè)由遠(yuǎn)而近運(yùn)動(dòng)的目標(biāo);之后在目標(biāo)跟蹤框中利用Adaboost算法進(jìn)行人臉檢測(cè)。測(cè)試證明,在同一段視頻中采用KCF+Adaboost融合的方法進(jìn)行人臉檢測(cè)比單獨(dú)使用Adaboost算法收斂速度加快0.7s。采用摩爾紋理和眨眼檢測(cè)融合的方法進(jìn)行活體檢測(cè)。先對(duì)檢測(cè)目標(biāo)進(jìn)行摩爾紋理檢測(cè),若通過(guò)檢測(cè)則進(jìn)行眨眼檢測(cè)。進(jìn)行眨眼檢測(cè)時(shí)首先利用監(jiān)督下降法(Supervised Descent Method,SDM)得到的人臉特征點(diǎn)定位1點(diǎn)的橫坐標(biāo)、3點(diǎn)的縱坐標(biāo)、13點(diǎn)的橫縱坐標(biāo)來(lái)進(jìn)行人眼區(qū)域定位,之后使用Hough圓檢測(cè)方法對(duì)虹膜進(jìn)行檢測(cè)定位,最后通過(guò)比較虹膜區(qū)域和人眼區(qū)域的灰度平均值比值來(lái)判斷眼睛狀態(tài)。通過(guò)對(duì)靜態(tài)的摩爾紋理特征和動(dòng)態(tài)的眨眼特征融合的方法,來(lái)提高活體檢測(cè)的有效率。構(gòu)建了基于深度可分離卷積CNN+Squeeze-and-Excitation(SE)模塊的模型。利用深度可分離卷積來(lái)減少運(yùn)算次數(shù)和降低運(yùn)行時(shí)間,利用SE模塊注意力機(jī)制的網(wǎng)絡(luò)子結(jié)構(gòu)來(lái)加強(qiáng)通道間相關(guān)性的學(xué)習(xí),強(qiáng)化重要通道的特征,弱化非重要通道的特征,最終訓(xùn)練出精確度良好的卷積神經(jīng)網(wǎng)絡(luò)模型?;谝陨戏椒ㄔO(shè)計(jì)出的基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng),經(jīng)過(guò)測(cè)試證明,系統(tǒng)準(zhǔn)確率可達(dá)94.74%。

王瑩瑩[4](2020)在《基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究》文中提出計(jì)算機(jī)技術(shù)的快速發(fā)展促進(jìn)了人工智能和模式識(shí)別技術(shù)的發(fā)展,使其逐漸被生活化,因此,人們對(duì)機(jī)器的智能化需求也越來(lái)越高。人們不僅期望機(jī)器人可以幫助人類完成體力上的工作,還期望機(jī)器人可以判斷人的心理活動(dòng)和真實(shí)意圖,實(shí)現(xiàn)人與計(jì)算機(jī)有感情交流為目標(biāo)的人機(jī)交互過(guò)程,從而更好地服務(wù)于人類。人們?cè)谇楦袀鬟_(dá)時(shí),面部是人們交流的核心部位,在面部區(qū)域中包含了人類大部分的感覺(jué)器官(眼睛、耳朵、鼻子和嘴巴等)。通過(guò)面部傳達(dá)的信息,可以通過(guò)最直接、最自然的方式明白他人的意圖,感受他人的情緒。同時(shí)可以通過(guò)辨識(shí)出對(duì)方的面部表情,判斷其心理活動(dòng)和真實(shí)的意圖。因此,如何讓機(jī)器人快速準(zhǔn)確地識(shí)別人的面部表情,從而獲取人類的真實(shí)意圖,已經(jīng)成為智能人機(jī)交互技術(shù)研究任務(wù)中的一大重點(diǎn)。人臉表情識(shí)別是一種智能的人機(jī)交互技術(shù),在情感計(jì)算中占據(jù)著重要的地位,在國(guó)內(nèi)外受到了許多學(xué)者的密切關(guān)注與研究。目前,圖像分類器的性能有很大程度取決于提取的特征是否有效。卷積神經(jīng)網(wǎng)絡(luò)模型在當(dāng)前計(jì)算機(jī)視覺(jué)和人工智能領(lǐng)域具有顯著的優(yōu)勢(shì),實(shí)現(xiàn)了圖像特征信息的深層提取以及特征提取和分類的同步進(jìn)行。通過(guò)卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)人臉表情識(shí)別進(jìn)行研究,不僅具有重要的理論意義,同時(shí)還具有很大的實(shí)際價(jià)值。本論文以人臉表情識(shí)別技術(shù)的需求為牽引,致力于提高采用卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)人臉表情識(shí)別的準(zhǔn)確性并兼顧計(jì)算效率,首先基于獲取的實(shí)驗(yàn)數(shù)據(jù)集,提出一種減少誤判率的人臉檢測(cè)方法;進(jìn)而提出了一種獲取優(yōu)質(zhì)圖像的數(shù)據(jù)樣本擴(kuò)充方法,用于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,基于表情圖像自身的特點(diǎn)設(shè)計(jì)了相應(yīng)的卷積神經(jīng)網(wǎng)絡(luò)分類器,提升人臉表情的識(shí)別率。論文的主要內(nèi)容及創(chuàng)新點(diǎn)如下:1、提出一種實(shí)現(xiàn)復(fù)雜背景下獲取表情區(qū)域的人臉檢測(cè)方法。由于人臉表情圖像大部分都存在復(fù)雜的背景信息,影響了表情特征信息的有效提取,不利于最終的表情識(shí)別,提出了一種有效的人臉檢測(cè)算法,將有用的圖像信息提取出來(lái)。該算法由兩種檢測(cè)方法聯(lián)合構(gòu)成。首先采用傳統(tǒng)的膚色模型對(duì)臉部表情進(jìn)行初次檢測(cè),然后基于人眼定位的方法輔助調(diào)節(jié)初次誤檢的人臉圖像,減少誤檢率,有效地減少了表情識(shí)別任務(wù)中的很多干擾因素。同時(shí),為了加快人眼定位的快速性,采用圖像區(qū)域分割的方法較少人眼搜索的時(shí)間,加快系統(tǒng)的運(yùn)行速度。2、構(gòu)造出一種減少表情崩塌圖像的生成式對(duì)抗網(wǎng)絡(luò)模型。由于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練離不開大規(guī)模數(shù)據(jù)集樣本的支持,而現(xiàn)有的大部分人臉表情數(shù)據(jù)集的規(guī)模普遍不大,提出了用于數(shù)據(jù)增強(qiáng)的生成式對(duì)抗網(wǎng)絡(luò)模型。該模型由基于神經(jīng)網(wǎng)絡(luò)架構(gòu)的生成器和判別器組成。對(duì)模型的架構(gòu)和目標(biāo)函數(shù)進(jìn)行了優(yōu)化設(shè)計(jì)。此模型的優(yōu)點(diǎn)是可以通過(guò)增大重構(gòu)誤差減少表情崩塌圖像的生成,提升圖像的生成質(zhì)量,為后續(xù)模型的訓(xùn)練做好準(zhǔn)備工作。3、針對(duì)較為夸張明顯的表情圖像數(shù)據(jù)集,提出一種基于關(guān)鍵區(qū)域輔助模型的卷積神經(jīng)網(wǎng)絡(luò)分類器。由于現(xiàn)有的大部分方法只采用人臉的全部圖像作為模型的輸入信息,往往抓不住有利于分類的重點(diǎn)特征信息,提出了輔助模型的方法。首先使用原始臉部圖像獲取第一層的特征信息,然后將關(guān)鍵區(qū)域的特征信息提取出來(lái)與第一層的特征信息進(jìn)行融合,得到有利于表情分類的深層特征,進(jìn)一步提升表情識(shí)別的準(zhǔn)確率。此外,為了減少模型在訓(xùn)練過(guò)程中震蕩的缺點(diǎn),提出了新的分段激活函數(shù)。同時(shí)針對(duì)卷積神經(jīng)網(wǎng)絡(luò)在模型訓(xùn)練過(guò)程中比較耗時(shí)的問(wèn)題,提出一種采用CNN與隨機(jī)森林連接的方式對(duì)表情進(jìn)行分類識(shí)別,為了提升隨機(jī)森林分類器的效率,對(duì)信息增益率的公式進(jìn)行了簡(jiǎn)化,并對(duì)隨機(jī)森林分類器的決策算法進(jìn)行了優(yōu)化,實(shí)現(xiàn)了表情的快速準(zhǔn)確識(shí)別。4、針對(duì)表情容易混淆的樣本數(shù)據(jù)集,提出一種基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)識(shí)別模型,實(shí)現(xiàn)了部分易混淆表情的準(zhǔn)確識(shí)別,此外,在獲取的低維特征信息的融合環(huán)節(jié),采用貪心算法將多種特征信息進(jìn)行融合,降低了維數(shù)災(zāi)難的影響。同時(shí)針對(duì)表情混淆程度較大且很難人為區(qū)分的表情數(shù)據(jù)集,提出一種基于聚類和卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)合的識(shí)別模型,在聚類的過(guò)程中,為了盡最大可能拉大聚類中心的距離,提出了基于固定初始值的角力算法,提升了表情的整體識(shí)別率和每個(gè)類別下表情的識(shí)別率。5、針對(duì)自定義卷積神經(jīng)網(wǎng)絡(luò)模型在構(gòu)建過(guò)程中參數(shù)的調(diào)整耗時(shí)問(wèn)題和傳統(tǒng)遷移算法中存在的內(nèi)容差異問(wèn)題,提出將卷積受限玻爾茲曼機(jī)和卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行融合的方法,得到了一種新的混合遷移算法。因?yàn)椴捎脭?shù)據(jù)增強(qiáng)方法雖然有利于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,但是對(duì)于一些規(guī)模較大的數(shù)據(jù)集,數(shù)據(jù)增強(qiáng)處理過(guò)程也較為復(fù)雜,模型的訓(xùn)練時(shí)間較長(zhǎng),因此本章提出的遷移方法可以更好地應(yīng)用到較大規(guī)模的數(shù)據(jù)集中。該算法利用卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)模型對(duì)源域的初次特征提取,繼而采用目標(biāo)域在初次學(xué)習(xí)特征的基礎(chǔ)上繼續(xù)學(xué)習(xí)更多有利的特征信息,然后采用卷積受限玻爾茲曼機(jī)對(duì)目標(biāo)域?qū)W到的特征進(jìn)行深層挖掘,減小遷移過(guò)程中數(shù)據(jù)集的內(nèi)容差異帶來(lái)的影響,提升目標(biāo)域圖像樣本集的識(shí)別準(zhǔn)確率。此外,為了使卷積受限玻爾茲曼機(jī)在可見(jiàn)層的卷積操作中獲取更加全面的邊緣特征信息,對(duì)其進(jìn)行補(bǔ)零操作的方式。

李倩[5](2020)在《基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用》文中研究指明吸煙危害健康已是眾所周知,在公共場(chǎng)所吸煙不僅關(guān)系到到吸煙者本身,也會(huì)形成二手煙危害周圍人們健康,而且不規(guī)范的吸煙行為還會(huì)誘發(fā)公共場(chǎng)所火災(zāi)的發(fā)生,給社會(huì)各界帶來(lái)不可估計(jì)的損失。因此,加大公共場(chǎng)所禁煙力度已成為不可逆轉(zhuǎn)的趨勢(shì)。但目前基于煙霧傳感器的吸煙檢測(cè)技術(shù)由于通風(fēng)等環(huán)境因素的干擾,檢測(cè)效果并不理想,而基于傳統(tǒng)計(jì)算機(jī)視覺(jué)的吸煙檢測(cè)技術(shù)的檢測(cè)準(zhǔn)確度也不高,所以研究如何快速準(zhǔn)確地進(jìn)行吸煙檢測(cè)變得愈發(fā)迫切。隨著深度學(xué)習(xí)的崛起,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的煙支檢測(cè)技術(shù)被用來(lái)識(shí)別吸煙行為,并取得了一定的成果。然而作為當(dāng)下主要的研究方法,基于CNN的煙支檢測(cè)技術(shù)在實(shí)際場(chǎng)景中經(jīng)常受到諸如吸煙姿態(tài)、光照、復(fù)雜背景等內(nèi)外部干擾因素的影響,檢測(cè)性能有待進(jìn)一步提升。本文主要對(duì)基于卷積神經(jīng)網(wǎng)絡(luò)的煙支檢測(cè)技術(shù)進(jìn)行研究,改善目前煙支檢測(cè)算法中存有的缺陷,提高煙支目標(biāo)識(shí)別的準(zhǔn)確率。主要研究?jī)?nèi)容包括:(1)基于CNN的目標(biāo)檢測(cè)算法是對(duì)視頻逐幀檢測(cè),但由于該類算法存在結(jié)構(gòu)復(fù)雜且參數(shù)多的缺點(diǎn),導(dǎo)致整體檢測(cè)算法過(guò)于復(fù)雜,從而使得檢測(cè)時(shí)間過(guò)長(zhǎng)以及電腦硬件占用率過(guò)高。為此,本文設(shè)計(jì)了一種基于更快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster Region-based Convolution Neural Networks,Faster RCNN)的煙支快速檢測(cè)算法,主要思路為:1)檢測(cè)人臉并將檢測(cè)到的人臉圖片作為煙支檢測(cè)區(qū)域,從而大幅縮小了目標(biāo)檢測(cè)區(qū)域并有效降低了誤檢率;2)基于顏色分割算法對(duì)人臉區(qū)域進(jìn)行煙支初檢,若煙支存在可能性較高,則利用Faster RCNN算法進(jìn)行煙支目標(biāo)細(xì)檢測(cè);若煙支存在可能性很低,則不對(duì)當(dāng)前視頻幀進(jìn)行處理,從而大幅減小Faster RCNN算法的運(yùn)行次數(shù),有效提高檢測(cè)效率并降低了硬件占用率。實(shí)驗(yàn)結(jié)果表明,基于Faster RCNN的煙支快速檢測(cè)算法在保證檢測(cè)精度的前提下,硬件占用率和單張圖片的檢測(cè)時(shí)間都有了明顯的降低,并且在原有算法基礎(chǔ)上將誤檢率降低了約2%。(2)煙支屬于視頻幀圖像中的小目標(biāo),而在CNN深層特征圖中小目標(biāo)的細(xì)節(jié)特征信息經(jīng)常存在過(guò)少甚至完全丟失的問(wèn)題。為此,本文圍繞特征金字塔思想(Feature Pyramid Network,FPN)改進(jìn)現(xiàn)有的特征提取方式,設(shè)計(jì)了一種基于特征融合的煙支特征提取方法。該方法將CNN的淺層局部特征與深層全局特征進(jìn)行融合,從而有效避免小目標(biāo)特征在前向傳播過(guò)程中的丟失問(wèn)題。將該特征融合方法用于Faster RCNN的前向網(wǎng)絡(luò)進(jìn)行煙支檢測(cè),實(shí)驗(yàn)結(jié)果表明,基于特征融合的改進(jìn)Faster RCNN煙支檢測(cè)算法在困難測(cè)試集上,有效降低了煙支目標(biāo)檢測(cè)的漏檢率,提升了檢測(cè)效率。(3)將上述特征融合方法與Faster RCNN的煙支快速檢測(cè)算法相結(jié)合,設(shè)計(jì)了一種基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法。相比于上述兩種算法,結(jié)合后的算法能夠集合以上兩種改進(jìn)策略的優(yōu)勢(shì),在同一數(shù)據(jù)集上同時(shí)降低了目標(biāo)檢測(cè)的誤檢率和漏檢率,取得了更好的檢測(cè)效率。(4)為驗(yàn)證基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法的實(shí)用性,本文搭建了一個(gè)由人臉檢測(cè)與識(shí)別、煙支檢測(cè)、吸煙信息記錄三大模塊構(gòu)成的智能吸煙行為檢測(cè)系統(tǒng),對(duì)提出的算法進(jìn)行了實(shí)際性的應(yīng)用。

聶繼生[6](2020)在《基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)》文中進(jìn)行了進(jìn)一步梳理隨著人類文明的發(fā)展,視頻監(jiān)控作為社會(huì)公共安全防護(hù)中的重要一環(huán),越來(lái)越被研究者們重視,尤其是近年來(lái)人工智能技術(shù)的不斷突破,當(dāng)今社會(huì)對(duì)于智能視頻監(jiān)控也提出了更高的要求。人臉?lè)治黾夹g(shù)在計(jì)算機(jī)視覺(jué)與模式識(shí)別領(lǐng)域的研究與應(yīng)用已經(jīng)非常成功,例如目前已經(jīng)普遍使用的人臉打卡系統(tǒng),手機(jī)人臉解鎖以及智能門禁系統(tǒng)等。然而,人臉?lè)治黾夹g(shù)在視頻監(jiān)控中的應(yīng)用依然還不夠成熟,鑒于其對(duì)于公安部門的刑偵、社會(huì)公共秩序的維護(hù)具有重大意義,再結(jié)合自身工作,本文對(duì)人臉?lè)治黾夹g(shù)及其在視頻監(jiān)控中的應(yīng)用展開研究,主要工作如下:基于AdaBoost的人臉檢測(cè)算法,本文研究和設(shè)計(jì)了一種融合膚色分割技術(shù)的改進(jìn)AdaBoost人臉檢測(cè)算法,該算法提高了人臉檢測(cè)的精確度和速度。AdaBoost算法在訓(xùn)練分類器時(shí)可能會(huì)出現(xiàn)噪聲樣本權(quán)重過(guò)大導(dǎo)致樣本權(quán)重分布扭曲,從而使得集成的強(qiáng)分類器的整體性能降低的退化現(xiàn)象,針對(duì)這個(gè)問(wèn)題本文對(duì)AdaBoost算法的權(quán)重更新方式進(jìn)行了改進(jìn)。同時(shí)針對(duì)訓(xùn)練好的AdaBoost分類器檢測(cè)速度較慢的問(wèn)題,本文提出將膚色分割技術(shù)與改進(jìn)的AdaBoost算法相結(jié)合,利用膚色分割技術(shù)進(jìn)行人臉區(qū)域預(yù)選,然后再利用改進(jìn)的AdaBoost分類器進(jìn)行人臉檢測(cè)?;贑amShift人臉跟蹤算法,本文研究和設(shè)計(jì)了一種改進(jìn)的CamShift人臉跟蹤算法,該算法提高了人臉跟蹤的精確度。CamShift人臉跟蹤算法在跟蹤時(shí)容易受背景顏色影響發(fā)生跟蹤漂移,而且當(dāng)目標(biāo)被嚴(yán)重遮擋時(shí),CamShift算法也無(wú)法對(duì)其進(jìn)行處理最終導(dǎo)致跟蹤失敗。針對(duì)以上問(wèn)題,本文引入跟蹤漂移系數(shù)對(duì)CamShift算法跟蹤時(shí)的搜索窗口進(jìn)行評(píng)估,當(dāng)出現(xiàn)上述問(wèn)題時(shí),結(jié)合膚色分割技術(shù)和LBP特征直方圖對(duì)人臉進(jìn)行重定位,實(shí)現(xiàn)了對(duì)人臉持續(xù)穩(wěn)定的跟蹤。最后,基于改進(jìn)的人臉檢測(cè)和人臉跟蹤算法,再結(jié)合人臉識(shí)別技術(shù),將其應(yīng)用到實(shí)際的視頻監(jiān)控中,設(shè)計(jì)和實(shí)現(xiàn)了一個(gè)基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng),該系統(tǒng)具備人臉檢測(cè)、人臉識(shí)別以及人臉跟蹤功能,能夠?qū)σ曨l監(jiān)控中出現(xiàn)的人臉進(jìn)行檢測(cè)識(shí)別,并能夠?qū)ψR(shí)別出的目標(biāo)人臉進(jìn)行持續(xù)穩(wěn)定的跟蹤。

李煥[7](2020)在《面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究》文中研究說(shuō)明在汽車銷售行業(yè)中,顧客資源是銷售業(yè)績(jī)中重要的組成部分。而如何去甄別潛在顧客,如何收集潛在目標(biāo)客戶的基本資料是汽車銷售的關(guān)鍵所在。隨著計(jì)算機(jī)視覺(jué)技術(shù)的高速發(fā)展,人臉檢測(cè)、人臉跟蹤、人臉識(shí)別技術(shù)被廣泛應(yīng)用于門禁、監(jiān)控、智慧門店等各個(gè)領(lǐng)域。在無(wú)需人工干擾的前提下,如何利用計(jì)算機(jī)視覺(jué)方法,獲取客戶來(lái)店頻次、停留時(shí)間、停留區(qū)域等購(gòu)買意向信息,從而對(duì)顧客進(jìn)行精準(zhǔn)的產(chǎn)品介紹與服務(wù),達(dá)到潛在客戶的識(shí)別和分析,這對(duì)建立潛在客戶消費(fèi)信息、實(shí)現(xiàn)精準(zhǔn)營(yíng)銷具有顯著的意義。本文是以長(zhǎng)安汽車4s店實(shí)際項(xiàng)目為研究背景,利用計(jì)算機(jī)視覺(jué)分析方法甄別潛在客戶的基本信息為需求導(dǎo)向,主要包括以下幾個(gè)方面的內(nèi)容:(1)人臉檢測(cè):提出基于膚色模型與改進(jìn)的AdaBoost算法相結(jié)合的人臉檢測(cè)方法。該方法通過(guò)判斷采集的人臉圖像是否需要光照補(bǔ)償,將圖像由RGB色彩空間轉(zhuǎn)換為膚色聚類特性和分布規(guī)律較好的YCbCr色彩空間,并建立高斯模型并對(duì)圖像進(jìn)行形態(tài)學(xué)處理與形狀篩選,從而得到含有人臉的候選區(qū)域。再將得到的人臉候選區(qū)域由改進(jìn)后的AdaBoost算法進(jìn)行人臉檢測(cè),得到最終的人臉檢測(cè)結(jié)果。實(shí)驗(yàn)結(jié)果表明,該方法能有效降低人臉誤檢率、提高人臉檢測(cè)準(zhǔn)確率;(2)人臉跟蹤:提出基于LBP特征的TLD算法與kalman濾波器相結(jié)合的人臉目標(biāo)跟蹤算法。該算法通過(guò)提取人臉的灰度不變性LBP特性,以增強(qiáng)后續(xù)TLD目標(biāo)跟蹤算法適應(yīng)光照變化場(chǎng)景下人臉跟蹤的準(zhǔn)確性和魯棒性,并針對(duì)實(shí)際應(yīng)用中存在的人臉局部、短時(shí)全遮擋易導(dǎo)致人臉跟蹤失敗的問(wèn)題,提出基于kalman濾波的局部、短時(shí)全遮擋場(chǎng)景下人臉目標(biāo)預(yù)測(cè)跟蹤方法。對(duì)比的實(shí)驗(yàn)結(jié)果表明,基于LBP特征的TLD算法與kalman濾波器相結(jié)合的人臉目標(biāo)跟蹤算法能較好實(shí)現(xiàn)4S店內(nèi)顧客人臉的準(zhǔn)確跟蹤,并在光照變化、人臉局部或短時(shí)全遮擋場(chǎng)景下,該算法均具有較好的魯棒性。依據(jù)建立的人臉跟蹤算法,能實(shí)現(xiàn)顧客進(jìn)店后其人臉圖像的多幀提取,并記錄其進(jìn)店、離店時(shí)間以及感興趣區(qū)域的停留時(shí)間,為后續(xù)潛在客戶的甄別建立了維度信息;(3)無(wú)標(biāo)簽身份識(shí)別:提出基于PCA+LDA的無(wú)標(biāo)簽身份識(shí)別方法。首先對(duì)人臉圖像進(jìn)行直方圖均衡化和人臉幾何歸一化處理,消除光照、姿態(tài)和背景的干擾,使得圖像標(biāo)準(zhǔn)化。其次,采用PCA+LDA算法對(duì)人臉圖像進(jìn)行特征提取,最后使用SVM算法進(jìn)行分類識(shí)別。實(shí)驗(yàn)結(jié)果表明,所提出的無(wú)標(biāo)身份識(shí)別算法具有較好的準(zhǔn)確性;(4)開發(fā)了潛在客戶身份識(shí)別系統(tǒng)。在人臉檢測(cè)、人臉跟蹤、無(wú)標(biāo)簽身份識(shí)別算法研究的基礎(chǔ)上,針對(duì)潛在客戶來(lái)店頻次、停留時(shí)間、感興趣區(qū)域等銷售維度信息,應(yīng)用QT平臺(tái),開發(fā)了面向汽車銷售的潛在客戶甄別系統(tǒng)。該系統(tǒng)能較好提取進(jìn)店顧客的一系列人臉圖像,自動(dòng)記載當(dāng)次入店的時(shí)間、停留時(shí)間和活動(dòng)區(qū)域等維度信息,并依據(jù)歷史無(wú)標(biāo)簽人臉圖像庫(kù),判斷是新客戶還是老客戶,從而為面向汽車銷售的潛在客戶甄別提供了一種有效的計(jì)算機(jī)視覺(jué)分析方法。

李芹[8](2020)在《基于膚色識(shí)別的服裝顏色推薦系統(tǒng)》文中進(jìn)行了進(jìn)一步梳理隨著經(jīng)濟(jì)的快速發(fā)展,用戶日益關(guān)注服裝的個(gè)性化?,F(xiàn)有服裝顏色推薦系統(tǒng)通常基于用戶對(duì)其膚色的主觀判斷推薦相應(yīng)服裝顏色。另一方面,基于用戶個(gè)人喜好和購(gòu)買習(xí)慣的推薦方法,缺乏專業(yè)服裝顏色搭配指導(dǎo)。隨著圖像識(shí)別技術(shù)和深度學(xué)習(xí)的迅速發(fā)展,基于膚色識(shí)別的服裝顏色推薦成為服裝銷售領(lǐng)域的發(fā)展趨勢(shì)。本文所設(shè)計(jì)的基于膚色識(shí)別的服裝顏色推薦系統(tǒng)應(yīng)用圖像識(shí)別技術(shù)對(duì)人臉膚色進(jìn)行分類并根據(jù)分類結(jié)果推薦服裝顏色。首先設(shè)計(jì)基于Unet-FC4-SVM膚色識(shí)別模型降低光照亮度和光源顏色對(duì)膚色識(shí)別準(zhǔn)確率的影響。其次應(yīng)用四季色彩理論對(duì)特定膚色的用戶進(jìn)行服裝顏色推薦。針對(duì)拍攝環(huán)境的光照亮度和光源顏色影響人臉圖片中膚色識(shí)別的問(wèn)題,本文首先設(shè)計(jì)Unet-FC4光照處理模型。其中Unet算法的優(yōu)勢(shì)在于其拼接相同維度的特征以防止信息丟失,實(shí)驗(yàn)結(jié)果表明,基于Unet的光照亮度增強(qiáng)算法,與直方圖均衡化和Retinex算法對(duì)比,在MSE、PSNR、SSIM三種圖像質(zhì)量評(píng)價(jià)指標(biāo)上,其光照亮度增強(qiáng)效果優(yōu)于后兩者算法;另一方面,因FC4算法采用選擇機(jī)制以避免語(yǔ)義不明色塊影響光源顏色估計(jì),模型中所選用的基于FC4的光源顏色去除算法,與白平衡算法對(duì)比,亦在上述三種圖像質(zhì)量評(píng)價(jià)指標(biāo)上優(yōu)于后者。應(yīng)用四季色彩理論中膚色的分類標(biāo)準(zhǔn),本文將人臉膚色分成春夏秋冬四種類型并設(shè)計(jì)基于SVM的多分類器膚色識(shí)別模型。模型中首先應(yīng)用基于Haar特征的人臉檢測(cè)算法和集成回歸樹(Ensemble of Regression Trees,ERT)方法分割用戶臉部的純膚色區(qū)域,獲取有效數(shù)據(jù)達(dá)到數(shù)據(jù)增強(qiáng)與降低干擾的目的;其次提取膚色融合特征,訓(xùn)練基于SVM的多分類器模型。最后,結(jié)合前述Unet-FC4光照處理算法,獲得基于Unet-FC4-SVM的膚色識(shí)別模型。實(shí)驗(yàn)結(jié)果表明,對(duì)比Unet-SVM和FC4-SVM模型,基于Unet-FC4-SVM的膚色識(shí)別模型準(zhǔn)確率最高。本文編程實(shí)現(xiàn)了基于膚色識(shí)別的服裝顏色推薦系統(tǒng)。其中,算法模塊(光照處理、膚色識(shí)別)在TensorFlow深度學(xué)習(xí)框架中應(yīng)用Python語(yǔ)言實(shí)現(xiàn)四季型膚色的識(shí)別。在服裝顏色推薦模塊中基于MySQL數(shù)據(jù)庫(kù)設(shè)計(jì)用戶以及服裝數(shù)據(jù)表的實(shí)體關(guān)系圖,利用對(duì)象存儲(chǔ)系統(tǒng)實(shí)現(xiàn)服裝圖片文件的存儲(chǔ)。最后基于Django網(wǎng)頁(yè)開發(fā)框架實(shí)現(xiàn)用戶交互、算法模塊管理以及服裝顏色推薦等功能。本文所設(shè)計(jì)的基于膚色識(shí)別的服裝顏色推薦系統(tǒng)可以為用戶提供客觀膚色識(shí)別結(jié)果,并在此基礎(chǔ)上給予專業(yè)服裝顏色建議。

陳浩楠[9](2020)在《基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究》文中進(jìn)行了進(jìn)一步梳理隨著人臉識(shí)別技術(shù)的發(fā)展,基于人臉的身份認(rèn)證系統(tǒng)被廣泛應(yīng)用在各個(gè)領(lǐng)域,雖然目前的人臉識(shí)別技術(shù)能夠應(yīng)對(duì)不同情況下的檢測(cè),但是依然難以區(qū)分?jǐn)z像頭前的人臉是真人的還是照片或者視頻。因此,兼顧實(shí)用性和可靠性的人臉活體檢測(cè)技術(shù)是人臉認(rèn)證系統(tǒng)的廣泛應(yīng)用的基礎(chǔ),具有重要的研究?jī)r(jià)值?,F(xiàn)有的算法雖然已經(jīng)取得了不錯(cuò)的檢測(cè)效果,但是仍然面臨諸多難題,如現(xiàn)有方法易受光照的影響;傳統(tǒng)的算法以人臉區(qū)域作為輸入,損失了圖像上下文信息等。針對(duì)上述的問(wèn)題,本文結(jié)合光照一致化和上下文感知對(duì)人臉活體檢測(cè)算法進(jìn)行深入研究,具體的工作和創(chuàng)新點(diǎn)如下:為提高算法的光照魯棒性,本文提出一種光照魯棒的雙通道融合人臉活體檢測(cè)算法。該算法使用了一個(gè)雙通道的卷積神經(jīng)網(wǎng)絡(luò),分通道進(jìn)行特征提取,為了最大化地利用光照一致化后圖像的抵抗光照變化的特性和RGB圖像豐富的紋理信息,提出了一種具有通用性的基于注意力模型的融合方法,將兩種特征的各個(gè)位置加權(quán)融合,得到兼顧光照魯棒性和紋理區(qū)分度的特征用于分類檢測(cè)。實(shí)驗(yàn)證明,相較于現(xiàn)有的算法,本文提出的方法降低了算法的光照敏感性,同時(shí)提高了單庫(kù)性能和泛化能力。針對(duì)現(xiàn)有算法需要以人臉區(qū)域作為輸入,丟失了除人臉外的圖像上下文信息的問(wèn)題,本文提出一種基于多層池化特征融合與迭代照度估計(jì)的級(jí)聯(lián)人臉活體檢測(cè)算法。第一級(jí)檢測(cè)器將人臉活體檢測(cè)拓展成一個(gè)三分類問(wèn)題,用于檢測(cè)真實(shí)人臉、攻擊人臉和背景,用多層池化特征融合來(lái)豐富特征的上下文信息,提高檢測(cè)器性能。第二級(jí)檢測(cè)器利用基于迭代照度估計(jì)的Retinex算法進(jìn)行光照一致化,并將增強(qiáng)后的亮度通道與多色彩通道級(jí)聯(lián)并提取LBP特征,得到具有光照不敏感特征的次級(jí)檢測(cè)器,用于處理上級(jí)檢測(cè)器的難例。本方法與其他算法相比兼顧端到端的檢測(cè)特性和光照魯棒性,具有更優(yōu)檢測(cè)性能。本文進(jìn)一步探索人臉檢測(cè)和人臉活體檢測(cè)的任務(wù)相關(guān)性,提出了一種基于上下文感知的多任務(wù)人臉活體檢測(cè)模型。為了提高小尺寸人臉的檢測(cè)性能,豐富特征的上下文信息和擴(kuò)大特征感受野,對(duì)模型中的檢測(cè)層進(jìn)行捷徑特征金字塔融合和上下文聚合,使深層信息指導(dǎo)淺層信息進(jìn)行檢測(cè)。另外,使用半監(jiān)督的策略獲得頭部和鼻子的上下文監(jiān)督信息,利用鼻子區(qū)域的深度特性進(jìn)行人臉活體檢測(cè),利用人頭區(qū)域的大感受野,增加小尺寸人臉的特征尺寸,提高對(duì)應(yīng)的檢測(cè)性能。與現(xiàn)有方法相比,本算法在人臉檢測(cè)任務(wù)的困難子集上mAP達(dá)到89.1%,在人臉活體檢測(cè)任務(wù)的EER和HTER達(dá)到現(xiàn)有文獻(xiàn)最佳的水平。

劉家遠(yuǎn)[10](2019)在《人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)》文中研究說(shuō)明隨著人民物質(zhì)生活的提高,對(duì)美有了更高的追求??茖W(xué)技術(shù)的發(fā)展,推動(dòng)了醫(yī)美整形手術(shù)的發(fā)展,然而一些醫(yī)美整容機(jī)構(gòu)采用虛擬手術(shù)仿真技術(shù)進(jìn)行對(duì)術(shù)后效果仿真。在術(shù)前咨詢階段,醫(yī)美整形機(jī)構(gòu)不僅對(duì)人臉整形仿真有所要求,對(duì)皮膚美化仿真也有很大的要求,另外對(duì)于整形幅度很小的場(chǎng)景中,醫(yī)美咨詢師不能客觀地去評(píng)價(jià)求美者需要整容的部位,故需要一些輔助面部數(shù)據(jù)進(jìn)行展示。本文中采用虛擬現(xiàn)實(shí)的技術(shù),主要針對(duì)人臉三維信息提取、面部皮膚美化效果、面部變形區(qū)域顯示以及面部整形評(píng)估方案進(jìn)行研究,提出了面部美化設(shè)計(jì)方法、面部的色譜模型設(shè)計(jì)及其人臉評(píng)估方法設(shè)計(jì)。論文的具體工作包括:(1)人臉三維模型的關(guān)鍵特征信息提取:關(guān)鍵特征信息是人臉三維模型在三維空間中的關(guān)鍵特征點(diǎn)位置信息,本文利用Harr分類器對(duì)人臉進(jìn)行檢測(cè),然后基于Dlib對(duì)人臉進(jìn)行特征點(diǎn)提取。實(shí)現(xiàn)了對(duì)三維場(chǎng)景中人臉模型的檢測(cè)及關(guān)鍵特征點(diǎn)提取。(2)紋理的美化效果設(shè)計(jì):美化設(shè)計(jì)主要指對(duì)人臉模型紋理進(jìn)行處理,即紋理局部處理和紋理整體處理。紋理局部處理采用兩種實(shí)現(xiàn)方式,一是基于像素提取的方式進(jìn)行ROI圖像融合;二是基于FMM算法進(jìn)行紋理局部修復(fù)。紋理整體處理采用基于膚色檢測(cè)的磨皮算法,在算法實(shí)施過(guò)程中,為了使效果更佳逼真,本文提出基于改進(jìn)Gamma變換的紋理像素增強(qiáng)算法。(3)紋理的色譜模型設(shè)計(jì):本文提出3種人臉模型的色譜顯示方式,一是基于色度圖的四高三低色譜顯示方式,利用色度圖根據(jù)灰度級(jí)別進(jìn)行對(duì)紋理的色彩映射,然后采用掃描線的填充算法對(duì)人臉的四高三低區(qū)域進(jìn)行填充;二是基于海拔高度的色譜顯示方式,以鼻尖部位為最高點(diǎn),通過(guò)不同顏色呈現(xiàn)不同高度的區(qū)域范圍三是對(duì)微整形中實(shí)時(shí)精準(zhǔn)色譜顯示,通過(guò)網(wǎng)絡(luò)模型頂點(diǎn)坐標(biāo)的變化來(lái)確定其顏色顯示區(qū)域。(4)人臉評(píng)估方法設(shè)計(jì):基于人臉三維關(guān)鍵特征信息對(duì)人臉模型進(jìn)行測(cè)量,得出面部18個(gè)長(zhǎng)度尺寸和5個(gè)角度尺寸,然后根據(jù)三庭五眼、眼眉黃金比例、顳顴黃金比例、顴頜黃金比例等美學(xué)理論提出對(duì)面部、眼眉、鼻子評(píng)估方法。(5)手術(shù)仿真系統(tǒng)設(shè)計(jì):本系統(tǒng)在Unity3D引擎中進(jìn)行開發(fā),并采用MVC的系統(tǒng)框架,該系統(tǒng)可以呈現(xiàn)出面部皮膚美化后的效果、面部進(jìn)行微整形之后整形區(qū)域的精確顯示以及人臉面部微整建議。本文中的關(guān)鍵技術(shù)已經(jīng)應(yīng)用到Beauty100三維整形導(dǎo)師軟件中,已被廣州首源信息科技有限公司使用,取得了良好的效果。

二、一種基于顏色信息的人臉檢測(cè)方法(論文開題報(bào)告)

(1)論文研究背景及目的

此處內(nèi)容要求:

首先簡(jiǎn)單簡(jiǎn)介論文所研究問(wèn)題的基本概念和背景,再而簡(jiǎn)單明了地指出論文所要研究解決的具體問(wèn)題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。

寫法范例:

本文主要提出一款精簡(jiǎn)64位RISC處理器存儲(chǔ)管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過(guò)程。在該MMU結(jié)構(gòu)中,TLB采用叁個(gè)分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲(chǔ)器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁(yè)面大小,采用多級(jí)分層頁(yè)表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級(jí)頁(yè)表轉(zhuǎn)換過(guò)程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲(chǔ)系統(tǒng)實(shí)現(xiàn)的一個(gè)重要組成部分。

(2)本文研究方法

調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對(duì)象的具體信息。

觀察法:用自己的感官和輔助工具直接觀察研究對(duì)象從而得到有關(guān)信息。

實(shí)驗(yàn)法:通過(guò)主支變革、控制研究對(duì)象來(lái)發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。

文獻(xiàn)研究法:通過(guò)調(diào)查文獻(xiàn)來(lái)獲得資料,從而全面的、正確的了解掌握研究方法。

實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。

定性分析法:對(duì)研究對(duì)象進(jìn)行“質(zhì)”的方面的研究,這個(gè)方法需要計(jì)算的數(shù)據(jù)較少。

定量分析法:通過(guò)具體的數(shù)字,使人們對(duì)研究對(duì)象的認(rèn)識(shí)進(jìn)一步精確化。

跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對(duì)某一課題進(jìn)行研究。

功能分析法:這是社會(huì)科學(xué)用來(lái)分析社會(huì)現(xiàn)象的一種方法,從某一功能出發(fā)研究多個(gè)方面的影響。

模擬法:通過(guò)創(chuàng)設(shè)一個(gè)與原型相似的模型來(lái)間接研究原型某種特性的一種形容方法。

三、一種基于顏色信息的人臉檢測(cè)方法(論文提綱范文)

(1)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景與意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
    1.3 論文主要工作
    1.4 論文組織架構(gòu)
第二章 相關(guān)技術(shù)簡(jiǎn)介
    2.1 圖像預(yù)處理技術(shù)概述
    2.2 人臉檢測(cè)及普通眼鏡檢測(cè)技術(shù)概述
    2.3 深度學(xué)習(xí)概述
    2.4 本章小結(jié)
第三章 基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)算法
    3.1 改進(jìn)的深度殘差網(wǎng)絡(luò)模型
        3.1.1 深度殘差網(wǎng)絡(luò)與Dropout機(jī)制
        3.1.2 包含普通眼鏡分類的預(yù)訓(xùn)練模型
    3.2 護(hù)目鏡佩戴數(shù)據(jù)集
        3.2.1 概述
        3.2.2 護(hù)目鏡佩戴數(shù)據(jù)集的采集與標(biāo)注
        3.2.3 基于人臉特征點(diǎn)的護(hù)目鏡佩戴圖像合成算法
    3.3 實(shí)驗(yàn)與結(jié)果
    3.4 本章小結(jié)
第四章 護(hù)目鏡佩戴檢測(cè)原型系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    4.1 需求分析
    4.2 系統(tǒng)總體設(shè)計(jì)方案
    4.3 系統(tǒng)開發(fā)環(huán)境
    4.4 登錄與管理模塊
    4.5 人臉檢測(cè)模塊
    4.6 護(hù)目鏡佩戴檢測(cè)模塊
    4.7 決策與報(bào)警模塊
    4.8 系統(tǒng)日志模塊
    4.9 系統(tǒng)性能評(píng)估
        4.9.1 系統(tǒng)實(shí)時(shí)性實(shí)驗(yàn)
        4.9.2 系統(tǒng)準(zhǔn)確性實(shí)驗(yàn)
    4.10 本章小結(jié)
第五章 總結(jié)與未來(lái)工作展望
    5.1 總結(jié)
    5.2 未來(lái)工作展望
參考文獻(xiàn)
致謝
攻讀學(xué)位期間取得的研究成果

(2)基于多特征的靜態(tài)視頻摘要算法研究(論文提綱范文)

致謝
摘要
ABSTRACT
第一章 緒論
    1.1 研究背景和意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
        1.2.1 基于全局特征的視頻摘要方法
        1.2.2 基于局部特征的視頻摘要方法
        1.2.3 基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的視頻摘要方法
        1.2.4 基于多特征的視頻摘要方法
    1.3 論文研究?jī)?nèi)容
    1.4 論文結(jié)構(gòu)安排
第二章 相關(guān)理論基礎(chǔ)
    2.1 聚類算法
        2.1.1 原型聚類
        2.1.2 密度聚類
        2.1.3 層次聚類
    2.2 目標(biāo)檢測(cè)算法
        2.2.1 傳統(tǒng)目標(biāo)檢測(cè)算法
        2.2.2 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法
    2.3 人臉檢測(cè)與識(shí)別算法
    2.4 表情識(shí)別算法
    2.5 本章總結(jié)
第三章 基于顏色特征和目標(biāo)特征融合的視頻摘要方法
    3.1 研究動(dòng)機(jī)
    3.2 算法概述
    3.3 算法詳細(xì)步驟及說(shuō)明
        3.3.1 視頻幀預(yù)處理
        3.3.2 特征提取
        3.3.3 特征融合
        3.3.4 DBSCAN聚類
        3.3.5 關(guān)鍵幀提取
    3.4 實(shí)驗(yàn)結(jié)果與評(píng)價(jià)
        3.4.1 數(shù)據(jù)集介紹
        3.4.2 評(píng)價(jià)方法
        3.4.3 在OVP數(shù)據(jù)集上的評(píng)價(jià)
        3.4.4 在YouTube數(shù)據(jù)集上的評(píng)價(jià)
    3.5 本章總結(jié)
第四章 基于身份特征和表情特征的視頻摘要方法
    4.1 引言
    4.2 算法概述
    4.3 算法詳細(xì)步驟與設(shè)計(jì)
        4.3.1 視頻幀預(yù)采樣
        4.3.2 人臉檢測(cè)與對(duì)齊
        4.3.3 身份認(rèn)證
        4.3.4 表情特征提取
        4.3.5 聚類與關(guān)鍵幀提取
    4.4 實(shí)驗(yàn)結(jié)果與評(píng)價(jià)
        4.4.1 視頻數(shù)據(jù)采集
        4.4.2 評(píng)價(jià)指標(biāo)
        4.4.3 實(shí)驗(yàn)結(jié)果
    4.5 本章總結(jié)
第五章 總結(jié)與展望
    5.1 總結(jié)
    5.2 展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間的學(xué)術(shù)活動(dòng)及成果情況

(3)基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)(論文提綱范文)

摘要
abstract
第一章 緒論
    1.1 研究背景及意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
        1.2.1 人臉識(shí)別的研究現(xiàn)狀
        1.2.2 活體檢測(cè)研究現(xiàn)狀
    1.3 論文的主要工作及章節(jié)安排
第二章 人臉識(shí)別相關(guān)理論基礎(chǔ)
    2.1 卷積神經(jīng)網(wǎng)絡(luò)概述
        2.1.1 神經(jīng)網(wǎng)絡(luò)層
        2.1.2 激活函數(shù)
        2.1.3 損失函數(shù)
    2.2 人臉檢測(cè)
        2.2.1 圖像中的人臉檢測(cè)技術(shù)
        2.2.2 視頻中的人臉檢測(cè)技術(shù)
    2.3 活體檢測(cè)方法
        2.3.1 使用視覺(jué)動(dòng)力學(xué)檢測(cè)面部欺騙
        2.3.2 使用顏色紋理分析的面部欺騙檢測(cè)
        2.3.3 使用LSTM-CNN架構(gòu)學(xué)習(xí)時(shí)態(tài)特征以進(jìn)行面部反欺詐
        2.3.4 增加硬件設(shè)備以進(jìn)行面部反欺詐
    2.4 人臉特征提取和對(duì)比
        2.4.1 特征臉?lè)?/td>
        2.4.2 LBPH算法
        2.4.3 基于卷積神經(jīng)網(wǎng)絡(luò)模型的方法
    2.5 本章小結(jié)
第三章 系統(tǒng)需求分析
    3.1 需求分析和用例設(shè)計(jì)
        3.1.1 用戶角色分析
        3.1.2 應(yīng)用場(chǎng)景分析
        3.1.3 用例分析
    3.2 系統(tǒng)功能分析
        3.2.1 系統(tǒng)框架
        3.2.2 系統(tǒng)功能分析
    3.3 本章小結(jié)
第四章 算法研究
    4.1 KCF和Adaboost融合的人臉檢測(cè)方法
        4.1.1 KCF跟蹤算法
        4.1.2 Adaboost算法
        4.1.3 KCF和 Adaboost融合的人臉檢測(cè)算法
    4.2 人臉活體檢測(cè)
        4.2.1 摩爾紋理檢測(cè)
        4.2.2 眨眼檢測(cè)
        4.2.3 摩爾紋理和眨眼檢測(cè)融合的活體檢測(cè)方法
    4.3 人臉特征提取方法
        4.3.1 深度可分離卷積
        4.3.2 SE(Squeeze-and-Excitation)模塊
        4.3.3 基于深度可分離卷積和SE模塊的CNN結(jié)構(gòu)
    4.4 本章小結(jié)
第五章 算法驗(yàn)證與分析
    5.1 測(cè)試環(huán)境
    5.2 系統(tǒng)整體運(yùn)行流程
        5.2.1 界面設(shè)計(jì)
        5.2.2 人臉注冊(cè)
    5.3 測(cè)試樣本集
    5.4 人臉檢測(cè)算法測(cè)試
        5.4.1 測(cè)試方案
        5.4.2 測(cè)試結(jié)果
        5.4.3 結(jié)果分析
    5.5 活體檢測(cè)算法測(cè)試
        5.5.1 測(cè)試方案
        5.5.2 測(cè)試結(jié)果
        5.5.3 結(jié)果分析
    5.6 人臉識(shí)別性能測(cè)試
        5.6.1 測(cè)試方案
        5.6.2 測(cè)試結(jié)果
        5.6.3 結(jié)果分析
    5.7 本章小結(jié)
第六章 總結(jié)與展望
參考文獻(xiàn)
致謝
攻讀碩士學(xué)位期間參與的科研項(xiàng)目

(4)基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究(論文提綱范文)

摘要
ABSTRACT
縮略詞注釋表
第一章 緒論
    1.1 論文選題背景及意義
    1.2 人臉檢測(cè)的研究現(xiàn)狀
        1.2.1 基于顯式特征的方法
        1.2.2 基于隱式特征的方法
    1.3 數(shù)據(jù)增強(qiáng)的研究現(xiàn)狀
    1.4 卷積神經(jīng)網(wǎng)絡(luò)模型的研究現(xiàn)狀
    1.5 人臉表情識(shí)別的研究現(xiàn)狀
    1.6 論文主要研究?jī)?nèi)容及創(chuàng)新點(diǎn)
    1.7 論文章節(jié)安排
第二章 基于人眼定位和膚色模型的快速人臉檢測(cè)方法
    2.1 引言
    2.2 光照補(bǔ)償
    2.3 基于YCbCr色彩空間的膚色模型
        2.3.1 色彩空間
        2.3.2 膚色模型
    2.4 形態(tài)學(xué)處理
        2.4.1 腐蝕
        2.4.2 膨脹
    2.5 人眼定位的模板匹配算法
        2.5.1 一般的人眼定位模板匹配算法
        2.5.2 提高模板匹配的處理速度
    2.6 實(shí)驗(yàn)分析
        2.6.1 實(shí)驗(yàn)數(shù)據(jù)集和實(shí)驗(yàn)效果
        2.6.2 實(shí)驗(yàn)結(jié)果分析
    2.7 本章小結(jié)
第三章 基于滑動(dòng)模塊的人臉表情圖像生成模型
    3.1 引言
    3.2 生成式對(duì)抗網(wǎng)絡(luò)的任務(wù)
    3.3 人臉表情圖像生成模型結(jié)構(gòu)
    3.4 人臉表情圖像生成模型穩(wěn)定訓(xùn)練的策略
    3.5 AR-droupout的提出
    3.6 人臉表情圖像生成模型目標(biāo)函數(shù)的設(shè)計(jì)
    3.7 仿真與實(shí)驗(yàn)
        3.7.1 原始數(shù)據(jù)集
        3.7.2 圖像生成
    3.8 本章小結(jié)
第四章 基于關(guān)鍵區(qū)域輔助卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別
    4.1 引言
    4.2 卷積神經(jīng)網(wǎng)絡(luò)模型
        4.2.1 卷積神經(jīng)網(wǎng)絡(luò)的基本原理
        4.2.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
        4.2.3 卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法
    4.3 基于關(guān)鍵區(qū)域輔助的卷積神經(jīng)網(wǎng)絡(luò)模型
        4.3.1 表情子區(qū)域卷積模型的建立
        4.3.2 分段激活函數(shù)的設(shè)計(jì)
        4.3.3 輔助加權(quán)特征提取模型的建立
        4.3.4 基于輔助任務(wù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練
    4.4 基于卷積特征和隨機(jī)森林分類器結(jié)合的識(shí)別模型
        4.4.1 決策樹的介紹
        4.4.2 隨機(jī)森林分類器
        4.4.3 基于隨機(jī)森林的表情分類器
        4.4.4 CNN-隨機(jī)森林人臉表情識(shí)別算法設(shè)計(jì)
    4.5 實(shí)驗(yàn)分析
        4.5.1 基于輔助模型的實(shí)驗(yàn)結(jié)果分析和對(duì)比
        4.5.2 基于卷積特征和隨機(jī)森林的實(shí)驗(yàn)結(jié)果分析和對(duì)比
    4.6 本章小結(jié)
第五章 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別
    5.1 引言
    5.2 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型
        5.2.1 易混淆表情的分類
        5.2.2 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建
        5.2.3 低維特征信息的提取
        5.2.4 高維混合特征信息的提取
        5.2.5 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和識(shí)別
    5.3 基于聚類和卷積神經(jīng)網(wǎng)絡(luò)模型融合的表情識(shí)別
        5.3.1 聚類算法
        5.3.2 基于初始值固定的聚類算法
        5.3.3 基于聚類和卷積融合的模型架構(gòu)
    5.4 仿真實(shí)驗(yàn)和數(shù)據(jù)分析
        5.4.1 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的表情識(shí)別結(jié)果驗(yàn)證和分析
        5.4.2 基于聚類卷積神經(jīng)網(wǎng)絡(luò)模型的表情識(shí)別結(jié)果驗(yàn)證和分析
    5.5 本章小結(jié)
第六章 基于卷積受限玻爾茲曼機(jī)的混合遷移卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別
    6.1 引言
    6.2 新遷移學(xué)習(xí)算法的提出
        6.2.1 遷移學(xué)習(xí)的四種情況
        6.2.2 基于多次微調(diào)的遷移學(xué)習(xí)新方法
    6.3 基于混合遷移的卷積神經(jīng)網(wǎng)絡(luò)模型
        6.3.1 受限玻爾茲曼機(jī)模型
        6.3.2 卷積受限玻爾茲曼機(jī)模型
        6.3.3 CNN模型的預(yù)訓(xùn)練
        6.3.4 混合遷移模型的構(gòu)建
        6.3.5 混合遷移模型的訓(xùn)練
    6.4 實(shí)驗(yàn)驗(yàn)證
        6.4.1 數(shù)據(jù)集描述
        6.4.2 實(shí)驗(yàn)比較
    6.5 本章小結(jié)
第七章 總結(jié)與展望
    7.1 總結(jié)
    7.2 展望
參考文獻(xiàn)
致謝
攻讀博士學(xué)位期間發(fā)表的學(xué)術(shù)論文
攻讀博士學(xué)位期間參加的科研項(xiàng)目
學(xué)位論文評(píng)閱及答辯情況表

(5)基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用(論文提綱范文)

摘要
ABSTRACT
第1章 緒論
    1.1 研究背景及其意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
        1.2.1 基于煙霧傳感器的吸煙檢測(cè)技術(shù)
        1.2.2 基于計(jì)算機(jī)視覺(jué)的吸煙煙霧檢測(cè)技術(shù)
        1.2.3 基于計(jì)算機(jī)視覺(jué)的煙支目標(biāo)檢測(cè)技術(shù)
    1.3 本文的主要研究?jī)?nèi)容與組織結(jié)構(gòu)
        1.3.1 主要研究?jī)?nèi)容
        1.3.2 本文組織結(jié)構(gòu)
    1.4 本章小結(jié)
第2章 深度學(xué)習(xí)理論及目標(biāo)檢測(cè)算法概述
    2.1 深度學(xué)習(xí)理論
    2.2 卷積神經(jīng)網(wǎng)絡(luò)
        2.2.1 卷積層
        2.2.2 激活函數(shù)
        2.2.3 池化層
        2.2.4 全連接層
        2.2.5 模型訓(xùn)練
    2.3 目標(biāo)檢測(cè)算法概述
        2.3.1 傳統(tǒng)目標(biāo)檢測(cè)算法
        2.3.2 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法
    2.4 本章小結(jié)
第3章 基于Faster RCNN的煙支快速檢測(cè)算法
    3.1 基于MTCNN的人臉檢測(cè)
    3.2 基于顏色分割的煙支初檢算法
        3.2.1 HSV顏色分割算法
        3.2.2 基于顏色分割的煙支初檢算法
    3.3 基于Faster RCNN的煙支快速檢測(cè)算法
    3.4 實(shí)驗(yàn)結(jié)果與分析
        3.4.1 數(shù)據(jù)集制作及評(píng)價(jià)指標(biāo)
        3.4.2 實(shí)驗(yàn)結(jié)果與分析
    3.5 本章小結(jié)
第4章 基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法
    4.1 基于特征融合的改進(jìn)Faster RCNN煙支檢測(cè)算法
        4.1.1 深度網(wǎng)絡(luò)多尺度特征融合概述
        4.1.2 FPN多尺度特征融合機(jī)制
        4.1.3 基于改進(jìn)FPN的目標(biāo)特征融合策略
    4.2 基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法
    4.3 實(shí)驗(yàn)結(jié)果與分析
    4.4 本章小結(jié)
第5章 智能吸煙行為檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    5.1 開發(fā)環(huán)境
    5.2 系統(tǒng)架構(gòu)
    5.3 系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
        5.3.1 系統(tǒng)設(shè)計(jì)
        5.3.2 系統(tǒng)實(shí)現(xiàn)與界面展示
    5.4 系統(tǒng)性能測(cè)試與分析
    5.5 本章小結(jié)
第6章 總結(jié)與展望
    6.1 本文總結(jié)
    6.2 工作展望
參考文獻(xiàn)
攻讀學(xué)位期間取得的研究成果
致謝

(6)基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)(論文提綱范文)

摘要
Abstract
第1章 緒論
    1.1 課題背景及研究意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
        1.2.1 視頻監(jiān)控系統(tǒng)研究現(xiàn)狀
        1.2.2 人臉檢測(cè)算法研究現(xiàn)狀
        1.2.3 人臉跟蹤算法研究現(xiàn)狀
    1.3 本文主要內(nèi)容
    1.4 論文組織結(jié)構(gòu)
第2章 人臉檢測(cè)及識(shí)別相關(guān)技術(shù)研究
    2.1 圖像預(yù)處理技術(shù)
        2.1.1 色彩空間轉(zhuǎn)換
        2.1.2 光照補(bǔ)償
        2.1.3 形態(tài)學(xué)操作
    2.2 基于膚色分割的人臉檢測(cè)算法
        2.2.1 建立膚色模型
        2.2.2 人臉區(qū)域篩選
    2.3 LBP人臉識(shí)別算法
        2.3.1 LBP特征提取
        2.3.2 LBP改進(jìn)版本
        2.3.3 LBP特征匹配
    2.4 本章小結(jié)
第3章 基于AdaBoost的人臉檢測(cè)算法研究
    3.1 AdaBoost人臉檢測(cè)算法
        3.1.1 Haar-like特征
        3.1.2 積分圖計(jì)算
        3.1.3 分類器的訓(xùn)練
        3.1.4 級(jí)聯(lián)分類器
    3.2 對(duì)AdaBoost人臉檢測(cè)算法的改進(jìn)
        3.2.1 AdaBoost分類器訓(xùn)練過(guò)程中的不足
        3.2.2 改進(jìn)的AdaBoost算法
        3.2.3 融合膚色分割
    3.3 改進(jìn)算法驗(yàn)證
        3.3.1 實(shí)驗(yàn)環(huán)境及數(shù)據(jù)集準(zhǔn)備
        3.3.2 實(shí)驗(yàn)結(jié)果與分析
    3.4 本章小結(jié)
第4章 基于CamShift的人臉跟蹤算法研究
    4.1 CamShift人臉跟蹤算法
        4.1.1 直方圖反向投影
        4.1.2 Mean Shift算法
        4.1.3 CamShift跟蹤算法
    4.2 對(duì)CamShift人臉跟蹤算法的改進(jìn)
        4.2.1 CamShift人臉跟蹤算法的不足
        4.2.2 改進(jìn)的CamShift人臉跟蹤算法
    4.3 實(shí)驗(yàn)結(jié)果與分析
        4.3.1 遮擋場(chǎng)景實(shí)驗(yàn)結(jié)果與分析
        4.3.2 光照變化場(chǎng)景實(shí)驗(yàn)結(jié)果與分析
        4.3.3 人臉交叉復(fù)雜場(chǎng)景實(shí)驗(yàn)結(jié)果與分析
    4.4 本章小結(jié)
第5章 基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)總體設(shè)計(jì)
    5.1 系統(tǒng)需求分析
        5.1.1 系統(tǒng)應(yīng)用場(chǎng)景
        5.1.2 系統(tǒng)功能性需求
        5.1.3 系統(tǒng)性能需求
    5.2 系統(tǒng)架構(gòu)設(shè)計(jì)
        5.2.1 系統(tǒng)總體架構(gòu)
        5.2.2 系統(tǒng)模塊架構(gòu)
    5.3 系統(tǒng)總體設(shè)計(jì)
    5.4 本章小結(jié)
第6章 基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)詳細(xì)設(shè)計(jì)及實(shí)現(xiàn)
    6.1 系統(tǒng)開發(fā)環(huán)境
    6.2 各功能模塊設(shè)計(jì)與實(shí)現(xiàn)
        6.2.1 人臉信息管理模塊
        6.2.2 人臉檢測(cè)模塊
        6.2.3 人臉識(shí)別模塊
        6.2.4 人臉跟蹤模塊
    6.3 系統(tǒng)界面設(shè)計(jì)
        6.3.1 系統(tǒng)主界面
        6.3.2 實(shí)時(shí)視頻跟蹤界面
        6.3.3 本地視頻跟蹤界面
    6.4 系統(tǒng)測(cè)試及性能分析
        6.4.1 系統(tǒng)穩(wěn)定性測(cè)試
        6.4.2 系統(tǒng)性能測(cè)試及分析
    6.5 本章小結(jié)
結(jié)論
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的研究成果
致謝

(7)面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究(論文提綱范文)

摘要
Abstract
1.緒論
    1.1 課題的背景、目標(biāo)及意義
    1.2 國(guó)內(nèi)外研究現(xiàn)狀
        1.2.1 人臉檢測(cè)
        1.2.2 人臉跟蹤
        1.2.3 人臉識(shí)別
    1.3 論文的主要工作及結(jié)構(gòu)
        1.3.1 論文主要工作
        1.3.2 論文結(jié)構(gòu)
2.汽車銷售店進(jìn)店顧客的人臉自適應(yīng)檢測(cè)算法研究
    2.1 引言
    2.2 基于膚色特征的人臉檢測(cè)
        2.2.1 顏色空間
        2.2.2 膚色區(qū)域模型
        2.2.3 圖像預(yù)處理及膚色分隔
    2.3 基于AdaBoost算法的人臉檢測(cè)
        2.3.1 Harr-like矩陣特征
        2.3.2 積分圖
        2.3.3 分類器的設(shè)計(jì)
        2.3.4 級(jí)聯(lián)分類器結(jié)構(gòu)
    2.4 基于膚色特征與AdaBoost算法相結(jié)合的顧客人臉檢測(cè)方法
    2.5 實(shí)驗(yàn)結(jié)果分析
    2.6 本章小結(jié)
3.汽車銷售店進(jìn)店顧客的人臉跟蹤算法研究
    3.1 引言
    3.2 常用的人臉跟蹤算法及其優(yōu)缺點(diǎn)
    3.3 進(jìn)店顧客人臉跟蹤算法
        3.3.1 進(jìn)店顧客跟蹤的關(guān)鍵問(wèn)題研究
        3.3.2 TLD算法
    3.4 改進(jìn)的TLD算法
        3.4.1 LBP算法
        3.4.2 Kalman濾波器算法
        3.4.3 改進(jìn)的TLD算法實(shí)現(xiàn)
    3.5 TLD自適應(yīng)跟蹤潛在客戶維度信息提取
        3.5.1 區(qū)域維度信息提取
    3.6 實(shí)驗(yàn)結(jié)果及分析
    3.7 本章小結(jié)
4.無(wú)標(biāo)簽身份客戶信息研究
    4.1 引言
    4.2 無(wú)標(biāo)簽顧客身份識(shí)別
        4.2.1 無(wú)標(biāo)簽潛在客戶身份識(shí)別的關(guān)鍵問(wèn)題研究
        4.2.2 人臉識(shí)別算法研究
        4.2.3 人臉圖像預(yù)處理
        4.2.4 人臉特征提取
        4.2.5 SVM分類器
    4.3 汽車銷售店潛在顧客身份識(shí)別算法實(shí)現(xiàn)
    4.4 實(shí)驗(yàn)結(jié)果與分析
    4.5 本章小結(jié)
5.潛在客戶甄別系統(tǒng)的實(shí)現(xiàn)
    5.1 系統(tǒng)總體架構(gòu)
    5.2 系統(tǒng)實(shí)現(xiàn)
        5.2.1 系統(tǒng)開發(fā)環(huán)境
        5.2.2 系統(tǒng)詳細(xì)設(shè)計(jì)
    5.3 系統(tǒng)運(yùn)行界面
    5.4 本章小結(jié)
6.總結(jié)與展望
    6.1 總結(jié)
    6.2 展望
致謝
參考文獻(xiàn)
個(gè)人簡(jiǎn)歷、在學(xué)期間發(fā)表的學(xué)術(shù)論文及取得的研究成果

(8)基于膚色識(shí)別的服裝顏色推薦系統(tǒng)(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 引言
    1.2 研究背景與意義
    1.3 國(guó)內(nèi)外研究現(xiàn)狀
        1.3.1 光照處理的研究現(xiàn)狀
        1.3.2 人臉檢測(cè)的研究現(xiàn)狀
        1.3.3 膚色識(shí)別的研究現(xiàn)狀
        1.3.4 服裝顏色推薦系統(tǒng)研究現(xiàn)狀
    1.4 本文研究?jī)?nèi)容和創(chuàng)新點(diǎn)
    1.5 章節(jié)安排
第二章 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)概述
    2.1 引言
    2.2 系統(tǒng)的需求分析
    2.3 系統(tǒng)設(shè)計(jì)
        2.3.1 系統(tǒng)結(jié)構(gòu)設(shè)計(jì)
        2.3.2 功能模塊設(shè)計(jì)
        2.3.3 交互流程設(shè)計(jì)
    2.4 本章小結(jié)
第三章 基于Unet-FC~4 算法的光照處理模型
    3.1 引言
    3.2 光照處理模型設(shè)計(jì)
    3.3 基于Unet的光照亮度增強(qiáng)算法設(shè)計(jì)
    3.4 基于FC~4的光源顏色去除算法設(shè)計(jì)
    3.5 本章小結(jié)
第四章 基于SVM的膚色分類模型
    4.1 引言
    4.2 四季型膚色分類
    4.3 基于SVM的膚色分類模型設(shè)計(jì)
        4.3.1 基于Haar特征的人臉檢測(cè)
        4.3.2 基于ERT的關(guān)鍵區(qū)域分割
        4.3.3 提取膚色特征
        4.3.4 基于SVM的膚色分類
    4.4 基于Unet-FC4-SVM的膚色分類實(shí)驗(yàn)結(jié)果與分析
    4.5 本章小結(jié)
第五章 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)的實(shí)現(xiàn)
    5.1 引言
    5.2 系統(tǒng)的開發(fā)環(huán)境
    5.3 算法模塊的實(shí)現(xiàn)
        5.3.1 光照模塊的實(shí)現(xiàn)
        5.3.2 膚色識(shí)別模塊的實(shí)現(xiàn)
    5.4 服裝顏色推薦模塊的實(shí)現(xiàn)
    5.5 用戶交互模塊展示
    5.6 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)評(píng)價(jià)
    5.7 本章小結(jié)
第六章 總結(jié)與展望
    6.1 總結(jié)
    6.2 展望
參考文獻(xiàn)
附錄
攻讀碩士期間研究成果
致謝

(9)基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究(論文提綱范文)

致謝
摘要
Abstract
1 緒論
    1.1 研究背景和研究意義
    1.2 人臉活體檢測(cè)研究現(xiàn)狀
        1.2.1 基于紋理信息的人臉活體檢測(cè)算法
        1.2.2 基于運(yùn)動(dòng)信息的人臉活體檢測(cè)算法
        1.2.3 基于圖像質(zhì)量和反射的人臉活體檢測(cè)算法
        1.2.4 其他人臉活體檢測(cè)算法
        1.2.5 現(xiàn)有算法的問(wèn)題與挑戰(zhàn)
    1.3 人臉檢測(cè)研究現(xiàn)狀
        1.3.1 基于人工提取特征的人臉檢測(cè)
        1.3.2 基于目標(biāo)檢測(cè)的人臉檢測(cè)
        1.3.3 基于級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)
        1.3.4 現(xiàn)有算法的問(wèn)題與挑戰(zhàn)
    1.4 常用數(shù)據(jù)集與評(píng)價(jià)指標(biāo)
        1.4.1 人臉活體檢測(cè)常用數(shù)據(jù)集
        1.4.2 人臉檢測(cè)數(shù)據(jù)集
        1.4.3 實(shí)驗(yàn)評(píng)價(jià)指標(biāo)
    1.5 論文研究?jī)?nèi)容與論文結(jié)構(gòu)
        1.5.1 論文研究?jī)?nèi)容
        1.5.2 論文組織結(jié)構(gòu)
2 光照魯棒的雙通道融合人臉活體檢測(cè)算法研究
    2.1 相關(guān)技術(shù)與工作
        2.1.1 Retinex算法
        2.1.2 傳統(tǒng)特征融合方法
        2.1.3 注意力機(jī)制
        2.1.4 人臉檢測(cè)預(yù)處理
        2.1.5 特征提取網(wǎng)絡(luò)
    2.2 光照魯棒的雙通道融合卷積神經(jīng)網(wǎng)絡(luò)
        2.2.1 總體模型結(jié)構(gòu)
        2.2.2 雙通道特征提取單元
        2.2.3 基于注意力模型的特征融合單元
    2.3 實(shí)驗(yàn)結(jié)果與分析
        2.3.1 數(shù)據(jù)集
        2.3.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù)
        2.3.3 CASIA-FASD的實(shí)驗(yàn)結(jié)果
        2.3.4 REPLAY-ATTACK的實(shí)驗(yàn)結(jié)果
        2.3.5 OULU-NPU的實(shí)驗(yàn)結(jié)果
        2.3.6 不同融合方法的實(shí)驗(yàn)結(jié)果
        2.3.7 跨庫(kù)實(shí)驗(yàn)結(jié)果
        2.3.8 與文獻(xiàn)中的方法進(jìn)行比較
    2.4 本章小結(jié)
3 基于多層池化特征融合與迭代照度估計(jì)的級(jí)聯(lián)人臉活體檢測(cè)算法研究
    3.1 相關(guān)技術(shù)與工作
        3.1.1 基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)
        3.1.2 基于保邊濾波器的Retinex算法
    3.2 級(jí)聯(lián)檢測(cè)器總體模型結(jié)構(gòu)
    3.3 基于多層池化特征融合的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)
        3.3.1 基于注意力模型的多層池化特征融合
        3.3.2 多任務(wù)損失函數(shù)
    3.4 基于迭代照度估計(jì)的LBP檢測(cè)器
        3.4.1 照度圖像估計(jì)
        3.4.2 光照不敏感特征提取
    3.5 分?jǐn)?shù)融合的級(jí)聯(lián)檢測(cè)器
    3.6 實(shí)驗(yàn)結(jié)果與分析
        3.6.1 數(shù)據(jù)集
        3.6.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù)
        3.6.3 不同損失函數(shù)的實(shí)驗(yàn)結(jié)果
        3.6.4 不同融合方法的實(shí)驗(yàn)結(jié)果
        3.6.5 基于迭代照度估計(jì)的LBP檢測(cè)器的實(shí)驗(yàn)結(jié)果
        3.6.6 跨庫(kù)實(shí)驗(yàn)結(jié)果
        3.6.7 與文獻(xiàn)中的方法進(jìn)行比較
    3.7 本章小結(jié)
4 基于上下文感知的多任務(wù)人臉活體檢測(cè)算法研究
    4.1 相關(guān)技術(shù)與工作
        4.1.1 基于回歸的人臉檢測(cè)算法
        4.1.2 多任務(wù)學(xué)習(xí)
    4.2 基于上下文感知的人臉活體檢測(cè)模型
        4.2.1 總體模型結(jié)構(gòu)
        4.2.2 捷徑特征融合金字塔
        4.2.3 上下文聚合和預(yù)測(cè)模塊
        4.2.4 上下文感知錨點(diǎn)
    4.3 多任務(wù)學(xué)習(xí)策略
        4.3.1 任務(wù)相關(guān)性分析
        4.3.2 圖像尺寸增強(qiáng)模塊
        4.3.3 多任務(wù)損失函數(shù)
    4.4 實(shí)驗(yàn)結(jié)果與分析
        4.4.1 數(shù)據(jù)集
        4.4.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù)
        4.4.3 模型分析
        4.4.4 Widerface的實(shí)驗(yàn)結(jié)果
        4.4.5 CASIA-FASD和REPLAY-ATTACK數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果
        4.4.6 OULU數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果
        4.4.7 跨庫(kù)實(shí)驗(yàn)結(jié)果
        4.4.8 真實(shí)應(yīng)用場(chǎng)景測(cè)試
    4.5 本章小結(jié)
5 總結(jié)與展望
    5.1 總結(jié)
    5.2 展望
參考文獻(xiàn)
發(fā)表文章目錄

(10)人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景和意義
    1.2 研究現(xiàn)狀和內(nèi)容
        1.2.1 人臉三維模型的研究
        1.2.2 美容效果呈現(xiàn)方法
        1.2.3 整形仿真系統(tǒng)的現(xiàn)狀
        1.2.4 研究?jī)?nèi)容
    1.3 課題來(lái)源
    1.4 本文章節(jié)安排
第二章 人臉三維模型的關(guān)鍵特征信息提取
    2.1 人臉檢測(cè)技術(shù)
        2.1.1 人臉檢測(cè)方法分類
        2.1.2 人臉檢測(cè)實(shí)現(xiàn)
    2.2 特征點(diǎn)提取方法
        2.2.1 基于Dlib庫(kù)的特征點(diǎn)提取
        2.2.2 基于Harr分類器的特征點(diǎn)提取
    2.3 本章小結(jié)
第三章 基于紋理的三維人臉模型美化效果的實(shí)現(xiàn)方法
    3.1 人臉模型局部美化設(shè)計(jì)
        3.1.1 基于快速行進(jìn)法的紋理修復(fù)設(shè)計(jì)及其實(shí)現(xiàn)
        3.1.1.1 動(dòng)態(tài)紋理的生成
        3.1.1.2 FMM紋理修復(fù)過(guò)程
        3.1.2 基于像素提取的ROI紋理融合設(shè)計(jì)及實(shí)現(xiàn)
        3.1.2.1 顏色原理與顏色模式
        3.1.2.2 拾取顏色原理及紋理ROI區(qū)域混合
    3.2 人臉模型整體美化設(shè)計(jì)
        3.2.1 膚色檢測(cè)方法設(shè)計(jì)
        3.2.2 基于紋理的磨皮算法設(shè)計(jì)及其實(shí)現(xiàn)
        3.2.3 基于改進(jìn)Gamma變換的紋理像素增強(qiáng)算法
    3.3 本章小結(jié)
第四章 基于紋理的色譜模型設(shè)計(jì)
    4.1 色譜模型設(shè)計(jì)分類
    4.2 基于色度圖的四高三低色譜模型設(shè)計(jì)方法
        4.2.1 色度圖設(shè)計(jì)
        4.2.2 四高三低實(shí)現(xiàn)
    4.3 填充量實(shí)時(shí)精準(zhǔn)色譜實(shí)現(xiàn)方法
    4.4 基于海拔高度的色譜設(shè)計(jì)方法
    4.5 本章小結(jié)
第五章 人臉美學(xué)評(píng)估模型設(shè)計(jì)
    5.1 人臉美學(xué)評(píng)估研究目的和意義
    5.2 人臉美學(xué)評(píng)估設(shè)計(jì)
        5.2.1 面部關(guān)鍵點(diǎn)定義
        5.2.2 面部幾何特征數(shù)據(jù)計(jì)算
    5.3評(píng)估模型的衡量策略及其實(shí)驗(yàn)
        5.3.1 三維人臉模型評(píng)估策略
        5.3.2 評(píng)估模型準(zhǔn)則實(shí)驗(yàn)分析
    5.4 本章小結(jié)
第六章 三維整形導(dǎo)師系統(tǒng)的實(shí)現(xiàn)
    6.1 三維整形導(dǎo)師系統(tǒng)設(shè)計(jì)
    6.2 系統(tǒng)開發(fā)環(huán)境及展示
        6.2.1 系統(tǒng)開發(fā)環(huán)境
        6.2.2 系統(tǒng)架構(gòu)設(shè)計(jì)及主要類的設(shè)計(jì)
        6.2.3 系統(tǒng)操作及仿真結(jié)果展示
    6.3 本章小結(jié)
總結(jié)與展望
    全文總結(jié)
    工作展望
參考文獻(xiàn)
作者在攻讀碩士學(xué)位期間的科研成果
致謝

四、一種基于顏色信息的人臉檢測(cè)方法(論文參考文獻(xiàn))

  • [1]基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 張登奎. 北京郵電大學(xué), 2021(01)
  • [2]基于多特征的靜態(tài)視頻摘要算法研究[D]. 程小雨. 合肥工業(yè)大學(xué), 2021(02)
  • [3]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)[D]. 張蛟嬌. 內(nèi)蒙古大學(xué), 2021(12)
  • [4]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究[D]. 王瑩瑩. 山東大學(xué), 2020(04)
  • [5]基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用[D]. 李倩. 西安郵電大學(xué), 2020(02)
  • [6]基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)[D]. 聶繼生. 北京工業(yè)大學(xué), 2020(06)
  • [7]面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究[D]. 李煥. 重慶理工大學(xué), 2020(08)
  • [8]基于膚色識(shí)別的服裝顏色推薦系統(tǒng)[D]. 李芹. 東華大學(xué), 2020(01)
  • [9]基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究[D]. 陳浩楠. 浙江大學(xué), 2020(01)
  • [10]人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)[D]. 劉家遠(yuǎn). 廣東工業(yè)大學(xué), 2019(02)

標(biāo)簽:;  ;  ;  ;  ;  

一種基于顏色信息的人臉檢測(cè)方法
下載Doc文檔

猜你喜歡