一、一種基于顏色信息的人臉檢測(cè)方法(論文文獻(xiàn)綜述)
張登奎[1](2021)在《基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)》文中研究指明2020年新冠疫情的爆發(fā)給社會(huì)經(jīng)濟(jì)發(fā)展和民眾生命健康帶來(lái)了巨大威脅,口罩和護(hù)目鏡等個(gè)人防護(hù)用品的正確佩戴可以有效降低普通民眾和醫(yī)護(hù)人員感染的風(fēng)險(xiǎn)。在化工、冶煉工作場(chǎng)所和實(shí)驗(yàn)室當(dāng)中,也明確要求佩戴護(hù)目鏡以防止眼部損傷。但目前護(hù)目鏡佩戴情況主要依賴人工檢查,效率低下,耗費(fèi)大量人力,因此設(shè)計(jì)并實(shí)現(xiàn)一個(gè)自動(dòng)化的護(hù)目鏡佩戴檢測(cè)系統(tǒng),檢測(cè)進(jìn)入或停留在特定場(chǎng)所人員的護(hù)目鏡佩戴情況,是十分有必要的。本文結(jié)合實(shí)際應(yīng)用場(chǎng)景,提出了一個(gè)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)算法,通過(guò)改進(jìn)深度殘差網(wǎng)絡(luò)結(jié)構(gòu)及引入Dropout機(jī)制降低過(guò)擬合現(xiàn)象,提高了護(hù)目鏡佩戴情況的分類準(zhǔn)確率。同時(shí)建立了一個(gè)護(hù)目鏡佩戴數(shù)據(jù)集,并提出了一種基于人臉特征點(diǎn)的護(hù)目鏡佩戴圖像合成算法,提高了護(hù)目鏡佩戴檢測(cè)算法的泛化能力。在此基礎(chǔ)上,結(jié)合面部和眼部區(qū)域的分類結(jié)果,設(shè)計(jì)并實(shí)現(xiàn)了一個(gè)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,系統(tǒng)在實(shí)時(shí)性和準(zhǔn)確性方面均滿足實(shí)際場(chǎng)景需求。
程小雨[2](2021)在《基于多特征的靜態(tài)視頻摘要算法研究》文中指出技術(shù)對(duì)于解決視頻數(shù)據(jù)量不斷增長(zhǎng)所帶來(lái)的瀏覽耗時(shí)的問(wèn)題有著重要的意義。視頻摘要即對(duì)視頻的概括,按照生成的摘要形式可以分為靜態(tài)視頻摘要和動(dòng)態(tài)視頻摘要。在實(shí)際工程應(yīng)用中,靜態(tài)視頻摘要技術(shù)更為常用,因此本文主要研究靜態(tài)視頻摘要算法,旨在通過(guò)一定的技術(shù)手段去除視頻中的冗余信息,并選取視頻中最能代表視頻內(nèi)容的關(guān)鍵幀生成簡(jiǎn)短的摘要。本文分析了現(xiàn)有的視頻摘要算法所存在的一些不足之處,然后提出了兩種全新的基于多特征的靜態(tài)視頻摘要算法。(1)針對(duì)于僅僅使用全局特征無(wú)法很好地表示視頻幀間的相似性和差異性的問(wèn)題,本文提出了一種基于顏色特征和目標(biāo)特征相融合的視頻摘要算法。該算法首先提取了視頻幀的顏色直方圖以及目標(biāo)特征并將二者進(jìn)行融合,然后使用聚類算法提取視頻關(guān)鍵幀,最終生成視頻摘要。在兩個(gè)通用的數(shù)據(jù)集上做了實(shí)驗(yàn),結(jié)果證明該方法比先前的一些技術(shù)手段效果要好。(2)為了滿足特定應(yīng)用對(duì)于視頻中人物表情的分析需要,本文提出了一種基于身份特征和表情特征的視頻摘要算法,該算法能夠生成和某一特定人物相關(guān)的基于情緒分析的視頻摘要。首先通過(guò)人臉檢測(cè)和人臉識(shí)別算法,篩選出包含特定人物的表情圖像,然后構(gòu)建了一個(gè)用于表情識(shí)別的卷積神經(jīng)網(wǎng)絡(luò),提取表情特征。最后同樣地使用聚類算法,提取視頻關(guān)鍵幀,生成視頻摘要。在自行構(gòu)建的數(shù)據(jù)集中所做的實(shí)驗(yàn)以及實(shí)際項(xiàng)目中的使用效果表明該算法具有很強(qiáng)的競(jìng)爭(zhēng)性。
張蛟嬌[3](2021)在《基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)》文中進(jìn)行了進(jìn)一步梳理人臉信息被用于各種驗(yàn)證場(chǎng)所,主要是因?yàn)橄啾扔谄渌J(rèn)證手段,人臉信息具有唯一性、實(shí)時(shí)性和難偽造性。跟機(jī)場(chǎng)、火車站等一些大型場(chǎng)所相比,住宅小區(qū)的住戶容量較小,住戶信息較穩(wěn)定,可以更充分發(fā)揮人臉識(shí)別技術(shù)的優(yōu)勢(shì)。本文設(shè)計(jì)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng),實(shí)現(xiàn)無(wú)接觸、快速的門禁檢測(cè)。本文主要對(duì)人臉檢測(cè)、活體檢測(cè)、人臉特征提取和對(duì)比等方面進(jìn)行了學(xué)習(xí)與研究。采用核相關(guān)濾波算法(Kernel Correlation Filter,KCF)和Adaboost融合的方法實(shí)現(xiàn)人臉檢測(cè)。在KCF目標(biāo)跟蹤算法中利用方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征和顏色直方圖特征融合的方法對(duì)跟蹤目標(biāo)進(jìn)行多尺度跟蹤,使其能夠跟蹤檢測(cè)由遠(yuǎn)而近運(yùn)動(dòng)的目標(biāo);之后在目標(biāo)跟蹤框中利用Adaboost算法進(jìn)行人臉檢測(cè)。測(cè)試證明,在同一段視頻中采用KCF+Adaboost融合的方法進(jìn)行人臉檢測(cè)比單獨(dú)使用Adaboost算法收斂速度加快0.7s。采用摩爾紋理和眨眼檢測(cè)融合的方法進(jìn)行活體檢測(cè)。先對(duì)檢測(cè)目標(biāo)進(jìn)行摩爾紋理檢測(cè),若通過(guò)檢測(cè)則進(jìn)行眨眼檢測(cè)。進(jìn)行眨眼檢測(cè)時(shí)首先利用監(jiān)督下降法(Supervised Descent Method,SDM)得到的人臉特征點(diǎn)定位1點(diǎn)的橫坐標(biāo)、3點(diǎn)的縱坐標(biāo)、13點(diǎn)的橫縱坐標(biāo)來(lái)進(jìn)行人眼區(qū)域定位,之后使用Hough圓檢測(cè)方法對(duì)虹膜進(jìn)行檢測(cè)定位,最后通過(guò)比較虹膜區(qū)域和人眼區(qū)域的灰度平均值比值來(lái)判斷眼睛狀態(tài)。通過(guò)對(duì)靜態(tài)的摩爾紋理特征和動(dòng)態(tài)的眨眼特征融合的方法,來(lái)提高活體檢測(cè)的有效率。構(gòu)建了基于深度可分離卷積CNN+Squeeze-and-Excitation(SE)模塊的模型。利用深度可分離卷積來(lái)減少運(yùn)算次數(shù)和降低運(yùn)行時(shí)間,利用SE模塊注意力機(jī)制的網(wǎng)絡(luò)子結(jié)構(gòu)來(lái)加強(qiáng)通道間相關(guān)性的學(xué)習(xí),強(qiáng)化重要通道的特征,弱化非重要通道的特征,最終訓(xùn)練出精確度良好的卷積神經(jīng)網(wǎng)絡(luò)模型?;谝陨戏椒ㄔO(shè)計(jì)出的基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng),經(jīng)過(guò)測(cè)試證明,系統(tǒng)準(zhǔn)確率可達(dá)94.74%。
王瑩瑩[4](2020)在《基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究》文中提出計(jì)算機(jī)技術(shù)的快速發(fā)展促進(jìn)了人工智能和模式識(shí)別技術(shù)的發(fā)展,使其逐漸被生活化,因此,人們對(duì)機(jī)器的智能化需求也越來(lái)越高。人們不僅期望機(jī)器人可以幫助人類完成體力上的工作,還期望機(jī)器人可以判斷人的心理活動(dòng)和真實(shí)意圖,實(shí)現(xiàn)人與計(jì)算機(jī)有感情交流為目標(biāo)的人機(jī)交互過(guò)程,從而更好地服務(wù)于人類。人們?cè)谇楦袀鬟_(dá)時(shí),面部是人們交流的核心部位,在面部區(qū)域中包含了人類大部分的感覺(jué)器官(眼睛、耳朵、鼻子和嘴巴等)。通過(guò)面部傳達(dá)的信息,可以通過(guò)最直接、最自然的方式明白他人的意圖,感受他人的情緒。同時(shí)可以通過(guò)辨識(shí)出對(duì)方的面部表情,判斷其心理活動(dòng)和真實(shí)的意圖。因此,如何讓機(jī)器人快速準(zhǔn)確地識(shí)別人的面部表情,從而獲取人類的真實(shí)意圖,已經(jīng)成為智能人機(jī)交互技術(shù)研究任務(wù)中的一大重點(diǎn)。人臉表情識(shí)別是一種智能的人機(jī)交互技術(shù),在情感計(jì)算中占據(jù)著重要的地位,在國(guó)內(nèi)外受到了許多學(xué)者的密切關(guān)注與研究。目前,圖像分類器的性能有很大程度取決于提取的特征是否有效。卷積神經(jīng)網(wǎng)絡(luò)模型在當(dāng)前計(jì)算機(jī)視覺(jué)和人工智能領(lǐng)域具有顯著的優(yōu)勢(shì),實(shí)現(xiàn)了圖像特征信息的深層提取以及特征提取和分類的同步進(jìn)行。通過(guò)卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)人臉表情識(shí)別進(jìn)行研究,不僅具有重要的理論意義,同時(shí)還具有很大的實(shí)際價(jià)值。本論文以人臉表情識(shí)別技術(shù)的需求為牽引,致力于提高采用卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)人臉表情識(shí)別的準(zhǔn)確性并兼顧計(jì)算效率,首先基于獲取的實(shí)驗(yàn)數(shù)據(jù)集,提出一種減少誤判率的人臉檢測(cè)方法;進(jìn)而提出了一種獲取優(yōu)質(zhì)圖像的數(shù)據(jù)樣本擴(kuò)充方法,用于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,基于表情圖像自身的特點(diǎn)設(shè)計(jì)了相應(yīng)的卷積神經(jīng)網(wǎng)絡(luò)分類器,提升人臉表情的識(shí)別率。論文的主要內(nèi)容及創(chuàng)新點(diǎn)如下:1、提出一種實(shí)現(xiàn)復(fù)雜背景下獲取表情區(qū)域的人臉檢測(cè)方法。由于人臉表情圖像大部分都存在復(fù)雜的背景信息,影響了表情特征信息的有效提取,不利于最終的表情識(shí)別,提出了一種有效的人臉檢測(cè)算法,將有用的圖像信息提取出來(lái)。該算法由兩種檢測(cè)方法聯(lián)合構(gòu)成。首先采用傳統(tǒng)的膚色模型對(duì)臉部表情進(jìn)行初次檢測(cè),然后基于人眼定位的方法輔助調(diào)節(jié)初次誤檢的人臉圖像,減少誤檢率,有效地減少了表情識(shí)別任務(wù)中的很多干擾因素。同時(shí),為了加快人眼定位的快速性,采用圖像區(qū)域分割的方法較少人眼搜索的時(shí)間,加快系統(tǒng)的運(yùn)行速度。2、構(gòu)造出一種減少表情崩塌圖像的生成式對(duì)抗網(wǎng)絡(luò)模型。由于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練離不開大規(guī)模數(shù)據(jù)集樣本的支持,而現(xiàn)有的大部分人臉表情數(shù)據(jù)集的規(guī)模普遍不大,提出了用于數(shù)據(jù)增強(qiáng)的生成式對(duì)抗網(wǎng)絡(luò)模型。該模型由基于神經(jīng)網(wǎng)絡(luò)架構(gòu)的生成器和判別器組成。對(duì)模型的架構(gòu)和目標(biāo)函數(shù)進(jìn)行了優(yōu)化設(shè)計(jì)。此模型的優(yōu)點(diǎn)是可以通過(guò)增大重構(gòu)誤差減少表情崩塌圖像的生成,提升圖像的生成質(zhì)量,為后續(xù)模型的訓(xùn)練做好準(zhǔn)備工作。3、針對(duì)較為夸張明顯的表情圖像數(shù)據(jù)集,提出一種基于關(guān)鍵區(qū)域輔助模型的卷積神經(jīng)網(wǎng)絡(luò)分類器。由于現(xiàn)有的大部分方法只采用人臉的全部圖像作為模型的輸入信息,往往抓不住有利于分類的重點(diǎn)特征信息,提出了輔助模型的方法。首先使用原始臉部圖像獲取第一層的特征信息,然后將關(guān)鍵區(qū)域的特征信息提取出來(lái)與第一層的特征信息進(jìn)行融合,得到有利于表情分類的深層特征,進(jìn)一步提升表情識(shí)別的準(zhǔn)確率。此外,為了減少模型在訓(xùn)練過(guò)程中震蕩的缺點(diǎn),提出了新的分段激活函數(shù)。同時(shí)針對(duì)卷積神經(jīng)網(wǎng)絡(luò)在模型訓(xùn)練過(guò)程中比較耗時(shí)的問(wèn)題,提出一種采用CNN與隨機(jī)森林連接的方式對(duì)表情進(jìn)行分類識(shí)別,為了提升隨機(jī)森林分類器的效率,對(duì)信息增益率的公式進(jìn)行了簡(jiǎn)化,并對(duì)隨機(jī)森林分類器的決策算法進(jìn)行了優(yōu)化,實(shí)現(xiàn)了表情的快速準(zhǔn)確識(shí)別。4、針對(duì)表情容易混淆的樣本數(shù)據(jù)集,提出一種基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)識(shí)別模型,實(shí)現(xiàn)了部分易混淆表情的準(zhǔn)確識(shí)別,此外,在獲取的低維特征信息的融合環(huán)節(jié),采用貪心算法將多種特征信息進(jìn)行融合,降低了維數(shù)災(zāi)難的影響。同時(shí)針對(duì)表情混淆程度較大且很難人為區(qū)分的表情數(shù)據(jù)集,提出一種基于聚類和卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)合的識(shí)別模型,在聚類的過(guò)程中,為了盡最大可能拉大聚類中心的距離,提出了基于固定初始值的角力算法,提升了表情的整體識(shí)別率和每個(gè)類別下表情的識(shí)別率。5、針對(duì)自定義卷積神經(jīng)網(wǎng)絡(luò)模型在構(gòu)建過(guò)程中參數(shù)的調(diào)整耗時(shí)問(wèn)題和傳統(tǒng)遷移算法中存在的內(nèi)容差異問(wèn)題,提出將卷積受限玻爾茲曼機(jī)和卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行融合的方法,得到了一種新的混合遷移算法。因?yàn)椴捎脭?shù)據(jù)增強(qiáng)方法雖然有利于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,但是對(duì)于一些規(guī)模較大的數(shù)據(jù)集,數(shù)據(jù)增強(qiáng)處理過(guò)程也較為復(fù)雜,模型的訓(xùn)練時(shí)間較長(zhǎng),因此本章提出的遷移方法可以更好地應(yīng)用到較大規(guī)模的數(shù)據(jù)集中。該算法利用卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)模型對(duì)源域的初次特征提取,繼而采用目標(biāo)域在初次學(xué)習(xí)特征的基礎(chǔ)上繼續(xù)學(xué)習(xí)更多有利的特征信息,然后采用卷積受限玻爾茲曼機(jī)對(duì)目標(biāo)域?qū)W到的特征進(jìn)行深層挖掘,減小遷移過(guò)程中數(shù)據(jù)集的內(nèi)容差異帶來(lái)的影響,提升目標(biāo)域圖像樣本集的識(shí)別準(zhǔn)確率。此外,為了使卷積受限玻爾茲曼機(jī)在可見(jiàn)層的卷積操作中獲取更加全面的邊緣特征信息,對(duì)其進(jìn)行補(bǔ)零操作的方式。
李倩[5](2020)在《基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用》文中研究指明吸煙危害健康已是眾所周知,在公共場(chǎng)所吸煙不僅關(guān)系到到吸煙者本身,也會(huì)形成二手煙危害周圍人們健康,而且不規(guī)范的吸煙行為還會(huì)誘發(fā)公共場(chǎng)所火災(zāi)的發(fā)生,給社會(huì)各界帶來(lái)不可估計(jì)的損失。因此,加大公共場(chǎng)所禁煙力度已成為不可逆轉(zhuǎn)的趨勢(shì)。但目前基于煙霧傳感器的吸煙檢測(cè)技術(shù)由于通風(fēng)等環(huán)境因素的干擾,檢測(cè)效果并不理想,而基于傳統(tǒng)計(jì)算機(jī)視覺(jué)的吸煙檢測(cè)技術(shù)的檢測(cè)準(zhǔn)確度也不高,所以研究如何快速準(zhǔn)確地進(jìn)行吸煙檢測(cè)變得愈發(fā)迫切。隨著深度學(xué)習(xí)的崛起,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的煙支檢測(cè)技術(shù)被用來(lái)識(shí)別吸煙行為,并取得了一定的成果。然而作為當(dāng)下主要的研究方法,基于CNN的煙支檢測(cè)技術(shù)在實(shí)際場(chǎng)景中經(jīng)常受到諸如吸煙姿態(tài)、光照、復(fù)雜背景等內(nèi)外部干擾因素的影響,檢測(cè)性能有待進(jìn)一步提升。本文主要對(duì)基于卷積神經(jīng)網(wǎng)絡(luò)的煙支檢測(cè)技術(shù)進(jìn)行研究,改善目前煙支檢測(cè)算法中存有的缺陷,提高煙支目標(biāo)識(shí)別的準(zhǔn)確率。主要研究?jī)?nèi)容包括:(1)基于CNN的目標(biāo)檢測(cè)算法是對(duì)視頻逐幀檢測(cè),但由于該類算法存在結(jié)構(gòu)復(fù)雜且參數(shù)多的缺點(diǎn),導(dǎo)致整體檢測(cè)算法過(guò)于復(fù)雜,從而使得檢測(cè)時(shí)間過(guò)長(zhǎng)以及電腦硬件占用率過(guò)高。為此,本文設(shè)計(jì)了一種基于更快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster Region-based Convolution Neural Networks,Faster RCNN)的煙支快速檢測(cè)算法,主要思路為:1)檢測(cè)人臉并將檢測(cè)到的人臉圖片作為煙支檢測(cè)區(qū)域,從而大幅縮小了目標(biāo)檢測(cè)區(qū)域并有效降低了誤檢率;2)基于顏色分割算法對(duì)人臉區(qū)域進(jìn)行煙支初檢,若煙支存在可能性較高,則利用Faster RCNN算法進(jìn)行煙支目標(biāo)細(xì)檢測(cè);若煙支存在可能性很低,則不對(duì)當(dāng)前視頻幀進(jìn)行處理,從而大幅減小Faster RCNN算法的運(yùn)行次數(shù),有效提高檢測(cè)效率并降低了硬件占用率。實(shí)驗(yàn)結(jié)果表明,基于Faster RCNN的煙支快速檢測(cè)算法在保證檢測(cè)精度的前提下,硬件占用率和單張圖片的檢測(cè)時(shí)間都有了明顯的降低,并且在原有算法基礎(chǔ)上將誤檢率降低了約2%。(2)煙支屬于視頻幀圖像中的小目標(biāo),而在CNN深層特征圖中小目標(biāo)的細(xì)節(jié)特征信息經(jīng)常存在過(guò)少甚至完全丟失的問(wèn)題。為此,本文圍繞特征金字塔思想(Feature Pyramid Network,FPN)改進(jìn)現(xiàn)有的特征提取方式,設(shè)計(jì)了一種基于特征融合的煙支特征提取方法。該方法將CNN的淺層局部特征與深層全局特征進(jìn)行融合,從而有效避免小目標(biāo)特征在前向傳播過(guò)程中的丟失問(wèn)題。將該特征融合方法用于Faster RCNN的前向網(wǎng)絡(luò)進(jìn)行煙支檢測(cè),實(shí)驗(yàn)結(jié)果表明,基于特征融合的改進(jìn)Faster RCNN煙支檢測(cè)算法在困難測(cè)試集上,有效降低了煙支目標(biāo)檢測(cè)的漏檢率,提升了檢測(cè)效率。(3)將上述特征融合方法與Faster RCNN的煙支快速檢測(cè)算法相結(jié)合,設(shè)計(jì)了一種基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法。相比于上述兩種算法,結(jié)合后的算法能夠集合以上兩種改進(jìn)策略的優(yōu)勢(shì),在同一數(shù)據(jù)集上同時(shí)降低了目標(biāo)檢測(cè)的誤檢率和漏檢率,取得了更好的檢測(cè)效率。(4)為驗(yàn)證基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法的實(shí)用性,本文搭建了一個(gè)由人臉檢測(cè)與識(shí)別、煙支檢測(cè)、吸煙信息記錄三大模塊構(gòu)成的智能吸煙行為檢測(cè)系統(tǒng),對(duì)提出的算法進(jìn)行了實(shí)際性的應(yīng)用。
聶繼生[6](2020)在《基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)》文中進(jìn)行了進(jìn)一步梳理隨著人類文明的發(fā)展,視頻監(jiān)控作為社會(huì)公共安全防護(hù)中的重要一環(huán),越來(lái)越被研究者們重視,尤其是近年來(lái)人工智能技術(shù)的不斷突破,當(dāng)今社會(huì)對(duì)于智能視頻監(jiān)控也提出了更高的要求。人臉?lè)治黾夹g(shù)在計(jì)算機(jī)視覺(jué)與模式識(shí)別領(lǐng)域的研究與應(yīng)用已經(jīng)非常成功,例如目前已經(jīng)普遍使用的人臉打卡系統(tǒng),手機(jī)人臉解鎖以及智能門禁系統(tǒng)等。然而,人臉?lè)治黾夹g(shù)在視頻監(jiān)控中的應(yīng)用依然還不夠成熟,鑒于其對(duì)于公安部門的刑偵、社會(huì)公共秩序的維護(hù)具有重大意義,再結(jié)合自身工作,本文對(duì)人臉?lè)治黾夹g(shù)及其在視頻監(jiān)控中的應(yīng)用展開研究,主要工作如下:基于AdaBoost的人臉檢測(cè)算法,本文研究和設(shè)計(jì)了一種融合膚色分割技術(shù)的改進(jìn)AdaBoost人臉檢測(cè)算法,該算法提高了人臉檢測(cè)的精確度和速度。AdaBoost算法在訓(xùn)練分類器時(shí)可能會(huì)出現(xiàn)噪聲樣本權(quán)重過(guò)大導(dǎo)致樣本權(quán)重分布扭曲,從而使得集成的強(qiáng)分類器的整體性能降低的退化現(xiàn)象,針對(duì)這個(gè)問(wèn)題本文對(duì)AdaBoost算法的權(quán)重更新方式進(jìn)行了改進(jìn)。同時(shí)針對(duì)訓(xùn)練好的AdaBoost分類器檢測(cè)速度較慢的問(wèn)題,本文提出將膚色分割技術(shù)與改進(jìn)的AdaBoost算法相結(jié)合,利用膚色分割技術(shù)進(jìn)行人臉區(qū)域預(yù)選,然后再利用改進(jìn)的AdaBoost分類器進(jìn)行人臉檢測(cè)?;贑amShift人臉跟蹤算法,本文研究和設(shè)計(jì)了一種改進(jìn)的CamShift人臉跟蹤算法,該算法提高了人臉跟蹤的精確度。CamShift人臉跟蹤算法在跟蹤時(shí)容易受背景顏色影響發(fā)生跟蹤漂移,而且當(dāng)目標(biāo)被嚴(yán)重遮擋時(shí),CamShift算法也無(wú)法對(duì)其進(jìn)行處理最終導(dǎo)致跟蹤失敗。針對(duì)以上問(wèn)題,本文引入跟蹤漂移系數(shù)對(duì)CamShift算法跟蹤時(shí)的搜索窗口進(jìn)行評(píng)估,當(dāng)出現(xiàn)上述問(wèn)題時(shí),結(jié)合膚色分割技術(shù)和LBP特征直方圖對(duì)人臉進(jìn)行重定位,實(shí)現(xiàn)了對(duì)人臉持續(xù)穩(wěn)定的跟蹤。最后,基于改進(jìn)的人臉檢測(cè)和人臉跟蹤算法,再結(jié)合人臉識(shí)別技術(shù),將其應(yīng)用到實(shí)際的視頻監(jiān)控中,設(shè)計(jì)和實(shí)現(xiàn)了一個(gè)基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng),該系統(tǒng)具備人臉檢測(cè)、人臉識(shí)別以及人臉跟蹤功能,能夠?qū)σ曨l監(jiān)控中出現(xiàn)的人臉進(jìn)行檢測(cè)識(shí)別,并能夠?qū)ψR(shí)別出的目標(biāo)人臉進(jìn)行持續(xù)穩(wěn)定的跟蹤。
李煥[7](2020)在《面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究》文中研究說(shuō)明在汽車銷售行業(yè)中,顧客資源是銷售業(yè)績(jī)中重要的組成部分。而如何去甄別潛在顧客,如何收集潛在目標(biāo)客戶的基本資料是汽車銷售的關(guān)鍵所在。隨著計(jì)算機(jī)視覺(jué)技術(shù)的高速發(fā)展,人臉檢測(cè)、人臉跟蹤、人臉識(shí)別技術(shù)被廣泛應(yīng)用于門禁、監(jiān)控、智慧門店等各個(gè)領(lǐng)域。在無(wú)需人工干擾的前提下,如何利用計(jì)算機(jī)視覺(jué)方法,獲取客戶來(lái)店頻次、停留時(shí)間、停留區(qū)域等購(gòu)買意向信息,從而對(duì)顧客進(jìn)行精準(zhǔn)的產(chǎn)品介紹與服務(wù),達(dá)到潛在客戶的識(shí)別和分析,這對(duì)建立潛在客戶消費(fèi)信息、實(shí)現(xiàn)精準(zhǔn)營(yíng)銷具有顯著的意義。本文是以長(zhǎng)安汽車4s店實(shí)際項(xiàng)目為研究背景,利用計(jì)算機(jī)視覺(jué)分析方法甄別潛在客戶的基本信息為需求導(dǎo)向,主要包括以下幾個(gè)方面的內(nèi)容:(1)人臉檢測(cè):提出基于膚色模型與改進(jìn)的AdaBoost算法相結(jié)合的人臉檢測(cè)方法。該方法通過(guò)判斷采集的人臉圖像是否需要光照補(bǔ)償,將圖像由RGB色彩空間轉(zhuǎn)換為膚色聚類特性和分布規(guī)律較好的YCbCr色彩空間,并建立高斯模型并對(duì)圖像進(jìn)行形態(tài)學(xué)處理與形狀篩選,從而得到含有人臉的候選區(qū)域。再將得到的人臉候選區(qū)域由改進(jìn)后的AdaBoost算法進(jìn)行人臉檢測(cè),得到最終的人臉檢測(cè)結(jié)果。實(shí)驗(yàn)結(jié)果表明,該方法能有效降低人臉誤檢率、提高人臉檢測(cè)準(zhǔn)確率;(2)人臉跟蹤:提出基于LBP特征的TLD算法與kalman濾波器相結(jié)合的人臉目標(biāo)跟蹤算法。該算法通過(guò)提取人臉的灰度不變性LBP特性,以增強(qiáng)后續(xù)TLD目標(biāo)跟蹤算法適應(yīng)光照變化場(chǎng)景下人臉跟蹤的準(zhǔn)確性和魯棒性,并針對(duì)實(shí)際應(yīng)用中存在的人臉局部、短時(shí)全遮擋易導(dǎo)致人臉跟蹤失敗的問(wèn)題,提出基于kalman濾波的局部、短時(shí)全遮擋場(chǎng)景下人臉目標(biāo)預(yù)測(cè)跟蹤方法。對(duì)比的實(shí)驗(yàn)結(jié)果表明,基于LBP特征的TLD算法與kalman濾波器相結(jié)合的人臉目標(biāo)跟蹤算法能較好實(shí)現(xiàn)4S店內(nèi)顧客人臉的準(zhǔn)確跟蹤,并在光照變化、人臉局部或短時(shí)全遮擋場(chǎng)景下,該算法均具有較好的魯棒性。依據(jù)建立的人臉跟蹤算法,能實(shí)現(xiàn)顧客進(jìn)店后其人臉圖像的多幀提取,并記錄其進(jìn)店、離店時(shí)間以及感興趣區(qū)域的停留時(shí)間,為后續(xù)潛在客戶的甄別建立了維度信息;(3)無(wú)標(biāo)簽身份識(shí)別:提出基于PCA+LDA的無(wú)標(biāo)簽身份識(shí)別方法。首先對(duì)人臉圖像進(jìn)行直方圖均衡化和人臉幾何歸一化處理,消除光照、姿態(tài)和背景的干擾,使得圖像標(biāo)準(zhǔn)化。其次,采用PCA+LDA算法對(duì)人臉圖像進(jìn)行特征提取,最后使用SVM算法進(jìn)行分類識(shí)別。實(shí)驗(yàn)結(jié)果表明,所提出的無(wú)標(biāo)身份識(shí)別算法具有較好的準(zhǔn)確性;(4)開發(fā)了潛在客戶身份識(shí)別系統(tǒng)。在人臉檢測(cè)、人臉跟蹤、無(wú)標(biāo)簽身份識(shí)別算法研究的基礎(chǔ)上,針對(duì)潛在客戶來(lái)店頻次、停留時(shí)間、感興趣區(qū)域等銷售維度信息,應(yīng)用QT平臺(tái),開發(fā)了面向汽車銷售的潛在客戶甄別系統(tǒng)。該系統(tǒng)能較好提取進(jìn)店顧客的一系列人臉圖像,自動(dòng)記載當(dāng)次入店的時(shí)間、停留時(shí)間和活動(dòng)區(qū)域等維度信息,并依據(jù)歷史無(wú)標(biāo)簽人臉圖像庫(kù),判斷是新客戶還是老客戶,從而為面向汽車銷售的潛在客戶甄別提供了一種有效的計(jì)算機(jī)視覺(jué)分析方法。
李芹[8](2020)在《基于膚色識(shí)別的服裝顏色推薦系統(tǒng)》文中進(jìn)行了進(jìn)一步梳理隨著經(jīng)濟(jì)的快速發(fā)展,用戶日益關(guān)注服裝的個(gè)性化?,F(xiàn)有服裝顏色推薦系統(tǒng)通常基于用戶對(duì)其膚色的主觀判斷推薦相應(yīng)服裝顏色。另一方面,基于用戶個(gè)人喜好和購(gòu)買習(xí)慣的推薦方法,缺乏專業(yè)服裝顏色搭配指導(dǎo)。隨著圖像識(shí)別技術(shù)和深度學(xué)習(xí)的迅速發(fā)展,基于膚色識(shí)別的服裝顏色推薦成為服裝銷售領(lǐng)域的發(fā)展趨勢(shì)。本文所設(shè)計(jì)的基于膚色識(shí)別的服裝顏色推薦系統(tǒng)應(yīng)用圖像識(shí)別技術(shù)對(duì)人臉膚色進(jìn)行分類并根據(jù)分類結(jié)果推薦服裝顏色。首先設(shè)計(jì)基于Unet-FC4-SVM膚色識(shí)別模型降低光照亮度和光源顏色對(duì)膚色識(shí)別準(zhǔn)確率的影響。其次應(yīng)用四季色彩理論對(duì)特定膚色的用戶進(jìn)行服裝顏色推薦。針對(duì)拍攝環(huán)境的光照亮度和光源顏色影響人臉圖片中膚色識(shí)別的問(wèn)題,本文首先設(shè)計(jì)Unet-FC4光照處理模型。其中Unet算法的優(yōu)勢(shì)在于其拼接相同維度的特征以防止信息丟失,實(shí)驗(yàn)結(jié)果表明,基于Unet的光照亮度增強(qiáng)算法,與直方圖均衡化和Retinex算法對(duì)比,在MSE、PSNR、SSIM三種圖像質(zhì)量評(píng)價(jià)指標(biāo)上,其光照亮度增強(qiáng)效果優(yōu)于后兩者算法;另一方面,因FC4算法采用選擇機(jī)制以避免語(yǔ)義不明色塊影響光源顏色估計(jì),模型中所選用的基于FC4的光源顏色去除算法,與白平衡算法對(duì)比,亦在上述三種圖像質(zhì)量評(píng)價(jià)指標(biāo)上優(yōu)于后者。應(yīng)用四季色彩理論中膚色的分類標(biāo)準(zhǔn),本文將人臉膚色分成春夏秋冬四種類型并設(shè)計(jì)基于SVM的多分類器膚色識(shí)別模型。模型中首先應(yīng)用基于Haar特征的人臉檢測(cè)算法和集成回歸樹(Ensemble of Regression Trees,ERT)方法分割用戶臉部的純膚色區(qū)域,獲取有效數(shù)據(jù)達(dá)到數(shù)據(jù)增強(qiáng)與降低干擾的目的;其次提取膚色融合特征,訓(xùn)練基于SVM的多分類器模型。最后,結(jié)合前述Unet-FC4光照處理算法,獲得基于Unet-FC4-SVM的膚色識(shí)別模型。實(shí)驗(yàn)結(jié)果表明,對(duì)比Unet-SVM和FC4-SVM模型,基于Unet-FC4-SVM的膚色識(shí)別模型準(zhǔn)確率最高。本文編程實(shí)現(xiàn)了基于膚色識(shí)別的服裝顏色推薦系統(tǒng)。其中,算法模塊(光照處理、膚色識(shí)別)在TensorFlow深度學(xué)習(xí)框架中應(yīng)用Python語(yǔ)言實(shí)現(xiàn)四季型膚色的識(shí)別。在服裝顏色推薦模塊中基于MySQL數(shù)據(jù)庫(kù)設(shè)計(jì)用戶以及服裝數(shù)據(jù)表的實(shí)體關(guān)系圖,利用對(duì)象存儲(chǔ)系統(tǒng)實(shí)現(xiàn)服裝圖片文件的存儲(chǔ)。最后基于Django網(wǎng)頁(yè)開發(fā)框架實(shí)現(xiàn)用戶交互、算法模塊管理以及服裝顏色推薦等功能。本文所設(shè)計(jì)的基于膚色識(shí)別的服裝顏色推薦系統(tǒng)可以為用戶提供客觀膚色識(shí)別結(jié)果,并在此基礎(chǔ)上給予專業(yè)服裝顏色建議。
陳浩楠[9](2020)在《基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究》文中進(jìn)行了進(jìn)一步梳理隨著人臉識(shí)別技術(shù)的發(fā)展,基于人臉的身份認(rèn)證系統(tǒng)被廣泛應(yīng)用在各個(gè)領(lǐng)域,雖然目前的人臉識(shí)別技術(shù)能夠應(yīng)對(duì)不同情況下的檢測(cè),但是依然難以區(qū)分?jǐn)z像頭前的人臉是真人的還是照片或者視頻。因此,兼顧實(shí)用性和可靠性的人臉活體檢測(cè)技術(shù)是人臉認(rèn)證系統(tǒng)的廣泛應(yīng)用的基礎(chǔ),具有重要的研究?jī)r(jià)值?,F(xiàn)有的算法雖然已經(jīng)取得了不錯(cuò)的檢測(cè)效果,但是仍然面臨諸多難題,如現(xiàn)有方法易受光照的影響;傳統(tǒng)的算法以人臉區(qū)域作為輸入,損失了圖像上下文信息等。針對(duì)上述的問(wèn)題,本文結(jié)合光照一致化和上下文感知對(duì)人臉活體檢測(cè)算法進(jìn)行深入研究,具體的工作和創(chuàng)新點(diǎn)如下:為提高算法的光照魯棒性,本文提出一種光照魯棒的雙通道融合人臉活體檢測(cè)算法。該算法使用了一個(gè)雙通道的卷積神經(jīng)網(wǎng)絡(luò),分通道進(jìn)行特征提取,為了最大化地利用光照一致化后圖像的抵抗光照變化的特性和RGB圖像豐富的紋理信息,提出了一種具有通用性的基于注意力模型的融合方法,將兩種特征的各個(gè)位置加權(quán)融合,得到兼顧光照魯棒性和紋理區(qū)分度的特征用于分類檢測(cè)。實(shí)驗(yàn)證明,相較于現(xiàn)有的算法,本文提出的方法降低了算法的光照敏感性,同時(shí)提高了單庫(kù)性能和泛化能力。針對(duì)現(xiàn)有算法需要以人臉區(qū)域作為輸入,丟失了除人臉外的圖像上下文信息的問(wèn)題,本文提出一種基于多層池化特征融合與迭代照度估計(jì)的級(jí)聯(lián)人臉活體檢測(cè)算法。第一級(jí)檢測(cè)器將人臉活體檢測(cè)拓展成一個(gè)三分類問(wèn)題,用于檢測(cè)真實(shí)人臉、攻擊人臉和背景,用多層池化特征融合來(lái)豐富特征的上下文信息,提高檢測(cè)器性能。第二級(jí)檢測(cè)器利用基于迭代照度估計(jì)的Retinex算法進(jìn)行光照一致化,并將增強(qiáng)后的亮度通道與多色彩通道級(jí)聯(lián)并提取LBP特征,得到具有光照不敏感特征的次級(jí)檢測(cè)器,用于處理上級(jí)檢測(cè)器的難例。本方法與其他算法相比兼顧端到端的檢測(cè)特性和光照魯棒性,具有更優(yōu)檢測(cè)性能。本文進(jìn)一步探索人臉檢測(cè)和人臉活體檢測(cè)的任務(wù)相關(guān)性,提出了一種基于上下文感知的多任務(wù)人臉活體檢測(cè)模型。為了提高小尺寸人臉的檢測(cè)性能,豐富特征的上下文信息和擴(kuò)大特征感受野,對(duì)模型中的檢測(cè)層進(jìn)行捷徑特征金字塔融合和上下文聚合,使深層信息指導(dǎo)淺層信息進(jìn)行檢測(cè)。另外,使用半監(jiān)督的策略獲得頭部和鼻子的上下文監(jiān)督信息,利用鼻子區(qū)域的深度特性進(jìn)行人臉活體檢測(cè),利用人頭區(qū)域的大感受野,增加小尺寸人臉的特征尺寸,提高對(duì)應(yīng)的檢測(cè)性能。與現(xiàn)有方法相比,本算法在人臉檢測(cè)任務(wù)的困難子集上mAP達(dá)到89.1%,在人臉活體檢測(cè)任務(wù)的EER和HTER達(dá)到現(xiàn)有文獻(xiàn)最佳的水平。
劉家遠(yuǎn)[10](2019)在《人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)》文中研究說(shuō)明隨著人民物質(zhì)生活的提高,對(duì)美有了更高的追求??茖W(xué)技術(shù)的發(fā)展,推動(dòng)了醫(yī)美整形手術(shù)的發(fā)展,然而一些醫(yī)美整容機(jī)構(gòu)采用虛擬手術(shù)仿真技術(shù)進(jìn)行對(duì)術(shù)后效果仿真。在術(shù)前咨詢階段,醫(yī)美整形機(jī)構(gòu)不僅對(duì)人臉整形仿真有所要求,對(duì)皮膚美化仿真也有很大的要求,另外對(duì)于整形幅度很小的場(chǎng)景中,醫(yī)美咨詢師不能客觀地去評(píng)價(jià)求美者需要整容的部位,故需要一些輔助面部數(shù)據(jù)進(jìn)行展示。本文中采用虛擬現(xiàn)實(shí)的技術(shù),主要針對(duì)人臉三維信息提取、面部皮膚美化效果、面部變形區(qū)域顯示以及面部整形評(píng)估方案進(jìn)行研究,提出了面部美化設(shè)計(jì)方法、面部的色譜模型設(shè)計(jì)及其人臉評(píng)估方法設(shè)計(jì)。論文的具體工作包括:(1)人臉三維模型的關(guān)鍵特征信息提取:關(guān)鍵特征信息是人臉三維模型在三維空間中的關(guān)鍵特征點(diǎn)位置信息,本文利用Harr分類器對(duì)人臉進(jìn)行檢測(cè),然后基于Dlib對(duì)人臉進(jìn)行特征點(diǎn)提取。實(shí)現(xiàn)了對(duì)三維場(chǎng)景中人臉模型的檢測(cè)及關(guān)鍵特征點(diǎn)提取。(2)紋理的美化效果設(shè)計(jì):美化設(shè)計(jì)主要指對(duì)人臉模型紋理進(jìn)行處理,即紋理局部處理和紋理整體處理。紋理局部處理采用兩種實(shí)現(xiàn)方式,一是基于像素提取的方式進(jìn)行ROI圖像融合;二是基于FMM算法進(jìn)行紋理局部修復(fù)。紋理整體處理采用基于膚色檢測(cè)的磨皮算法,在算法實(shí)施過(guò)程中,為了使效果更佳逼真,本文提出基于改進(jìn)Gamma變換的紋理像素增強(qiáng)算法。(3)紋理的色譜模型設(shè)計(jì):本文提出3種人臉模型的色譜顯示方式,一是基于色度圖的四高三低色譜顯示方式,利用色度圖根據(jù)灰度級(jí)別進(jìn)行對(duì)紋理的色彩映射,然后采用掃描線的填充算法對(duì)人臉的四高三低區(qū)域進(jìn)行填充;二是基于海拔高度的色譜顯示方式,以鼻尖部位為最高點(diǎn),通過(guò)不同顏色呈現(xiàn)不同高度的區(qū)域范圍三是對(duì)微整形中實(shí)時(shí)精準(zhǔn)色譜顯示,通過(guò)網(wǎng)絡(luò)模型頂點(diǎn)坐標(biāo)的變化來(lái)確定其顏色顯示區(qū)域。(4)人臉評(píng)估方法設(shè)計(jì):基于人臉三維關(guān)鍵特征信息對(duì)人臉模型進(jìn)行測(cè)量,得出面部18個(gè)長(zhǎng)度尺寸和5個(gè)角度尺寸,然后根據(jù)三庭五眼、眼眉黃金比例、顳顴黃金比例、顴頜黃金比例等美學(xué)理論提出對(duì)面部、眼眉、鼻子評(píng)估方法。(5)手術(shù)仿真系統(tǒng)設(shè)計(jì):本系統(tǒng)在Unity3D引擎中進(jìn)行開發(fā),并采用MVC的系統(tǒng)框架,該系統(tǒng)可以呈現(xiàn)出面部皮膚美化后的效果、面部進(jìn)行微整形之后整形區(qū)域的精確顯示以及人臉面部微整建議。本文中的關(guān)鍵技術(shù)已經(jīng)應(yīng)用到Beauty100三維整形導(dǎo)師軟件中,已被廣州首源信息科技有限公司使用,取得了良好的效果。
二、一種基于顏色信息的人臉檢測(cè)方法(論文開題報(bào)告)
(1)論文研究背景及目的
此處內(nèi)容要求:
首先簡(jiǎn)單簡(jiǎn)介論文所研究問(wèn)題的基本概念和背景,再而簡(jiǎn)單明了地指出論文所要研究解決的具體問(wèn)題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。
寫法范例:
本文主要提出一款精簡(jiǎn)64位RISC處理器存儲(chǔ)管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過(guò)程。在該MMU結(jié)構(gòu)中,TLB采用叁個(gè)分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲(chǔ)器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁(yè)面大小,采用多級(jí)分層頁(yè)表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級(jí)頁(yè)表轉(zhuǎn)換過(guò)程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲(chǔ)系統(tǒng)實(shí)現(xiàn)的一個(gè)重要組成部分。
(2)本文研究方法
調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對(duì)象的具體信息。
觀察法:用自己的感官和輔助工具直接觀察研究對(duì)象從而得到有關(guān)信息。
實(shí)驗(yàn)法:通過(guò)主支變革、控制研究對(duì)象來(lái)發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。
文獻(xiàn)研究法:通過(guò)調(diào)查文獻(xiàn)來(lái)獲得資料,從而全面的、正確的了解掌握研究方法。
實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。
定性分析法:對(duì)研究對(duì)象進(jìn)行“質(zhì)”的方面的研究,這個(gè)方法需要計(jì)算的數(shù)據(jù)較少。
定量分析法:通過(guò)具體的數(shù)字,使人們對(duì)研究對(duì)象的認(rèn)識(shí)進(jìn)一步精確化。
跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對(duì)某一課題進(jìn)行研究。
功能分析法:這是社會(huì)科學(xué)用來(lái)分析社會(huì)現(xiàn)象的一種方法,從某一功能出發(fā)研究多個(gè)方面的影響。
模擬法:通過(guò)創(chuàng)設(shè)一個(gè)與原型相似的模型來(lái)間接研究原型某種特性的一種形容方法。
三、一種基于顏色信息的人臉檢測(cè)方法(論文提綱范文)
(1)基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.3 論文主要工作 |
1.4 論文組織架構(gòu) |
第二章 相關(guān)技術(shù)簡(jiǎn)介 |
2.1 圖像預(yù)處理技術(shù)概述 |
2.2 人臉檢測(cè)及普通眼鏡檢測(cè)技術(shù)概述 |
2.3 深度學(xué)習(xí)概述 |
2.4 本章小結(jié) |
第三章 基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)算法 |
3.1 改進(jìn)的深度殘差網(wǎng)絡(luò)模型 |
3.1.1 深度殘差網(wǎng)絡(luò)與Dropout機(jī)制 |
3.1.2 包含普通眼鏡分類的預(yù)訓(xùn)練模型 |
3.2 護(hù)目鏡佩戴數(shù)據(jù)集 |
3.2.1 概述 |
3.2.2 護(hù)目鏡佩戴數(shù)據(jù)集的采集與標(biāo)注 |
3.2.3 基于人臉特征點(diǎn)的護(hù)目鏡佩戴圖像合成算法 |
3.3 實(shí)驗(yàn)與結(jié)果 |
3.4 本章小結(jié) |
第四章 護(hù)目鏡佩戴檢測(cè)原型系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) |
4.1 需求分析 |
4.2 系統(tǒng)總體設(shè)計(jì)方案 |
4.3 系統(tǒng)開發(fā)環(huán)境 |
4.4 登錄與管理模塊 |
4.5 人臉檢測(cè)模塊 |
4.6 護(hù)目鏡佩戴檢測(cè)模塊 |
4.7 決策與報(bào)警模塊 |
4.8 系統(tǒng)日志模塊 |
4.9 系統(tǒng)性能評(píng)估 |
4.9.1 系統(tǒng)實(shí)時(shí)性實(shí)驗(yàn) |
4.9.2 系統(tǒng)準(zhǔn)確性實(shí)驗(yàn) |
4.10 本章小結(jié) |
第五章 總結(jié)與未來(lái)工作展望 |
5.1 總結(jié) |
5.2 未來(lái)工作展望 |
參考文獻(xiàn) |
致謝 |
攻讀學(xué)位期間取得的研究成果 |
(2)基于多特征的靜態(tài)視頻摘要算法研究(論文提綱范文)
致謝 |
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景和意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 基于全局特征的視頻摘要方法 |
1.2.2 基于局部特征的視頻摘要方法 |
1.2.3 基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的視頻摘要方法 |
1.2.4 基于多特征的視頻摘要方法 |
1.3 論文研究?jī)?nèi)容 |
1.4 論文結(jié)構(gòu)安排 |
第二章 相關(guān)理論基礎(chǔ) |
2.1 聚類算法 |
2.1.1 原型聚類 |
2.1.2 密度聚類 |
2.1.3 層次聚類 |
2.2 目標(biāo)檢測(cè)算法 |
2.2.1 傳統(tǒng)目標(biāo)檢測(cè)算法 |
2.2.2 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法 |
2.3 人臉檢測(cè)與識(shí)別算法 |
2.4 表情識(shí)別算法 |
2.5 本章總結(jié) |
第三章 基于顏色特征和目標(biāo)特征融合的視頻摘要方法 |
3.1 研究動(dòng)機(jī) |
3.2 算法概述 |
3.3 算法詳細(xì)步驟及說(shuō)明 |
3.3.1 視頻幀預(yù)處理 |
3.3.2 特征提取 |
3.3.3 特征融合 |
3.3.4 DBSCAN聚類 |
3.3.5 關(guān)鍵幀提取 |
3.4 實(shí)驗(yàn)結(jié)果與評(píng)價(jià) |
3.4.1 數(shù)據(jù)集介紹 |
3.4.2 評(píng)價(jià)方法 |
3.4.3 在OVP數(shù)據(jù)集上的評(píng)價(jià) |
3.4.4 在YouTube數(shù)據(jù)集上的評(píng)價(jià) |
3.5 本章總結(jié) |
第四章 基于身份特征和表情特征的視頻摘要方法 |
4.1 引言 |
4.2 算法概述 |
4.3 算法詳細(xì)步驟與設(shè)計(jì) |
4.3.1 視頻幀預(yù)采樣 |
4.3.2 人臉檢測(cè)與對(duì)齊 |
4.3.3 身份認(rèn)證 |
4.3.4 表情特征提取 |
4.3.5 聚類與關(guān)鍵幀提取 |
4.4 實(shí)驗(yàn)結(jié)果與評(píng)價(jià) |
4.4.1 視頻數(shù)據(jù)采集 |
4.4.2 評(píng)價(jià)指標(biāo) |
4.4.3 實(shí)驗(yàn)結(jié)果 |
4.5 本章總結(jié) |
第五章 總結(jié)與展望 |
5.1 總結(jié) |
5.2 展望 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間的學(xué)術(shù)活動(dòng)及成果情況 |
(3)基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)(論文提綱范文)
摘要 |
abstract |
第一章 緒論 |
1.1 研究背景及意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 人臉識(shí)別的研究現(xiàn)狀 |
1.2.2 活體檢測(cè)研究現(xiàn)狀 |
1.3 論文的主要工作及章節(jié)安排 |
第二章 人臉識(shí)別相關(guān)理論基礎(chǔ) |
2.1 卷積神經(jīng)網(wǎng)絡(luò)概述 |
2.1.1 神經(jīng)網(wǎng)絡(luò)層 |
2.1.2 激活函數(shù) |
2.1.3 損失函數(shù) |
2.2 人臉檢測(cè) |
2.2.1 圖像中的人臉檢測(cè)技術(shù) |
2.2.2 視頻中的人臉檢測(cè)技術(shù) |
2.3 活體檢測(cè)方法 |
2.3.1 使用視覺(jué)動(dòng)力學(xué)檢測(cè)面部欺騙 |
2.3.2 使用顏色紋理分析的面部欺騙檢測(cè) |
2.3.3 使用LSTM-CNN架構(gòu)學(xué)習(xí)時(shí)態(tài)特征以進(jìn)行面部反欺詐 |
2.3.4 增加硬件設(shè)備以進(jìn)行面部反欺詐 |
2.4 人臉特征提取和對(duì)比 |
2.4.1 特征臉?lè)?/td> |
2.4.2 LBPH算法 |
2.4.3 基于卷積神經(jīng)網(wǎng)絡(luò)模型的方法 |
2.5 本章小結(jié) |
第三章 系統(tǒng)需求分析 |
3.1 需求分析和用例設(shè)計(jì) |
3.1.1 用戶角色分析 |
3.1.2 應(yīng)用場(chǎng)景分析 |
3.1.3 用例分析 |
3.2 系統(tǒng)功能分析 |
3.2.1 系統(tǒng)框架 |
3.2.2 系統(tǒng)功能分析 |
3.3 本章小結(jié) |
第四章 算法研究 |
4.1 KCF和Adaboost融合的人臉檢測(cè)方法 |
4.1.1 KCF跟蹤算法 |
4.1.2 Adaboost算法 |
4.1.3 KCF和 Adaboost融合的人臉檢測(cè)算法 |
4.2 人臉活體檢測(cè) |
4.2.1 摩爾紋理檢測(cè) |
4.2.2 眨眼檢測(cè) |
4.2.3 摩爾紋理和眨眼檢測(cè)融合的活體檢測(cè)方法 |
4.3 人臉特征提取方法 |
4.3.1 深度可分離卷積 |
4.3.2 SE(Squeeze-and-Excitation)模塊 |
4.3.3 基于深度可分離卷積和SE模塊的CNN結(jié)構(gòu) |
4.4 本章小結(jié) |
第五章 算法驗(yàn)證與分析 |
5.1 測(cè)試環(huán)境 |
5.2 系統(tǒng)整體運(yùn)行流程 |
5.2.1 界面設(shè)計(jì) |
5.2.2 人臉注冊(cè) |
5.3 測(cè)試樣本集 |
5.4 人臉檢測(cè)算法測(cè)試 |
5.4.1 測(cè)試方案 |
5.4.2 測(cè)試結(jié)果 |
5.4.3 結(jié)果分析 |
5.5 活體檢測(cè)算法測(cè)試 |
5.5.1 測(cè)試方案 |
5.5.2 測(cè)試結(jié)果 |
5.5.3 結(jié)果分析 |
5.6 人臉識(shí)別性能測(cè)試 |
5.6.1 測(cè)試方案 |
5.6.2 測(cè)試結(jié)果 |
5.6.3 結(jié)果分析 |
5.7 本章小結(jié) |
第六章 總結(jié)與展望 |
參考文獻(xiàn) |
致謝 |
攻讀碩士學(xué)位期間參與的科研項(xiàng)目 |
(4)基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究(論文提綱范文)
摘要 |
ABSTRACT |
縮略詞注釋表 |
第一章 緒論 |
1.1 論文選題背景及意義 |
1.2 人臉檢測(cè)的研究現(xiàn)狀 |
1.2.1 基于顯式特征的方法 |
1.2.2 基于隱式特征的方法 |
1.3 數(shù)據(jù)增強(qiáng)的研究現(xiàn)狀 |
1.4 卷積神經(jīng)網(wǎng)絡(luò)模型的研究現(xiàn)狀 |
1.5 人臉表情識(shí)別的研究現(xiàn)狀 |
1.6 論文主要研究?jī)?nèi)容及創(chuàng)新點(diǎn) |
1.7 論文章節(jié)安排 |
第二章 基于人眼定位和膚色模型的快速人臉檢測(cè)方法 |
2.1 引言 |
2.2 光照補(bǔ)償 |
2.3 基于YCbCr色彩空間的膚色模型 |
2.3.1 色彩空間 |
2.3.2 膚色模型 |
2.4 形態(tài)學(xué)處理 |
2.4.1 腐蝕 |
2.4.2 膨脹 |
2.5 人眼定位的模板匹配算法 |
2.5.1 一般的人眼定位模板匹配算法 |
2.5.2 提高模板匹配的處理速度 |
2.6 實(shí)驗(yàn)分析 |
2.6.1 實(shí)驗(yàn)數(shù)據(jù)集和實(shí)驗(yàn)效果 |
2.6.2 實(shí)驗(yàn)結(jié)果分析 |
2.7 本章小結(jié) |
第三章 基于滑動(dòng)模塊的人臉表情圖像生成模型 |
3.1 引言 |
3.2 生成式對(duì)抗網(wǎng)絡(luò)的任務(wù) |
3.3 人臉表情圖像生成模型結(jié)構(gòu) |
3.4 人臉表情圖像生成模型穩(wěn)定訓(xùn)練的策略 |
3.5 AR-droupout的提出 |
3.6 人臉表情圖像生成模型目標(biāo)函數(shù)的設(shè)計(jì) |
3.7 仿真與實(shí)驗(yàn) |
3.7.1 原始數(shù)據(jù)集 |
3.7.2 圖像生成 |
3.8 本章小結(jié) |
第四章 基于關(guān)鍵區(qū)域輔助卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別 |
4.1 引言 |
4.2 卷積神經(jīng)網(wǎng)絡(luò)模型 |
4.2.1 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 |
4.2.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) |
4.2.3 卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法 |
4.3 基于關(guān)鍵區(qū)域輔助的卷積神經(jīng)網(wǎng)絡(luò)模型 |
4.3.1 表情子區(qū)域卷積模型的建立 |
4.3.2 分段激活函數(shù)的設(shè)計(jì) |
4.3.3 輔助加權(quán)特征提取模型的建立 |
4.3.4 基于輔助任務(wù)的深度卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練 |
4.4 基于卷積特征和隨機(jī)森林分類器結(jié)合的識(shí)別模型 |
4.4.1 決策樹的介紹 |
4.4.2 隨機(jī)森林分類器 |
4.4.3 基于隨機(jī)森林的表情分類器 |
4.4.4 CNN-隨機(jī)森林人臉表情識(shí)別算法設(shè)計(jì) |
4.5 實(shí)驗(yàn)分析 |
4.5.1 基于輔助模型的實(shí)驗(yàn)結(jié)果分析和對(duì)比 |
4.5.2 基于卷積特征和隨機(jī)森林的實(shí)驗(yàn)結(jié)果分析和對(duì)比 |
4.6 本章小結(jié) |
第五章 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別 |
5.1 引言 |
5.2 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型 |
5.2.1 易混淆表情的分類 |
5.2.2 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的構(gòu)建 |
5.2.3 低維特征信息的提取 |
5.2.4 高維混合特征信息的提取 |
5.2.5 級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和識(shí)別 |
5.3 基于聚類和卷積神經(jīng)網(wǎng)絡(luò)模型融合的表情識(shí)別 |
5.3.1 聚類算法 |
5.3.2 基于初始值固定的聚類算法 |
5.3.3 基于聚類和卷積融合的模型架構(gòu) |
5.4 仿真實(shí)驗(yàn)和數(shù)據(jù)分析 |
5.4.1 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)模型的表情識(shí)別結(jié)果驗(yàn)證和分析 |
5.4.2 基于聚類卷積神經(jīng)網(wǎng)絡(luò)模型的表情識(shí)別結(jié)果驗(yàn)證和分析 |
5.5 本章小結(jié) |
第六章 基于卷積受限玻爾茲曼機(jī)的混合遷移卷積神經(jīng)網(wǎng)絡(luò)模型的人臉表情識(shí)別 |
6.1 引言 |
6.2 新遷移學(xué)習(xí)算法的提出 |
6.2.1 遷移學(xué)習(xí)的四種情況 |
6.2.2 基于多次微調(diào)的遷移學(xué)習(xí)新方法 |
6.3 基于混合遷移的卷積神經(jīng)網(wǎng)絡(luò)模型 |
6.3.1 受限玻爾茲曼機(jī)模型 |
6.3.2 卷積受限玻爾茲曼機(jī)模型 |
6.3.3 CNN模型的預(yù)訓(xùn)練 |
6.3.4 混合遷移模型的構(gòu)建 |
6.3.5 混合遷移模型的訓(xùn)練 |
6.4 實(shí)驗(yàn)驗(yàn)證 |
6.4.1 數(shù)據(jù)集描述 |
6.4.2 實(shí)驗(yàn)比較 |
6.5 本章小結(jié) |
第七章 總結(jié)與展望 |
7.1 總結(jié) |
7.2 展望 |
參考文獻(xiàn) |
致謝 |
攻讀博士學(xué)位期間發(fā)表的學(xué)術(shù)論文 |
攻讀博士學(xué)位期間參加的科研項(xiàng)目 |
學(xué)位論文評(píng)閱及答辯情況表 |
(5)基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用(論文提綱范文)
摘要 |
ABSTRACT |
第1章 緒論 |
1.1 研究背景及其意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 基于煙霧傳感器的吸煙檢測(cè)技術(shù) |
1.2.2 基于計(jì)算機(jī)視覺(jué)的吸煙煙霧檢測(cè)技術(shù) |
1.2.3 基于計(jì)算機(jī)視覺(jué)的煙支目標(biāo)檢測(cè)技術(shù) |
1.3 本文的主要研究?jī)?nèi)容與組織結(jié)構(gòu) |
1.3.1 主要研究?jī)?nèi)容 |
1.3.2 本文組織結(jié)構(gòu) |
1.4 本章小結(jié) |
第2章 深度學(xué)習(xí)理論及目標(biāo)檢測(cè)算法概述 |
2.1 深度學(xué)習(xí)理論 |
2.2 卷積神經(jīng)網(wǎng)絡(luò) |
2.2.1 卷積層 |
2.2.2 激活函數(shù) |
2.2.3 池化層 |
2.2.4 全連接層 |
2.2.5 模型訓(xùn)練 |
2.3 目標(biāo)檢測(cè)算法概述 |
2.3.1 傳統(tǒng)目標(biāo)檢測(cè)算法 |
2.3.2 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法 |
2.4 本章小結(jié) |
第3章 基于Faster RCNN的煙支快速檢測(cè)算法 |
3.1 基于MTCNN的人臉檢測(cè) |
3.2 基于顏色分割的煙支初檢算法 |
3.2.1 HSV顏色分割算法 |
3.2.2 基于顏色分割的煙支初檢算法 |
3.3 基于Faster RCNN的煙支快速檢測(cè)算法 |
3.4 實(shí)驗(yàn)結(jié)果與分析 |
3.4.1 數(shù)據(jù)集制作及評(píng)價(jià)指標(biāo) |
3.4.2 實(shí)驗(yàn)結(jié)果與分析 |
3.5 本章小結(jié) |
第4章 基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法 |
4.1 基于特征融合的改進(jìn)Faster RCNN煙支檢測(cè)算法 |
4.1.1 深度網(wǎng)絡(luò)多尺度特征融合概述 |
4.1.2 FPN多尺度特征融合機(jī)制 |
4.1.3 基于改進(jìn)FPN的目標(biāo)特征融合策略 |
4.2 基于特征融合的改進(jìn)Faster RCNN煙支快速檢測(cè)算法 |
4.3 實(shí)驗(yàn)結(jié)果與分析 |
4.4 本章小結(jié) |
第5章 智能吸煙行為檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) |
5.1 開發(fā)環(huán)境 |
5.2 系統(tǒng)架構(gòu) |
5.3 系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn) |
5.3.1 系統(tǒng)設(shè)計(jì) |
5.3.2 系統(tǒng)實(shí)現(xiàn)與界面展示 |
5.4 系統(tǒng)性能測(cè)試與分析 |
5.5 本章小結(jié) |
第6章 總結(jié)與展望 |
6.1 本文總結(jié) |
6.2 工作展望 |
參考文獻(xiàn) |
攻讀學(xué)位期間取得的研究成果 |
致謝 |
(6)基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)(論文提綱范文)
摘要 |
Abstract |
第1章 緒論 |
1.1 課題背景及研究意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 視頻監(jiān)控系統(tǒng)研究現(xiàn)狀 |
1.2.2 人臉檢測(cè)算法研究現(xiàn)狀 |
1.2.3 人臉跟蹤算法研究現(xiàn)狀 |
1.3 本文主要內(nèi)容 |
1.4 論文組織結(jié)構(gòu) |
第2章 人臉檢測(cè)及識(shí)別相關(guān)技術(shù)研究 |
2.1 圖像預(yù)處理技術(shù) |
2.1.1 色彩空間轉(zhuǎn)換 |
2.1.2 光照補(bǔ)償 |
2.1.3 形態(tài)學(xué)操作 |
2.2 基于膚色分割的人臉檢測(cè)算法 |
2.2.1 建立膚色模型 |
2.2.2 人臉區(qū)域篩選 |
2.3 LBP人臉識(shí)別算法 |
2.3.1 LBP特征提取 |
2.3.2 LBP改進(jìn)版本 |
2.3.3 LBP特征匹配 |
2.4 本章小結(jié) |
第3章 基于AdaBoost的人臉檢測(cè)算法研究 |
3.1 AdaBoost人臉檢測(cè)算法 |
3.1.1 Haar-like特征 |
3.1.2 積分圖計(jì)算 |
3.1.3 分類器的訓(xùn)練 |
3.1.4 級(jí)聯(lián)分類器 |
3.2 對(duì)AdaBoost人臉檢測(cè)算法的改進(jìn) |
3.2.1 AdaBoost分類器訓(xùn)練過(guò)程中的不足 |
3.2.2 改進(jìn)的AdaBoost算法 |
3.2.3 融合膚色分割 |
3.3 改進(jìn)算法驗(yàn)證 |
3.3.1 實(shí)驗(yàn)環(huán)境及數(shù)據(jù)集準(zhǔn)備 |
3.3.2 實(shí)驗(yàn)結(jié)果與分析 |
3.4 本章小結(jié) |
第4章 基于CamShift的人臉跟蹤算法研究 |
4.1 CamShift人臉跟蹤算法 |
4.1.1 直方圖反向投影 |
4.1.2 Mean Shift算法 |
4.1.3 CamShift跟蹤算法 |
4.2 對(duì)CamShift人臉跟蹤算法的改進(jìn) |
4.2.1 CamShift人臉跟蹤算法的不足 |
4.2.2 改進(jìn)的CamShift人臉跟蹤算法 |
4.3 實(shí)驗(yàn)結(jié)果與分析 |
4.3.1 遮擋場(chǎng)景實(shí)驗(yàn)結(jié)果與分析 |
4.3.2 光照變化場(chǎng)景實(shí)驗(yàn)結(jié)果與分析 |
4.3.3 人臉交叉復(fù)雜場(chǎng)景實(shí)驗(yàn)結(jié)果與分析 |
4.4 本章小結(jié) |
第5章 基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)總體設(shè)計(jì) |
5.1 系統(tǒng)需求分析 |
5.1.1 系統(tǒng)應(yīng)用場(chǎng)景 |
5.1.2 系統(tǒng)功能性需求 |
5.1.3 系統(tǒng)性能需求 |
5.2 系統(tǒng)架構(gòu)設(shè)計(jì) |
5.2.1 系統(tǒng)總體架構(gòu) |
5.2.2 系統(tǒng)模塊架構(gòu) |
5.3 系統(tǒng)總體設(shè)計(jì) |
5.4 本章小結(jié) |
第6章 基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)詳細(xì)設(shè)計(jì)及實(shí)現(xiàn) |
6.1 系統(tǒng)開發(fā)環(huán)境 |
6.2 各功能模塊設(shè)計(jì)與實(shí)現(xiàn) |
6.2.1 人臉信息管理模塊 |
6.2.2 人臉檢測(cè)模塊 |
6.2.3 人臉識(shí)別模塊 |
6.2.4 人臉跟蹤模塊 |
6.3 系統(tǒng)界面設(shè)計(jì) |
6.3.1 系統(tǒng)主界面 |
6.3.2 實(shí)時(shí)視頻跟蹤界面 |
6.3.3 本地視頻跟蹤界面 |
6.4 系統(tǒng)測(cè)試及性能分析 |
6.4.1 系統(tǒng)穩(wěn)定性測(cè)試 |
6.4.2 系統(tǒng)性能測(cè)試及分析 |
6.5 本章小結(jié) |
結(jié)論 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間取得的研究成果 |
致謝 |
(7)面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究(論文提綱范文)
摘要 |
Abstract |
1.緒論 |
1.1 課題的背景、目標(biāo)及意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 人臉檢測(cè) |
1.2.2 人臉跟蹤 |
1.2.3 人臉識(shí)別 |
1.3 論文的主要工作及結(jié)構(gòu) |
1.3.1 論文主要工作 |
1.3.2 論文結(jié)構(gòu) |
2.汽車銷售店進(jìn)店顧客的人臉自適應(yīng)檢測(cè)算法研究 |
2.1 引言 |
2.2 基于膚色特征的人臉檢測(cè) |
2.2.1 顏色空間 |
2.2.2 膚色區(qū)域模型 |
2.2.3 圖像預(yù)處理及膚色分隔 |
2.3 基于AdaBoost算法的人臉檢測(cè) |
2.3.1 Harr-like矩陣特征 |
2.3.2 積分圖 |
2.3.3 分類器的設(shè)計(jì) |
2.3.4 級(jí)聯(lián)分類器結(jié)構(gòu) |
2.4 基于膚色特征與AdaBoost算法相結(jié)合的顧客人臉檢測(cè)方法 |
2.5 實(shí)驗(yàn)結(jié)果分析 |
2.6 本章小結(jié) |
3.汽車銷售店進(jìn)店顧客的人臉跟蹤算法研究 |
3.1 引言 |
3.2 常用的人臉跟蹤算法及其優(yōu)缺點(diǎn) |
3.3 進(jìn)店顧客人臉跟蹤算法 |
3.3.1 進(jìn)店顧客跟蹤的關(guān)鍵問(wèn)題研究 |
3.3.2 TLD算法 |
3.4 改進(jìn)的TLD算法 |
3.4.1 LBP算法 |
3.4.2 Kalman濾波器算法 |
3.4.3 改進(jìn)的TLD算法實(shí)現(xiàn) |
3.5 TLD自適應(yīng)跟蹤潛在客戶維度信息提取 |
3.5.1 區(qū)域維度信息提取 |
3.6 實(shí)驗(yàn)結(jié)果及分析 |
3.7 本章小結(jié) |
4.無(wú)標(biāo)簽身份客戶信息研究 |
4.1 引言 |
4.2 無(wú)標(biāo)簽顧客身份識(shí)別 |
4.2.1 無(wú)標(biāo)簽潛在客戶身份識(shí)別的關(guān)鍵問(wèn)題研究 |
4.2.2 人臉識(shí)別算法研究 |
4.2.3 人臉圖像預(yù)處理 |
4.2.4 人臉特征提取 |
4.2.5 SVM分類器 |
4.3 汽車銷售店潛在顧客身份識(shí)別算法實(shí)現(xiàn) |
4.4 實(shí)驗(yàn)結(jié)果與分析 |
4.5 本章小結(jié) |
5.潛在客戶甄別系統(tǒng)的實(shí)現(xiàn) |
5.1 系統(tǒng)總體架構(gòu) |
5.2 系統(tǒng)實(shí)現(xiàn) |
5.2.1 系統(tǒng)開發(fā)環(huán)境 |
5.2.2 系統(tǒng)詳細(xì)設(shè)計(jì) |
5.3 系統(tǒng)運(yùn)行界面 |
5.4 本章小結(jié) |
6.總結(jié)與展望 |
6.1 總結(jié) |
6.2 展望 |
致謝 |
參考文獻(xiàn) |
個(gè)人簡(jiǎn)歷、在學(xué)期間發(fā)表的學(xué)術(shù)論文及取得的研究成果 |
(8)基于膚色識(shí)別的服裝顏色推薦系統(tǒng)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 引言 |
1.2 研究背景與意義 |
1.3 國(guó)內(nèi)外研究現(xiàn)狀 |
1.3.1 光照處理的研究現(xiàn)狀 |
1.3.2 人臉檢測(cè)的研究現(xiàn)狀 |
1.3.3 膚色識(shí)別的研究現(xiàn)狀 |
1.3.4 服裝顏色推薦系統(tǒng)研究現(xiàn)狀 |
1.4 本文研究?jī)?nèi)容和創(chuàng)新點(diǎn) |
1.5 章節(jié)安排 |
第二章 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)概述 |
2.1 引言 |
2.2 系統(tǒng)的需求分析 |
2.3 系統(tǒng)設(shè)計(jì) |
2.3.1 系統(tǒng)結(jié)構(gòu)設(shè)計(jì) |
2.3.2 功能模塊設(shè)計(jì) |
2.3.3 交互流程設(shè)計(jì) |
2.4 本章小結(jié) |
第三章 基于Unet-FC~4 算法的光照處理模型 |
3.1 引言 |
3.2 光照處理模型設(shè)計(jì) |
3.3 基于Unet的光照亮度增強(qiáng)算法設(shè)計(jì) |
3.4 基于FC~4的光源顏色去除算法設(shè)計(jì) |
3.5 本章小結(jié) |
第四章 基于SVM的膚色分類模型 |
4.1 引言 |
4.2 四季型膚色分類 |
4.3 基于SVM的膚色分類模型設(shè)計(jì) |
4.3.1 基于Haar特征的人臉檢測(cè) |
4.3.2 基于ERT的關(guān)鍵區(qū)域分割 |
4.3.3 提取膚色特征 |
4.3.4 基于SVM的膚色分類 |
4.4 基于Unet-FC4-SVM的膚色分類實(shí)驗(yàn)結(jié)果與分析 |
4.5 本章小結(jié) |
第五章 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)的實(shí)現(xiàn) |
5.1 引言 |
5.2 系統(tǒng)的開發(fā)環(huán)境 |
5.3 算法模塊的實(shí)現(xiàn) |
5.3.1 光照模塊的實(shí)現(xiàn) |
5.3.2 膚色識(shí)別模塊的實(shí)現(xiàn) |
5.4 服裝顏色推薦模塊的實(shí)現(xiàn) |
5.5 用戶交互模塊展示 |
5.6 基于膚色識(shí)別的服裝顏色推薦系統(tǒng)評(píng)價(jià) |
5.7 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 總結(jié) |
6.2 展望 |
參考文獻(xiàn) |
附錄 |
攻讀碩士期間研究成果 |
致謝 |
(9)基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究(論文提綱范文)
致謝 |
摘要 |
Abstract |
1 緒論 |
1.1 研究背景和研究意義 |
1.2 人臉活體檢測(cè)研究現(xiàn)狀 |
1.2.1 基于紋理信息的人臉活體檢測(cè)算法 |
1.2.2 基于運(yùn)動(dòng)信息的人臉活體檢測(cè)算法 |
1.2.3 基于圖像質(zhì)量和反射的人臉活體檢測(cè)算法 |
1.2.4 其他人臉活體檢測(cè)算法 |
1.2.5 現(xiàn)有算法的問(wèn)題與挑戰(zhàn) |
1.3 人臉檢測(cè)研究現(xiàn)狀 |
1.3.1 基于人工提取特征的人臉檢測(cè) |
1.3.2 基于目標(biāo)檢測(cè)的人臉檢測(cè) |
1.3.3 基于級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè) |
1.3.4 現(xiàn)有算法的問(wèn)題與挑戰(zhàn) |
1.4 常用數(shù)據(jù)集與評(píng)價(jià)指標(biāo) |
1.4.1 人臉活體檢測(cè)常用數(shù)據(jù)集 |
1.4.2 人臉檢測(cè)數(shù)據(jù)集 |
1.4.3 實(shí)驗(yàn)評(píng)價(jià)指標(biāo) |
1.5 論文研究?jī)?nèi)容與論文結(jié)構(gòu) |
1.5.1 論文研究?jī)?nèi)容 |
1.5.2 論文組織結(jié)構(gòu) |
2 光照魯棒的雙通道融合人臉活體檢測(cè)算法研究 |
2.1 相關(guān)技術(shù)與工作 |
2.1.1 Retinex算法 |
2.1.2 傳統(tǒng)特征融合方法 |
2.1.3 注意力機(jī)制 |
2.1.4 人臉檢測(cè)預(yù)處理 |
2.1.5 特征提取網(wǎng)絡(luò) |
2.2 光照魯棒的雙通道融合卷積神經(jīng)網(wǎng)絡(luò) |
2.2.1 總體模型結(jié)構(gòu) |
2.2.2 雙通道特征提取單元 |
2.2.3 基于注意力模型的特征融合單元 |
2.3 實(shí)驗(yàn)結(jié)果與分析 |
2.3.1 數(shù)據(jù)集 |
2.3.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù) |
2.3.3 CASIA-FASD的實(shí)驗(yàn)結(jié)果 |
2.3.4 REPLAY-ATTACK的實(shí)驗(yàn)結(jié)果 |
2.3.5 OULU-NPU的實(shí)驗(yàn)結(jié)果 |
2.3.6 不同融合方法的實(shí)驗(yàn)結(jié)果 |
2.3.7 跨庫(kù)實(shí)驗(yàn)結(jié)果 |
2.3.8 與文獻(xiàn)中的方法進(jìn)行比較 |
2.4 本章小結(jié) |
3 基于多層池化特征融合與迭代照度估計(jì)的級(jí)聯(lián)人臉活體檢測(cè)算法研究 |
3.1 相關(guān)技術(shù)與工作 |
3.1.1 基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò) |
3.1.2 基于保邊濾波器的Retinex算法 |
3.2 級(jí)聯(lián)檢測(cè)器總體模型結(jié)構(gòu) |
3.3 基于多層池化特征融合的區(qū)域卷積神經(jīng)網(wǎng)絡(luò) |
3.3.1 基于注意力模型的多層池化特征融合 |
3.3.2 多任務(wù)損失函數(shù) |
3.4 基于迭代照度估計(jì)的LBP檢測(cè)器 |
3.4.1 照度圖像估計(jì) |
3.4.2 光照不敏感特征提取 |
3.5 分?jǐn)?shù)融合的級(jí)聯(lián)檢測(cè)器 |
3.6 實(shí)驗(yàn)結(jié)果與分析 |
3.6.1 數(shù)據(jù)集 |
3.6.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù) |
3.6.3 不同損失函數(shù)的實(shí)驗(yàn)結(jié)果 |
3.6.4 不同融合方法的實(shí)驗(yàn)結(jié)果 |
3.6.5 基于迭代照度估計(jì)的LBP檢測(cè)器的實(shí)驗(yàn)結(jié)果 |
3.6.6 跨庫(kù)實(shí)驗(yàn)結(jié)果 |
3.6.7 與文獻(xiàn)中的方法進(jìn)行比較 |
3.7 本章小結(jié) |
4 基于上下文感知的多任務(wù)人臉活體檢測(cè)算法研究 |
4.1 相關(guān)技術(shù)與工作 |
4.1.1 基于回歸的人臉檢測(cè)算法 |
4.1.2 多任務(wù)學(xué)習(xí) |
4.2 基于上下文感知的人臉活體檢測(cè)模型 |
4.2.1 總體模型結(jié)構(gòu) |
4.2.2 捷徑特征融合金字塔 |
4.2.3 上下文聚合和預(yù)測(cè)模塊 |
4.2.4 上下文感知錨點(diǎn) |
4.3 多任務(wù)學(xué)習(xí)策略 |
4.3.1 任務(wù)相關(guān)性分析 |
4.3.2 圖像尺寸增強(qiáng)模塊 |
4.3.3 多任務(wù)損失函數(shù) |
4.4 實(shí)驗(yàn)結(jié)果與分析 |
4.4.1 數(shù)據(jù)集 |
4.4.2 實(shí)驗(yàn)設(shè)置與評(píng)價(jià)參數(shù) |
4.4.3 模型分析 |
4.4.4 Widerface的實(shí)驗(yàn)結(jié)果 |
4.4.5 CASIA-FASD和REPLAY-ATTACK數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果 |
4.4.6 OULU數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果 |
4.4.7 跨庫(kù)實(shí)驗(yàn)結(jié)果 |
4.4.8 真實(shí)應(yīng)用場(chǎng)景測(cè)試 |
4.5 本章小結(jié) |
5 總結(jié)與展望 |
5.1 總結(jié) |
5.2 展望 |
參考文獻(xiàn) |
發(fā)表文章目錄 |
(10)人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景和意義 |
1.2 研究現(xiàn)狀和內(nèi)容 |
1.2.1 人臉三維模型的研究 |
1.2.2 美容效果呈現(xiàn)方法 |
1.2.3 整形仿真系統(tǒng)的現(xiàn)狀 |
1.2.4 研究?jī)?nèi)容 |
1.3 課題來(lái)源 |
1.4 本文章節(jié)安排 |
第二章 人臉三維模型的關(guān)鍵特征信息提取 |
2.1 人臉檢測(cè)技術(shù) |
2.1.1 人臉檢測(cè)方法分類 |
2.1.2 人臉檢測(cè)實(shí)現(xiàn) |
2.2 特征點(diǎn)提取方法 |
2.2.1 基于Dlib庫(kù)的特征點(diǎn)提取 |
2.2.2 基于Harr分類器的特征點(diǎn)提取 |
2.3 本章小結(jié) |
第三章 基于紋理的三維人臉模型美化效果的實(shí)現(xiàn)方法 |
3.1 人臉模型局部美化設(shè)計(jì) |
3.1.1 基于快速行進(jìn)法的紋理修復(fù)設(shè)計(jì)及其實(shí)現(xiàn) |
3.1.1.1 動(dòng)態(tài)紋理的生成 |
3.1.1.2 FMM紋理修復(fù)過(guò)程 |
3.1.2 基于像素提取的ROI紋理融合設(shè)計(jì)及實(shí)現(xiàn) |
3.1.2.1 顏色原理與顏色模式 |
3.1.2.2 拾取顏色原理及紋理ROI區(qū)域混合 |
3.2 人臉模型整體美化設(shè)計(jì) |
3.2.1 膚色檢測(cè)方法設(shè)計(jì) |
3.2.2 基于紋理的磨皮算法設(shè)計(jì)及其實(shí)現(xiàn) |
3.2.3 基于改進(jìn)Gamma變換的紋理像素增強(qiáng)算法 |
3.3 本章小結(jié) |
第四章 基于紋理的色譜模型設(shè)計(jì) |
4.1 色譜模型設(shè)計(jì)分類 |
4.2 基于色度圖的四高三低色譜模型設(shè)計(jì)方法 |
4.2.1 色度圖設(shè)計(jì) |
4.2.2 四高三低實(shí)現(xiàn) |
4.3 填充量實(shí)時(shí)精準(zhǔn)色譜實(shí)現(xiàn)方法 |
4.4 基于海拔高度的色譜設(shè)計(jì)方法 |
4.5 本章小結(jié) |
第五章 人臉美學(xué)評(píng)估模型設(shè)計(jì) |
5.1 人臉美學(xué)評(píng)估研究目的和意義 |
5.2 人臉美學(xué)評(píng)估設(shè)計(jì) |
5.2.1 面部關(guān)鍵點(diǎn)定義 |
5.2.2 面部幾何特征數(shù)據(jù)計(jì)算 |
5.3評(píng)估模型的衡量策略及其實(shí)驗(yàn) |
5.3.1 三維人臉模型評(píng)估策略 |
5.3.2 評(píng)估模型準(zhǔn)則實(shí)驗(yàn)分析 |
5.4 本章小結(jié) |
第六章 三維整形導(dǎo)師系統(tǒng)的實(shí)現(xiàn) |
6.1 三維整形導(dǎo)師系統(tǒng)設(shè)計(jì) |
6.2 系統(tǒng)開發(fā)環(huán)境及展示 |
6.2.1 系統(tǒng)開發(fā)環(huán)境 |
6.2.2 系統(tǒng)架構(gòu)設(shè)計(jì)及主要類的設(shè)計(jì) |
6.2.3 系統(tǒng)操作及仿真結(jié)果展示 |
6.3 本章小結(jié) |
總結(jié)與展望 |
全文總結(jié) |
工作展望 |
參考文獻(xiàn) |
作者在攻讀碩士學(xué)位期間的科研成果 |
致謝 |
四、一種基于顏色信息的人臉檢測(cè)方法(論文參考文獻(xiàn))
- [1]基于深度學(xué)習(xí)的護(hù)目鏡佩戴檢測(cè)系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D]. 張登奎. 北京郵電大學(xué), 2021(01)
- [2]基于多特征的靜態(tài)視頻摘要算法研究[D]. 程小雨. 合肥工業(yè)大學(xué), 2021(02)
- [3]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別門禁系統(tǒng)[D]. 張蛟嬌. 內(nèi)蒙古大學(xué), 2021(12)
- [4]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別問(wèn)題的研究[D]. 王瑩瑩. 山東大學(xué), 2020(04)
- [5]基于深度學(xué)習(xí)的煙支檢測(cè)技術(shù)研究與應(yīng)用[D]. 李倩. 西安郵電大學(xué), 2020(02)
- [6]基于視頻監(jiān)控的目標(biāo)人員跟蹤系統(tǒng)研究與實(shí)現(xiàn)[D]. 聶繼生. 北京工業(yè)大學(xué), 2020(06)
- [7]面向汽車銷售的潛在顧客計(jì)算機(jī)視覺(jué)分析方法研究[D]. 李煥. 重慶理工大學(xué), 2020(08)
- [8]基于膚色識(shí)別的服裝顏色推薦系統(tǒng)[D]. 李芹. 東華大學(xué), 2020(01)
- [9]基于光照一致化和上下文感知的人臉活體檢測(cè)算法研究[D]. 陳浩楠. 浙江大學(xué), 2020(01)
- [10]人臉三維特征信息提取及美容效果視覺(jué)呈現(xiàn)技術(shù)[D]. 劉家遠(yuǎn). 廣東工業(yè)大學(xué), 2019(02)
標(biāo)簽:機(jī)器學(xué)習(xí)論文; 卷積論文; 人臉檢測(cè)論文; 神經(jīng)網(wǎng)絡(luò)模型論文; 人臉識(shí)別算法論文;