一、易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)(論文文獻(xiàn)綜述)
盧萬(wàn)杰[1](2020)在《空間目標(biāo)態(tài)勢(shì)認(rèn)知與服務(wù)關(guān)鍵技術(shù)研究》文中提出航天強(qiáng)國(guó)對(duì)空間角逐的態(tài)勢(shì)日趨復(fù)雜,太空(空間)已成為世界各國(guó)爭(zhēng)相搶奪的戰(zhàn)略制高點(diǎn)。為了維護(hù)空間安全,保障空間利益,支持空間活動(dòng),需要及時(shí)準(zhǔn)確地獲取空間目標(biāo)當(dāng)前的運(yùn)行狀態(tài),并掌控未來(lái)的變化趨勢(shì),即空間目標(biāo)態(tài)勢(shì)。空間目標(biāo)態(tài)勢(shì)的認(rèn)知與服務(wù)技術(shù)能夠從海量的空間目標(biāo)探測(cè)數(shù)據(jù)和信息中提取知識(shí)并為空間決策提供有力支持,其研究對(duì)維護(hù)國(guó)家空間安全具有重要意義。近年來(lái)在該領(lǐng)域已取得了很多研究成果,但在多源異構(gòu)數(shù)據(jù)的處理與融合、服務(wù)功能的集成與共享、動(dòng)態(tài)時(shí)空背景下復(fù)雜要素的高效分析和統(tǒng)一認(rèn)知等研究方向上仍存在許多難題亟待解決。本文圍繞空間目標(biāo)態(tài)勢(shì)認(rèn)知與服務(wù)的關(guān)鍵技術(shù)開展研究,主要成果和創(chuàng)新點(diǎn)包括:1.提出了空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體模型SOSDO,實(shí)現(xiàn)了領(lǐng)域內(nèi)數(shù)據(jù)、信息和知識(shí)的全局描述和有效共享。通過(guò)明確空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體的主要研究對(duì)象、作用和目的,分析了領(lǐng)域本體的組成,并基于混合本體模式設(shè)計(jì)了空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體。以資源三號(hào)02星為例構(gòu)建了空間目標(biāo)態(tài)勢(shì)領(lǐng)域的本體實(shí)例和推理規(guī)則,并對(duì)資源三號(hào)02星的相關(guān)知識(shí)進(jìn)行了推理。2.基于本體技術(shù)實(shí)現(xiàn)了空間目標(biāo)態(tài)勢(shì)領(lǐng)域內(nèi)多源異構(gòu)數(shù)據(jù)的高效存儲(chǔ)、集成和檢索?;诨旌蟂QL/No SQL設(shè)計(jì)了多源異構(gòu)數(shù)據(jù)存儲(chǔ)方法,實(shí)現(xiàn)了對(duì)不同結(jié)構(gòu)數(shù)據(jù)的高效管理;建立了底層數(shù)據(jù)、局部本體和全局本體之間的映射關(guān)系,實(shí)現(xiàn)了基于本體的多源異構(gòu)數(shù)據(jù)集成;設(shè)計(jì)了數(shù)據(jù)檢索和語(yǔ)義檢索以滿足不同應(yīng)用場(chǎng)景對(duì)空間目標(biāo)態(tài)勢(shì)信息的動(dòng)態(tài)需求,并通過(guò)實(shí)例進(jìn)行驗(yàn)證。3.構(gòu)建了面向離線和實(shí)時(shí)計(jì)算的空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)分析與處理模型,實(shí)現(xiàn)了不同應(yīng)用場(chǎng)景下的高效分析與處理?;贚ambda架構(gòu)構(gòu)建了面向海量數(shù)據(jù)的分析框架和面向時(shí)空特性的處理模型。以改進(jìn)的遙感衛(wèi)星區(qū)域覆蓋分析和優(yōu)化的空間目標(biāo)接近分析為案例,對(duì)數(shù)據(jù)分析與處理模型進(jìn)行了驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)分析與處理模型能夠滿足空間目標(biāo)態(tài)勢(shì)領(lǐng)域?qū)Ω咝в?jì)算能力的需求。4.針對(duì)空間目標(biāo)態(tài)勢(shì)知識(shí)的獲取,從不同角度出發(fā)提出了認(rèn)知方法。利用時(shí)空本體對(duì)領(lǐng)域內(nèi)的復(fù)雜空間關(guān)系和時(shí)間關(guān)系進(jìn)行建模;設(shè)計(jì)了空間目標(biāo)軌道狀態(tài)認(rèn)知模型,利用軌道狀態(tài)語(yǔ)義表示實(shí)現(xiàn)了對(duì)軌道狀態(tài)變化以及各種復(fù)雜關(guān)系的描述,并基于動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)實(shí)現(xiàn)了對(duì)軌道狀態(tài)的動(dòng)態(tài)推理;基于基本形式本體,設(shè)計(jì)了空間目標(biāo)行為與事件認(rèn)知模型,實(shí)現(xiàn)了統(tǒng)一時(shí)空框架下對(duì)空間目標(biāo)的行為和事件的動(dòng)態(tài)描述、分析和推理;利用多層次語(yǔ)義關(guān)系解析模型和多元素知識(shí)構(gòu)建模型,實(shí)現(xiàn)了領(lǐng)域內(nèi)“數(shù)據(jù)-信息-知識(shí)”的轉(zhuǎn)化,并基于知識(shí)圖譜實(shí)現(xiàn)了認(rèn)知結(jié)果的結(jié)構(gòu)化與形式化表達(dá)。仿真校驗(yàn)與分析結(jié)果表明,本文方法能夠有效提取領(lǐng)域知識(shí),并輔助應(yīng)用于空間目標(biāo)態(tài)勢(shì)的認(rèn)知。5.提出了基于微服務(wù)架構(gòu)的空間目標(biāo)態(tài)勢(shì)服務(wù)方法,實(shí)現(xiàn)了領(lǐng)域內(nèi)多源異構(gòu)的算法、服務(wù)與組件的管理、集成和應(yīng)用。提出了基于OWL-S的空間目標(biāo)態(tài)勢(shì)服務(wù)與組件本體,實(shí)現(xiàn)了對(duì)服務(wù)與組件及其關(guān)系的語(yǔ)義描述,并利用服務(wù)的發(fā)現(xiàn)、共享和動(dòng)態(tài)組合實(shí)現(xiàn)了復(fù)雜空間目標(biāo)態(tài)勢(shì)分析功能的構(gòu)建;基于微服務(wù)架構(gòu),實(shí)現(xiàn)了對(duì)多源異構(gòu)的算法、組件和服務(wù)的部署、管理與集成,并利用分布式計(jì)算環(huán)境和統(tǒng)一訪問(wèn)接口實(shí)現(xiàn)高效服務(wù);基于可視化組件設(shè)計(jì)了空間目標(biāo)態(tài)勢(shì)認(rèn)知結(jié)果的表達(dá)方式。6.綜合集成已有研究成果,自主設(shè)計(jì)并開發(fā)了空間目標(biāo)態(tài)勢(shì)認(rèn)知與服務(wù)原型系統(tǒng)SOSKS。本文從多源異構(gòu)數(shù)據(jù)管理、信息可視化展示、態(tài)勢(shì)認(rèn)知與推理、多源異構(gòu)功能管理等方面對(duì)原型系統(tǒng)的應(yīng)用成果進(jìn)行了較為全面的描述,并簡(jiǎn)要介紹了原型系統(tǒng)的應(yīng)用案例。初步應(yīng)用結(jié)果表明,原型系統(tǒng)可為空間目標(biāo)態(tài)勢(shì)領(lǐng)域的認(rèn)知和服務(wù)提供有力的數(shù)據(jù)、信息和知識(shí)保障以及輔助決策的平臺(tái)支撐。
朱赟,韓煒,吳煒[2](2002)在《易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)》文中指出介紹一個(gè)易于擴(kuò)充的圖像檢索平臺(tái)之設(shè)計(jì)思想。該平臺(tái)通過(guò)在較高抽象層次上的對(duì)象描述技術(shù),實(shí)現(xiàn)了圖像特征量的易擴(kuò)充性、細(xì)節(jié)信息的高隱蔽性以及較高的系統(tǒng)安全性。
段躍鋒[3](2021)在《基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像研究》文中進(jìn)行了進(jìn)一步梳理近年來(lái),隨著科技的飛速發(fā)展,科研成果的數(shù)量以一種爆炸式增長(zhǎng)趨勢(shì)持續(xù)上升,每天會(huì)有近萬(wàn)篇新的學(xué)術(shù)文獻(xiàn)被公開發(fā)表。伴隨著移動(dòng)互聯(lián)網(wǎng)的興起,各大學(xué)術(shù)機(jī)構(gòu)和相關(guān)數(shù)據(jù)服務(wù)公司都對(duì)外開放了大量的學(xué)術(shù)數(shù)據(jù),相關(guān)的科技資訊也趨于井噴式的爆發(fā),增加了在科技內(nèi)容之間的曝光度。以上資源一般包含有多模態(tài)類型數(shù)據(jù),例如有文本和圖像類型。不同模態(tài)間的資源信息數(shù)據(jù)結(jié)構(gòu)具有巨大的差異,一般是以非結(jié)構(gòu)化的形式進(jìn)行展示。這會(huì)導(dǎo)致即使投入精力,也只是獲取到大量的無(wú)效信息。如何從這些海量的科技資源中挖掘分析其核心有效信息具有非常重要的意義。本文完成的主要工作如下:(1)提出了科技資源信息的數(shù)據(jù)采集方案與基于深度學(xué)習(xí)的跨媒體語(yǔ)義特征提取算法以實(shí)現(xiàn)對(duì)跨媒體科技資源信息的語(yǔ)義特征提取。采用分布式爬蟲技術(shù)與海量信息存儲(chǔ)技術(shù)進(jìn)行對(duì)科技資源信息的數(shù)據(jù)采集,并利用深度網(wǎng)絡(luò)模型實(shí)現(xiàn)對(duì)科技資源文本與圖像的語(yǔ)義特征向量提取。(2)提出了科技資源實(shí)體信息與實(shí)體關(guān)聯(lián)關(guān)系挖掘與發(fā)現(xiàn)方法,提出了基于BERT融合局部特征的注意力機(jī)制的科技實(shí)體抽取算法(BBLAC),實(shí)現(xiàn)了對(duì)科技資源信息中無(wú)效信息的過(guò)濾,對(duì)核心有效信息進(jìn)行抽取。實(shí)驗(yàn)結(jié)果表明,在抽取實(shí)體信息實(shí)驗(yàn)中本文算法結(jié)果指標(biāo)均優(yōu)于對(duì)比算法。提出了基于多重維度的科技資源實(shí)體關(guān)鍵詞相似關(guān)系判定算法(MDESJ),實(shí)現(xiàn)了對(duì)科技實(shí)體間相似關(guān)聯(lián)關(guān)系的擴(kuò)充,完成對(duì)科技資源的立體畫像。(3)提出了科技資源實(shí)體的跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系分析與抽取方法,提出了基于生成對(duì)抗網(wǎng)絡(luò)與共享語(yǔ)義結(jié)構(gòu)的科技資源跨媒體語(yǔ)義關(guān)聯(lián)算法(SSGACA),使用跨媒體檢索技術(shù)實(shí)現(xiàn)文本對(duì)圖像的檢索,以更為直觀高效的圖像方式展示出多模態(tài)信息,實(shí)現(xiàn)對(duì)科技資源立體畫像的多媒體資源內(nèi)容的補(bǔ)充。(4)設(shè)計(jì)并實(shí)現(xiàn)了基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像系統(tǒng)。系統(tǒng)主要包含以下幾個(gè)模塊:基于深度學(xué)習(xí)的科技資源實(shí)體的跨媒體語(yǔ)義特征提取與表達(dá)模塊、科技資源實(shí)體信息與實(shí)體關(guān)聯(lián)關(guān)系挖掘與發(fā)現(xiàn)模塊、科技資源實(shí)體的跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系分析與抽取。主要實(shí)現(xiàn)了以下幾個(gè)功能:數(shù)據(jù)采集、科技資源立體畫像、跨媒體科技資源檢索與展示。并對(duì)系統(tǒng)進(jìn)行了測(cè)試與驗(yàn)證。
張良[4](2021)在《基于深度學(xué)習(xí)的智能無(wú)線感知方法研究》文中認(rèn)為現(xiàn)如今物聯(lián)網(wǎng)正在快速發(fā)展,無(wú)線數(shù)據(jù)流量的需求隨之迅猛增長(zhǎng),多種無(wú)線信號(hào),如WiFi、藍(lán)牙、毫米波等充斥在人們的工作和生活空間。無(wú)線信號(hào)除了可以進(jìn)行通信外,還可以被用來(lái)實(shí)現(xiàn)感知覆蓋范圍內(nèi)目標(biāo)信息狀態(tài),如位置、速度、手勢(shì)、步態(tài)、生命體征等。目標(biāo)的不同狀態(tài)對(duì)無(wú)線信號(hào)的反射、折射、散射等現(xiàn)象會(huì)產(chǎn)生不同的影響,無(wú)線感知技術(shù)通過(guò)揭示和分析目標(biāo)對(duì)周圍無(wú)線信號(hào)的影響模式,實(shí)現(xiàn)不同的感知任務(wù)。憑借其不需攜帶任何設(shè)備、易部署、不引起隱私泄露和極高的安全性等優(yōu)勢(shì),無(wú)線感知技術(shù)在智能家居、人機(jī)交互、安防救援等方面有著廣闊的應(yīng)用前景。近年來(lái)深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域取得巨大成功?,F(xiàn)存的一些研究已經(jīng)證明,無(wú)線感知技術(shù)可以從中受益,傳統(tǒng)的無(wú)線網(wǎng)絡(luò)逐漸向具有目標(biāo)狀態(tài)感知能力的智能無(wú)線網(wǎng)絡(luò)演進(jìn),向泛在感知邁出了嶄新一步。然而,目前基于深度學(xué)習(xí)的無(wú)線感知技術(shù)走向?qū)嵱萌悦媾R著一些挑戰(zhàn),例如,某場(chǎng)景下訓(xùn)練好的感知模型在新工作條件適應(yīng)性差,重新學(xué)習(xí)訓(xùn)練成本高,以及無(wú)線數(shù)據(jù)訓(xùn)練樣本不足等引起模型退化、感知性能下降等問(wèn)題。當(dāng)遇到新工作條件下的感知任務(wù)時(shí),基于深度學(xué)習(xí)的無(wú)線感知系統(tǒng)往往需要新場(chǎng)景下的大量無(wú)線數(shù)據(jù)參與深度網(wǎng)絡(luò)的重新訓(xùn)練,這降低了感知模型的工作效率。針對(duì)此,本文提出一種基于元學(xué)習(xí)的無(wú)線感知方法,訓(xùn)練基于深度學(xué)習(xí)的感知模型去學(xué)習(xí)無(wú)線樣本中可遷移性知識(shí),學(xué)會(huì)自動(dòng)評(píng)估不同無(wú)線樣本特征距離,僅需要少量樣本即可快速適應(yīng)新工作條件下的無(wú)線感知任務(wù),以較小的訓(xùn)練代價(jià)有效地緩解了模型退化問(wèn)題,提升了基于訓(xùn)練場(chǎng)景構(gòu)建的感知模型在新應(yīng)用場(chǎng)景中的適用性。由于無(wú)線樣本采集條件嚴(yán)苛,獲取無(wú)線數(shù)據(jù)通常費(fèi)時(shí)費(fèi)力,當(dāng)無(wú)線數(shù)據(jù)訓(xùn)練樣本不足時(shí),基于深度學(xué)習(xí)的無(wú)線感知系統(tǒng)難以學(xué)習(xí)到無(wú)線數(shù)據(jù)中的本質(zhì)特征,致使感知系統(tǒng)性能下降。針對(duì)此,本文提出基于生成對(duì)抗的無(wú)線感知方法,開發(fā)利用生成對(duì)抗網(wǎng)絡(luò)合成虛擬的射頻圖像,優(yōu)化了對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)并強(qiáng)化了約束條件,最大化地獲取無(wú)線數(shù)據(jù)樣本中蘊(yùn)含的豐富信息,實(shí)現(xiàn)對(duì)少樣本條件下無(wú)線數(shù)據(jù)增廣,從而以較小的樣本采集代價(jià)優(yōu)化無(wú)線感知模型,提升深度無(wú)線感知網(wǎng)絡(luò)的泛化能力。本文基于WiFi與毫米波信號(hào),設(shè)計(jì)了手語(yǔ)、手寫字以及人體手勢(shì)識(shí)別實(shí)驗(yàn),分別驗(yàn)證了基于元學(xué)習(xí)的無(wú)線感知方法和基于生成對(duì)抗的無(wú)線感知方法。結(jié)果表明,本文提出的基于深度學(xué)習(xí)的智能無(wú)線感知方法以較小訓(xùn)練代價(jià)提升無(wú)線感知模型的場(chǎng)景適應(yīng)性,并以較小的實(shí)驗(yàn)樣本采集代價(jià)擴(kuò)充無(wú)線數(shù)據(jù)集,構(gòu)建了高性能的無(wú)線感知系統(tǒng)。
侯剛[5](2021)在《基于古生物三維模型的化石圖像檢索技術(shù)研究》文中指出化石圖像作為化石標(biāo)本的信息載體,是古生物學(xué)者之間討論古生物分類學(xué)和系統(tǒng)學(xué)的重要依據(jù)。準(zhǔn)確且自動(dòng)化的化石圖像檢索,不僅有助于古生物學(xué)者建立生物演化關(guān)系,而且有助于古生物愛好者學(xué)習(xí)古生物知識(shí)。雖然使用常規(guī)計(jì)算機(jī)圖像領(lǐng)域的方法可以對(duì)化石圖像進(jìn)行自動(dòng)化識(shí)別和檢索,并可以有效減輕化石圖像檢索過(guò)程中的錯(cuò)誤率和主觀性,但是,存在兩個(gè)主要的問(wèn)題:一是真實(shí)的化石圖像數(shù)據(jù)量不足,導(dǎo)致模型泛化性能低;二是化石圖像中主體與背景相容,使得提取的特征含有大量噪聲,導(dǎo)致檢索準(zhǔn)確率不高。因此,針對(duì)上述兩個(gè)問(wèn)題,本文提出一種基于古生物三維模型的化石圖像檢索方法。本文的主要研究?jī)?nèi)容包括:(1)針對(duì)化石圖像數(shù)據(jù)量不足,導(dǎo)致深度學(xué)習(xí)網(wǎng)絡(luò)泛化性能低的問(wèn)題,本文提出一種基于三維模型視圖的化石圖像擴(kuò)充方法。該方法將古生物三維模型映射為多視角二維圖像,并挖掘映射的二維圖像與化石圖像之間的相關(guān)信息。實(shí)驗(yàn)發(fā)現(xiàn),該方法合成的化石圖像不僅主觀感受細(xì)膩真實(shí);同時(shí)由合成圖像訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò)性能可獲得極大提升,表明合成圖像中具有豐富且有意義的化石特征。(2)針對(duì)古生物化石圖像背景與主體相容,直接進(jìn)行圖像特征提取存在大量噪聲的問(wèn)題,本文提出一種基于實(shí)例遷移的化石圖像顯著性檢測(cè)方法。該方法采用遷移學(xué)習(xí)對(duì)真實(shí)化石圖像進(jìn)行顯著性檢測(cè),并以此得到化石圖像的顯著特征。實(shí)驗(yàn)結(jié)果表明,生成的仿真化石圖像和遷移學(xué)習(xí)在真實(shí)化石圖像顯著性檢測(cè)中具有可行性和有效性。(3)針對(duì)在較為復(fù)雜的化石圖像中顯著特征缺失,導(dǎo)致檢索準(zhǔn)確率低的問(wèn)題,本文提出一種基于顯著特征和全局特征融合的化石圖像檢索方法。該方法把顯著性檢測(cè)網(wǎng)絡(luò)提取的顯著特征和分類網(wǎng)絡(luò)提取的全局特征進(jìn)行融合后聯(lián)合表達(dá)化石圖像。實(shí)驗(yàn)結(jié)果表明,融合特征的方法能夠提高分類準(zhǔn)確率;以Resnet18和Resnet50為基網(wǎng)絡(luò),分別進(jìn)行特征融合,分類準(zhǔn)確率分別提升8%和11%;在檢索性能上,平均準(zhǔn)確率8)達(dá)到了94.4%,并且在限制容錯(cuò)范圍的情況下,與其他方法對(duì)比,本文方法的準(zhǔn)確率較高。綜上所述,本文提出的方法能夠?qū)崿F(xiàn)化石圖像的識(shí)別和檢索任務(wù),有效提升了化石圖像的檢索的準(zhǔn)確率及效率,有助于古生物學(xué)者進(jìn)行化石圖像的研究工作。
司學(xué)飛[6](2021)在《基于深度學(xué)習(xí)的圖像檢索技術(shù)研究及應(yīng)用》文中研究表明“十四五”規(guī)劃綱要指出:加快數(shù)字化發(fā)展,打造數(shù)字經(jīng)濟(jì)新優(yōu)勢(shì),建設(shè)數(shù)字中國(guó)。數(shù)字化必將深刻引領(lǐng)社會(huì)變革,數(shù)字化落地是當(dāng)代科研工作者將理論與現(xiàn)實(shí)結(jié)合的重大使命。全面數(shù)字化的實(shí)現(xiàn)需要強(qiáng)大的算力中樞和優(yōu)良的算法系統(tǒng)。圖像檢索領(lǐng)域的研究是數(shù)字化社會(huì)的重要內(nèi)容。如何快速且準(zhǔn)確的在海量圖像中檢索出所需圖像是一項(xiàng)具有挑戰(zhàn)性的任務(wù),本文在傳統(tǒng)圖像檢索的基礎(chǔ)上加以改進(jìn),對(duì)其經(jīng)典算法進(jìn)行深入改良,結(jié)合深度學(xué)習(xí)技術(shù)在提取深度語(yǔ)義特征方面的優(yōu)勢(shì),研究出一種以深度學(xué)習(xí)框架為基礎(chǔ)的能夠快速處理海量數(shù)據(jù)的圖像檢索算法,主要工作內(nèi)容及創(chuàng)新如下:1、鑒于深度學(xué)習(xí)在提取深度語(yǔ)義特征方面強(qiáng)大的能力,本文以Inception-v3模塊為核心加入雙線性注意力機(jī)制構(gòu)造深度神經(jīng)網(wǎng)絡(luò),同時(shí)為了處理有數(shù)據(jù)缺陷的規(guī)模數(shù)據(jù)和更深入提取圖像特征,本文借鑒生成對(duì)抗網(wǎng)絡(luò)的架構(gòu),搭建對(duì)抗數(shù)據(jù)增強(qiáng)模塊,以增強(qiáng)主干網(wǎng)絡(luò)特征提取能力。在CUB-200-2011、Stanford Cars、FGVC Aircraft三個(gè)細(xì)粒度圖像數(shù)據(jù)集上進(jìn)行對(duì)比試驗(yàn),證明本文方法對(duì)細(xì)粒度圖像的可區(qū)別性特征的提取性能更好,從而為檢索的精確度打下良好的基礎(chǔ)。2、在索引構(gòu)建方面,本文采用基于深度神經(jīng)網(wǎng)絡(luò)的哈希算法,并且和特征提取網(wǎng)絡(luò)是級(jí)聯(lián)關(guān)系,有助于整體模型的訓(xùn)練。本文引入哈希中心的概念并提出一種全新的中心相似性度量方法,用于快速生成優(yōu)質(zhì)的二進(jìn)制哈希碼,并提出中心量化損失函數(shù)用于訓(xùn)練模型的收斂性。分別以Res Net50和本文特征提取網(wǎng)絡(luò)為主干網(wǎng),以CNNH、DNNH、DHN、Hash Net和中心相似度量哈希為哈希碼學(xué)習(xí)層,以Image Net、MS COCO、PASCAL VOC、Veg Fru、Food101為實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行多組交叉實(shí)驗(yàn),最終證明本文的特征提取主干網(wǎng)和中心相似度量哈希組合的檢索框架明顯在三組指標(biāo)上優(yōu)于其他組合,具有精度高、檢索速度快且易訓(xùn)練的三重優(yōu)良特質(zhì)。3、本文在此檢索算法的基礎(chǔ)上利用Java、C++在windows和Centos平臺(tái)開發(fā)中考理化實(shí)驗(yàn)圖像關(guān)鍵幀檢索系統(tǒng),驗(yàn)證本算法的可行性。
吳壽鎰[7](2021)在《WebAR平臺(tái)大規(guī)模圖像檢索系統(tǒng)的研究與實(shí)現(xiàn)》文中認(rèn)為圖像識(shí)別是WebAR的基礎(chǔ)技術(shù)之一,該應(yīng)用場(chǎng)景下常用基于特征點(diǎn)的圖像匹配技術(shù)方案,其用于比較待識(shí)別圖與模版圖之間的特征點(diǎn)匹配程度。該方案雖然可以給出準(zhǔn)確的匹配結(jié)果,但其運(yùn)行速度過(guò)慢,在大規(guī)模圖片量下無(wú)法滿足WebAR服務(wù)的需求。為了解決該問(wèn)題,本文引入了圖像檢索技術(shù),通過(guò)大幅減少需要進(jìn)行圖像匹配的模版圖數(shù)量來(lái)加速圖像識(shí)別流程,其與圖像匹配技術(shù)相互搭配,共同為WebAR平臺(tái)提供圖像識(shí)別服務(wù)。圖像檢索技術(shù)在算法層面包含兩個(gè)部分,即圖像嵌入算法和向量搜索算法,前者用于提取圖片的特征并轉(zhuǎn)換為定長(zhǎng)嵌入向量,后者用于在模版圖嵌入矩陣中快速篩選出與待識(shí)別圖嵌入向量最相似的小部分模版圖。在圖像嵌入算法方面,本文使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像嵌入,用于實(shí)現(xiàn)自然圖片到定長(zhǎng)向量的映射,本文中通過(guò)分析WebAR場(chǎng)景下圖片的特點(diǎn),設(shè)計(jì)了適當(dāng)?shù)臄?shù)據(jù)增強(qiáng)方法與損失函數(shù),完成訓(xùn)練后該模型在測(cè)試集上的Top-20召回準(zhǔn)確率達(dá)到90%以上。在向量搜索算法方面,本文首先通過(guò)PCA算法,在精度損失非常少的前提下大幅壓縮了圖像嵌入維度,降低了內(nèi)存消耗并提升了向量計(jì)算速度。此外,本文中通過(guò)計(jì)算優(yōu)化方法大幅降低了歐氏距離計(jì)算與向量距離排序時(shí)間。同時(shí),本文中還對(duì)多種近似最近鄰搜索算法進(jìn)行了實(shí)驗(yàn),探究其用于WebAR場(chǎng)景的可行性。基于前述工作,本文中構(gòu)建了一套完整的適用于WebAR場(chǎng)景的圖像檢索系統(tǒng),該系統(tǒng)在大規(guī)模數(shù)據(jù)量下也可快速返回圖像檢索結(jié)果。此外,為了進(jìn)一步提升圖像檢索服務(wù)的穩(wěn)定性與響應(yīng)速度,本文中引入邊緣計(jì)算,構(gòu)建了一種云邊協(xié)同服務(wù)機(jī)制,以邊緣端服務(wù)為主,云端服務(wù)為輔,共同服務(wù)于WebAR平臺(tái),同時(shí),通過(guò)圖像檢索服務(wù)容器化,提升了系統(tǒng)可擴(kuò)展性與快速遷移能力。綜上,本文重點(diǎn)在于提升WebAR場(chǎng)景下圖像識(shí)別的速度,使其可應(yīng)用于大規(guī)模圖像數(shù)據(jù),同時(shí)設(shè)計(jì)并實(shí)現(xiàn)了一套穩(wěn)定、可擴(kuò)展、低響應(yīng)時(shí)間并提供云邊協(xié)同服務(wù)的圖像檢索系統(tǒng)。
陸遠(yuǎn)哲[8](2021)在《基于小樣本學(xué)習(xí)的目標(biāo)識(shí)別方法研究》文中研究說(shuō)明目前深度學(xué)習(xí)已經(jīng)在圖像分類,目標(biāo)識(shí)別等多個(gè)領(lǐng)域取得了巨大的進(jìn)步。由于標(biāo)注數(shù)據(jù)的缺乏,深度學(xué)習(xí)算法依然不能像人類一樣,憑借少量的訓(xùn)練樣本將學(xué)到的知識(shí)推廣到新場(chǎng)景中。因此,為了彌補(bǔ)人工智能與類人學(xué)習(xí)之間的鴻溝,小樣本學(xué)習(xí)的問(wèn)題受到了廣泛關(guān)注。針對(duì)現(xiàn)有的小樣本學(xué)習(xí)方法中存在的問(wèn)題,本文設(shè)計(jì)了新的小樣本學(xué)習(xí)方法,并將其應(yīng)用到目標(biāo)識(shí)別中。本文的主要貢獻(xiàn)有如下幾個(gè)方面。1.針對(duì)原型網(wǎng)絡(luò)在特征提取的過(guò)程中忽略支持集的整體特征的問(wèn)題,本文設(shè)計(jì)了一種基于Transformer小樣本學(xué)習(xí)方法。該方法設(shè)計(jì)了Transformer特征遷移模塊,根據(jù)支持集中不同類別特征對(duì)支持集的整體特征進(jìn)行精煉實(shí)現(xiàn)特征空間的特征遷移。另外,設(shè)計(jì)了分組正則化模塊,通過(guò)計(jì)算詢問(wèn)集樣本與不同類別原型的相似度并根據(jù)硬樣本的標(biāo)簽顯式的監(jiān)督特征空間對(duì)硬樣本的聚類效果,從而提升特征空間的泛化能力。實(shí)驗(yàn)證明本文設(shè)計(jì)的方法,其分類正確率優(yōu)于小樣本圖像分類現(xiàn)有方法,通過(guò)消融實(shí)驗(yàn)證明了上述兩個(gè)模塊的有效性。2.在上述研究的基礎(chǔ)上設(shè)計(jì)了一種Transformer多尺度目標(biāo)識(shí)別方法。該方法引入Transformer特征遷移模塊對(duì)候選框提取網(wǎng)絡(luò)和檢測(cè)頭進(jìn)行支持集特征遷移。同時(shí),針對(duì)傳統(tǒng)的錨匹配方法在小樣本情況下會(huì)引入大量的不合適負(fù)樣本的問(wèn)題,本文設(shè)計(jì)了多尺度候選框精煉模塊。該模塊將候選框提取網(wǎng)絡(luò)與特征金字塔網(wǎng)絡(luò)相結(jié)合,增加支持集特征數(shù)量從而抑制負(fù)樣本生成數(shù)量。實(shí)驗(yàn)結(jié)果表明,本文設(shè)計(jì)的方法在召回率和準(zhǔn)確率等指標(biāo)達(dá)到了先進(jìn)水平。3.采用本文設(shè)計(jì)的基于Transformer多尺度目標(biāo)識(shí)別算法,實(shí)現(xiàn)了一個(gè)商標(biāo)小樣本目標(biāo)識(shí)別應(yīng)用系統(tǒng)。該系統(tǒng)可以通過(guò)注冊(cè)賬號(hào)并創(chuàng)建自定義商標(biāo)識(shí)別器,從而根據(jù)自己支持集數(shù)據(jù)對(duì)未標(biāo)記的大量圖片進(jìn)行商標(biāo)識(shí)別。另外,本系統(tǒng)還實(shí)現(xiàn)了根據(jù)商標(biāo)名查詢生活中相關(guān)圖片等功能。
何蘇生[9](2021)在《基于對(duì)抗生成網(wǎng)絡(luò)和哈希匹配的行人重識(shí)別研究》文中研究說(shuō)明目前,大多數(shù)的公共場(chǎng)合都有監(jiān)控?cái)z像頭的存在,如何利用這些監(jiān)控視頻數(shù)據(jù)來(lái)更好地方便人們的生活,成了計(jì)算機(jī)視覺領(lǐng)域研究者們需要思考的一個(gè)問(wèn)題。我國(guó)早在21世紀(jì)初就建立了“天網(wǎng)系統(tǒng)”,那么在互聯(lián)網(wǎng)時(shí)代下如何更加有效、更加高效地利用“天網(wǎng)系統(tǒng)”來(lái)對(duì)犯罪分子進(jìn)行快速追蹤和定位就成了計(jì)算機(jī)視覺領(lǐng)域亟需解決的問(wèn)題;當(dāng)幼兒在游樂園等人群密集的場(chǎng)所走失,如何運(yùn)用監(jiān)控視頻大數(shù)據(jù)快速地幫助家長(zhǎng)定位該兒童位置也是計(jì)算機(jī)視覺領(lǐng)域需要考慮的問(wèn)題。行人重識(shí)別任務(wù)主要適用于多個(gè)攝像頭拍攝的場(chǎng)景,當(dāng)進(jìn)行單張圖像查詢時(shí),將給定的單張行人圖像與大型圖像數(shù)據(jù)庫(kù)中的圖像數(shù)據(jù)進(jìn)行比較,以判斷不同攝像頭下出現(xiàn)的行人圖像是否同屬于一個(gè)行人。在實(shí)際的應(yīng)用實(shí)現(xiàn)過(guò)程中,行人重識(shí)別任務(wù)受到兩個(gè)因素的制約:一是行人重識(shí)別數(shù)據(jù)集采集受限,由于政策、個(gè)人隱私以及其他原因,學(xué)者以及一般的企業(yè)都無(wú)法大規(guī)模采集行人的數(shù)據(jù)用于行人重識(shí)別任務(wù);另外則是已有的行人重識(shí)別數(shù)據(jù)之間存在的偏差,這些偏差主要來(lái)源于相機(jī)的視角之間的偏差、拍攝到的人群的姿態(tài)之間的偏差以及數(shù)據(jù)集存在跨域問(wèn)題所帶來(lái)的偏差。已有的行人重識(shí)別系統(tǒng)主要針對(duì)公開數(shù)據(jù)集進(jìn)行訓(xùn)練,這些行人重識(shí)別系統(tǒng)往往在單個(gè)訓(xùn)練集上能取得比較好的結(jié)果,但是在針對(duì)數(shù)據(jù)跨域問(wèn)題時(shí),這一類行人重識(shí)別系統(tǒng)往往不能令人滿意??偠灾?已有的行人重識(shí)別系統(tǒng)存在的主要問(wèn)題包括:不能實(shí)現(xiàn)跨域的效果、檢測(cè)的效果不佳、檢測(cè)的速度不夠快等?;诖?本文提出了一種基于對(duì)抗生成網(wǎng)絡(luò)和哈希檢索的行人重識(shí)別算法,其主要?jiǎng)?chuàng)新點(diǎn)如下:1、采用了基于人體姿態(tài)的對(duì)抗生成網(wǎng)絡(luò);本文采用的方法通過(guò)與目標(biāo)姿態(tài)相結(jié)合的方式生成對(duì)應(yīng)的行人姿態(tài)圖像;彌補(bǔ)了行人重識(shí)別數(shù)據(jù)集中行人關(guān)于姿態(tài)的偏差問(wèn)題;2、采用基于注意力機(jī)制的深度殘差網(wǎng)絡(luò),進(jìn)一步提取出行人的關(guān)鍵性特征,使得提取出來(lái)的行人特征更方便用于行人重識(shí)別任務(wù);同時(shí)采用差異權(quán)重的方式進(jìn)行特征融合。3、采用了哈希匹配的圖像檢索方式,在深度殘差網(wǎng)絡(luò)中加入哈希層,在提取行人特征的同時(shí)學(xué)習(xí)哈希函數(shù);哈希函數(shù)可以將行人圖像轉(zhuǎn)化為二值碼,不同行人對(duì)應(yīng)的圖像二值碼距離不同,將二值碼之間的距離由小到大進(jìn)行排序,得到檢索結(jié)果。本文提出的方法在檢索速度以及檢索精度上都實(shí)現(xiàn)了比較好的效果,通過(guò)pytorch進(jìn)行深度學(xué)習(xí)網(wǎng)絡(luò)的搭建,最終實(shí)驗(yàn)結(jié)果表明本文采用的基于對(duì)抗生成網(wǎng)絡(luò)和哈希匹配的行人重識(shí)別方法比較適用于解決行人重識(shí)別領(lǐng)域的相關(guān)問(wèn)題。
雷宇[10](2020)在《基于場(chǎng)景分類和商品檢索的易混淆圖像識(shí)別研究》文中研究指明隨著深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺領(lǐng)域的不斷普及和擴(kuò)展,對(duì)圖像內(nèi)容理解的需求也在急速增長(zhǎng)。圖像分類和檢索作為計(jì)算機(jī)視覺中十分重要的兩個(gè)任務(wù),被大量的研究和應(yīng)用。對(duì)于分類和檢索任務(wù)來(lái)說(shuō),標(biāo)簽是最基礎(chǔ)也是最重要的一個(gè)信息,而標(biāo)簽之間的混淆也成為一個(gè)不可避免的難題。但當(dāng)前的研究方向更多的集中在圖像信息的挖掘或者網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)上,而在標(biāo)簽的混淆問(wèn)題上的研究并不多。因此,本文基于場(chǎng)景分類和商品檢索這兩個(gè)實(shí)際場(chǎng)景來(lái)探索易混淆信息的應(yīng)用方法,并構(gòu)建一套基于易混淆信息的分類和檢索系統(tǒng),主要工作和創(chuàng)新點(diǎn)如下:(1)提出了基于混淆矩陣的聚類算法來(lái)挖掘標(biāo)簽之間的易混淆信息。通過(guò)將聚類結(jié)果轉(zhuǎn)化為混淆權(quán)重,設(shè)計(jì)了一個(gè)新的損失函數(shù):混淆加權(quán)損失函數(shù)(Confusion Weighted Loss Function)讓模型在訓(xùn)練過(guò)程中除了學(xué)習(xí)類別之間的差外也能學(xué)習(xí)到標(biāo)簽之間的相關(guān)性。在Places365和MIT indoor67兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)證明了我們提出的算法的有效性;(2)提出了一個(gè)基于易混淆信息的數(shù)據(jù)集自動(dòng)化清洗流程來(lái)對(duì)一些錯(cuò)誤或易混淆的類別進(jìn)行修正、合并,讓數(shù)據(jù)集的標(biāo)簽體系更佳合理,并設(shè)計(jì)了一個(gè)基于權(quán)重特征的重排序算法,對(duì)排序結(jié)果進(jìn)行優(yōu)化。在商品數(shù)據(jù)集上的測(cè)試結(jié)果逐步證明了相關(guān)方案的優(yōu)越性;(3)提出了一個(gè)基于易混淆信息的分類檢索體系(Anti-Confusion System for classification and Retrieval),覆蓋了圖像分類和檢索相關(guān)項(xiàng)目所涉及的一系列步驟。通過(guò)在場(chǎng)景分類和商品檢索兩個(gè)任務(wù)上的實(shí)驗(yàn)驗(yàn)證了該系統(tǒng)的實(shí)用性和有效性。
二、易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)(論文開題報(bào)告)
(1)論文研究背景及目的
此處內(nèi)容要求:
首先簡(jiǎn)單簡(jiǎn)介論文所研究問(wèn)題的基本概念和背景,再而簡(jiǎn)單明了地指出論文所要研究解決的具體問(wèn)題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。
寫法范例:
本文主要提出一款精簡(jiǎn)64位RISC處理器存儲(chǔ)管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過(guò)程。在該MMU結(jié)構(gòu)中,TLB采用叁個(gè)分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲(chǔ)器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁(yè)面大小,采用多級(jí)分層頁(yè)表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級(jí)頁(yè)表轉(zhuǎn)換過(guò)程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲(chǔ)系統(tǒng)實(shí)現(xiàn)的一個(gè)重要組成部分。
(2)本文研究方法
調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對(duì)象的具體信息。
觀察法:用自己的感官和輔助工具直接觀察研究對(duì)象從而得到有關(guān)信息。
實(shí)驗(yàn)法:通過(guò)主支變革、控制研究對(duì)象來(lái)發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。
文獻(xiàn)研究法:通過(guò)調(diào)查文獻(xiàn)來(lái)獲得資料,從而全面的、正確的了解掌握研究方法。
實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。
定性分析法:對(duì)研究對(duì)象進(jìn)行“質(zhì)”的方面的研究,這個(gè)方法需要計(jì)算的數(shù)據(jù)較少。
定量分析法:通過(guò)具體的數(shù)字,使人們對(duì)研究對(duì)象的認(rèn)識(shí)進(jìn)一步精確化。
跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對(duì)某一課題進(jìn)行研究。
功能分析法:這是社會(huì)科學(xué)用來(lái)分析社會(huì)現(xiàn)象的一種方法,從某一功能出發(fā)研究多個(gè)方面的影響。
模擬法:通過(guò)創(chuàng)設(shè)一個(gè)與原型相似的模型來(lái)間接研究原型某種特性的一種形容方法。
三、易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)(論文提綱范文)
(1)空間目標(biāo)態(tài)勢(shì)認(rèn)知與服務(wù)關(guān)鍵技術(shù)研究(論文提綱范文)
摘要 |
Abstract |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 空間目標(biāo)態(tài)勢(shì)發(fā)展 |
1.2.2 空間目標(biāo)態(tài)勢(shì)認(rèn)知 |
1.2.3 空間目標(biāo)態(tài)勢(shì)服務(wù) |
1.2.4 空間目標(biāo)態(tài)勢(shì)面臨的挑戰(zhàn) |
1.3 本文研究?jī)?nèi)容與章節(jié)組織 |
1.3.1 本文研究?jī)?nèi)容 |
1.3.2 本文章節(jié)組織 |
第二章 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體模型 |
2.1 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體的研究?jī)?nèi)容 |
2.1.1 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體的研究對(duì)象 |
2.1.2 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體作用和功能 |
2.2 基于混合本體模式的空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體構(gòu)建 |
2.2.1 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體的組成 |
2.2.2 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體的構(gòu)建 |
2.2.3 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體基本關(guān)系 |
2.2.4 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體屬性聲明 |
2.3 空間目標(biāo)態(tài)勢(shì)領(lǐng)域本體實(shí)例 |
2.3.1 資源三號(hào)02星本體實(shí)例 |
2.3.2 資源三號(hào)02星知識(shí)推理 |
2.4 本章小結(jié) |
第三章 基于混合本體模式的多源異構(gòu)數(shù)據(jù)管理方法 |
3.1 基于混合SQL/NoSQL模式的多源異構(gòu)數(shù)據(jù)存儲(chǔ)方法 |
3.1.1 數(shù)據(jù)存儲(chǔ)架構(gòu) |
3.1.2 數(shù)據(jù)關(guān)聯(lián)關(guān)系 |
3.1.3 數(shù)據(jù)存儲(chǔ)與檢索測(cè)試 |
3.2 基于本體的多源異構(gòu)數(shù)據(jù)集成方法 |
3.2.1 空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)集成模型 |
3.2.2 底層數(shù)據(jù)與局部本體的映射 |
3.2.3 局部本體與全局本體的映射 |
3.3 面向數(shù)據(jù)和語(yǔ)義的空間目標(biāo)態(tài)勢(shì)信息檢索 |
3.3.1 空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)檢索 |
3.3.2 空間目標(biāo)態(tài)勢(shì)語(yǔ)義檢索 |
3.4 本章小結(jié) |
第四章 面向離線與實(shí)時(shí)計(jì)算的分析與處理模型 |
4.1 空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)分析與處理模型 |
4.1.1 數(shù)據(jù)分析框架 |
4.1.2 數(shù)據(jù)處理模型 |
4.2 基于多判斷模式的區(qū)域覆蓋實(shí)時(shí)分析 |
4.2.1 基于多判斷模式的參數(shù)快速計(jì)算方法 |
4.2.2 實(shí)驗(yàn)與分析 |
4.3 基于穩(wěn)健篩選流程的空間目標(biāo)接近分析 |
4.3.1 空間目標(biāo)穩(wěn)健篩選流程 |
4.3.2 實(shí)驗(yàn)與分析 |
4.4 本章小結(jié) |
第五章 面向知識(shí)獲取的空間目標(biāo)態(tài)勢(shì)認(rèn)知方法 |
5.1 空間目標(biāo)態(tài)勢(shì)時(shí)空認(rèn)知模型 |
5.1.1 時(shí)空本體建模 |
5.1.2 空間關(guān)系建模 |
5.1.3 時(shí)間關(guān)系建模 |
5.2 空間目標(biāo)軌道狀態(tài)認(rèn)知模型 |
5.2.1 空間目標(biāo)軌道狀態(tài)語(yǔ)義表示 |
5.2.2 空間目標(biāo)軌道狀態(tài)推理方法 |
5.2.3 實(shí)驗(yàn)與分析 |
5.3 空間目標(biāo)行為與事件認(rèn)知模型 |
5.3.1 空間目標(biāo)行為與事件本體建模 |
5.3.2 空間目標(biāo)碰撞威脅本體構(gòu)建 |
5.3.3 仿真校驗(yàn)與分析 |
5.4 基于知識(shí)圖譜的空間目標(biāo)態(tài)勢(shì)知識(shí)表達(dá) |
5.4.1 空間目標(biāo)態(tài)勢(shì)知識(shí)圖譜認(rèn)知框架 |
5.4.2 多層次語(yǔ)義關(guān)系解析模型 |
5.4.3 多元素知識(shí)構(gòu)建模型 |
5.5 本章小結(jié) |
第六章 基于微服務(wù)架構(gòu)的空間目標(biāo)態(tài)勢(shì)服務(wù) |
6.1 微服務(wù)架構(gòu) |
6.2 基于本體的空間目標(biāo)態(tài)勢(shì)服務(wù)管理模型 |
6.2.1 基于OWL-S的服務(wù)與組件本體 |
6.2.2 空間目標(biāo)態(tài)勢(shì)服務(wù)匹配與組合 |
6.2.3 服務(wù)匹配與組合示例 |
6.3 基于微服務(wù)架構(gòu)的多源異構(gòu)功能集成 |
6.3.1 算法組件集成 |
6.3.2 在線服務(wù)集成 |
6.4 空間目標(biāo)態(tài)勢(shì)可視化服務(wù) |
6.5 本章小結(jié) |
第七章 原型系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) |
7.1 原型系統(tǒng)功能與定位 |
7.1.1 原型系統(tǒng)功能 |
7.1.2 原型系統(tǒng)定位 |
7.2 原型系統(tǒng)總體設(shè)計(jì) |
7.2.1 架構(gòu)與部署 |
7.2.2 數(shù)據(jù)服務(wù)層 |
7.2.3 功能服務(wù)層 |
7.3 原型系統(tǒng)應(yīng)用成果 |
7.3.1 空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)管理 |
7.3.2 空間目標(biāo)態(tài)勢(shì)數(shù)據(jù)查詢與展示 |
7.3.3 空間目標(biāo)態(tài)勢(shì)運(yùn)行場(chǎng)景 |
7.3.4 空間目標(biāo)態(tài)勢(shì)認(rèn)知實(shí)現(xiàn) |
7.3.5 空間目標(biāo)態(tài)勢(shì)異構(gòu)功能管理 |
7.3.6 應(yīng)用案例 |
7.4 本章小結(jié) |
第八章 總結(jié)與展望 |
8.1 論文主要工作總結(jié) |
8.2 下一步研究展望 |
致謝 |
參考文獻(xiàn) |
作者簡(jiǎn)歷 |
(2)易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)(論文提綱范文)
0 引言 |
1.系統(tǒng)整體概念結(jié)構(gòu) |
2 圖像特征描述 |
2.1單一特征的實(shí)現(xiàn) |
2.2 圖像特征集Image_feature的實(shí)現(xiàn) |
3 對(duì)應(yīng)用程序隱蔽細(xì)節(jié) |
3.1 使用實(shí)體生成類隱蔽圖像登錄細(xì)節(jié) |
3.2 使用函數(shù)類隱蔽圖像檢索細(xì)節(jié) |
4 結(jié)束語(yǔ) |
(3)基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像研究(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景及意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 跨媒體語(yǔ)義特征提取與表達(dá) |
1.2.2 實(shí)體信息挖掘與發(fā)現(xiàn) |
1.2.3 跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系分析與抽取 |
1.3 研究?jī)?nèi)容 |
1.3.1 基于深度學(xué)習(xí)的科技資源實(shí)體的跨媒體語(yǔ)義特征提取與表達(dá) |
1.3.2 科技資源實(shí)體信息與實(shí)體關(guān)聯(lián)關(guān)系挖掘與發(fā)現(xiàn) |
1.3.3 科技資源實(shí)體的跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系分析與抽取 |
1.3.4 基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像系統(tǒng)實(shí)現(xiàn) |
1.4 論文總體結(jié)構(gòu) |
第二章 相關(guān)技術(shù) |
2.1 深度學(xué)習(xí)理論 |
2.1.1 深度學(xué)習(xí)的基本理論 |
2.1.2 深度學(xué)習(xí)經(jīng)典模型 |
2.2 自然語(yǔ)言處理 |
2.2.1 語(yǔ)言表征BERT模型 |
2.2.2 長(zhǎng)短期記憶網(wǎng)絡(luò) |
2.3 相似度計(jì)算技術(shù) |
2.4 生成對(duì)抗網(wǎng)絡(luò) |
2.5 本章小結(jié) |
第三章 基于深度學(xué)習(xí)的科技資源實(shí)體的跨媒體語(yǔ)義特征提取與表達(dá) |
3.1 科技資源實(shí)體的跨媒體語(yǔ)義特征提取與表達(dá) |
3.1.1 跨媒體科技資源文本深度特征提取與表達(dá)模型的提出 |
3.1.2 跨媒體科技資源圖像深度特征提取與表達(dá)模型的提出 |
3.2 實(shí)驗(yàn)結(jié)果及分析 |
3.2.1 數(shù)據(jù)集描述 |
3.2.2 科技資源文本深度特征提取與表達(dá)實(shí)驗(yàn) |
3.2.3 科技資源圖像深度特征提取與表達(dá)實(shí)驗(yàn) |
3.3 本章小結(jié) |
第四章 科技資源實(shí)體信息與實(shí)體關(guān)聯(lián)關(guān)系挖掘與發(fā)現(xiàn) |
4.1 基于BERT融合局部特征的注意力機(jī)制的科技實(shí)體抽取算法 |
4.1.1 基于BERT融合局部特征的注意力機(jī)制的科技實(shí)體抽取算法總體框架 |
4.1.2 基于BERT融合局部特征的注意力機(jī)制的科技實(shí)體抽取實(shí)現(xiàn) |
4.2 基于BERT融合局部特征的注意力機(jī)制的科技實(shí)體抽取算法實(shí)驗(yàn)結(jié)果及分析 |
4.2.1 數(shù)據(jù)集描述 |
4.2.2 評(píng)價(jià)指標(biāo) |
4.2.3 實(shí)體抽取實(shí)驗(yàn) |
4.3 基于多重維度的科技資源實(shí)體關(guān)鍵詞相似關(guān)系判定算法 |
4.3.1 基于多重維度的科技資源實(shí)體關(guān)鍵詞相似關(guān)系判定算法總體框架 |
4.3.2 基于多重維度的科技資源實(shí)體關(guān)鍵詞相似關(guān)系判定算法實(shí)現(xiàn) |
4.3.3 相似關(guān)系判定實(shí)驗(yàn) |
4.4 科技資源立體畫像 |
4.5 本章小結(jié) |
第五章 科技資源實(shí)體的跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系分析與抽取 |
5.1 科技資源跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系算法 |
5.1.1 科技資源跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系算法總體框架 |
5.1.2 科技資源跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系算法實(shí)現(xiàn) |
5.2 科技資源跨媒體語(yǔ)義關(guān)聯(lián)關(guān)系算法實(shí)驗(yàn)結(jié)果及分析 |
5.2.1 數(shù)據(jù)集描述 |
5.2.2 評(píng)價(jià)指標(biāo) |
5.2.3 跨媒體檢索實(shí)驗(yàn) |
5.3 本章小結(jié) |
第六章 基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像系統(tǒng)實(shí)現(xiàn) |
6.1 系統(tǒng)設(shè)計(jì) |
6.1.1 系統(tǒng)功能與目標(biāo) |
6.1.2 系統(tǒng)總體設(shè)計(jì) |
6.1.3 系統(tǒng)存儲(chǔ)設(shè)計(jì) |
6.1.4 系統(tǒng)開發(fā)環(huán)境與開發(fā)工具 |
6.2 系統(tǒng)實(shí)現(xiàn) |
6.2.1 數(shù)據(jù)采集的功能實(shí)現(xiàn) |
6.2.2 科技資源立體畫像功能實(shí)現(xiàn) |
6.2.3 跨媒體科技資源檢索與展示功能實(shí)現(xiàn) |
6.3 系統(tǒng)測(cè)試 |
6.3.1 系統(tǒng)測(cè)試環(huán)境 |
6.3.2 測(cè)試用例及結(jié)果 |
6.4 本章小結(jié) |
第七章 總結(jié)與展望 |
7.1 總結(jié) |
7.2 展望 |
參考文獻(xiàn) |
致謝 |
攻讀學(xué)位期間研究成果 |
(4)基于深度學(xué)習(xí)的智能無(wú)線感知方法研究(論文提綱范文)
摘要 |
Abstract |
1 緒論 |
1.1 研究背景及意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.3 本文的主要內(nèi)容及結(jié)構(gòu)安排 |
1.3.1 本文主要研究?jī)?nèi)容 |
1.3.2 本文結(jié)構(gòu)安排 |
2 無(wú)線感知與深度學(xué)習(xí)技術(shù)概述 |
2.1 無(wú)線感知技術(shù)基本原理 |
2.2 深度學(xué)習(xí)基礎(chǔ) |
2.2.1 卷積神經(jīng)網(wǎng)絡(luò) |
2.2.2 生成對(duì)抗網(wǎng)絡(luò) |
2.3 基于深度學(xué)習(xí)的無(wú)線感知技術(shù) |
2.3.1 無(wú)線感知系統(tǒng)架構(gòu) |
2.3.2 無(wú)線特征提取模塊 |
2.3.3 無(wú)線樣本分類模塊 |
2.4 本章小結(jié) |
3 基于元學(xué)習(xí)的無(wú)線感知方法 |
3.1 主要思想 |
3.2 基于元學(xué)習(xí)的無(wú)線感知方法架構(gòu)及實(shí)現(xiàn) |
3.2.1 數(shù)據(jù)獲取及預(yù)處理 |
3.2.2 元學(xué)習(xí)感知網(wǎng)絡(luò) |
3.2.3 元學(xué)習(xí)算法訓(xùn)練策略 |
3.3 基于元學(xué)習(xí)的無(wú)線感知方法實(shí)驗(yàn)結(jié)果與分析 |
3.3.1 實(shí)驗(yàn)設(shè)置 |
3.3.2 實(shí)驗(yàn)結(jié)果 |
3.3.3 實(shí)驗(yàn)分析 |
3.4 本章小結(jié) |
4 基于生成對(duì)抗的無(wú)線感知方法 |
4.1 主要思想 |
4.2 基于生成對(duì)抗的無(wú)線感知方法架構(gòu)及實(shí)現(xiàn) |
4.2.1 無(wú)線數(shù)據(jù)預(yù)處理模塊 |
4.2.2 單場(chǎng)景樣本增廣網(wǎng)絡(luò)模型 |
4.2.3 多場(chǎng)景樣本增廣網(wǎng)絡(luò)模型 |
4.2.4 無(wú)線手勢(shì)識(shí)別深度網(wǎng)絡(luò)構(gòu)建 |
4.3 基于生成對(duì)抗的無(wú)線手勢(shì)識(shí)別實(shí)驗(yàn)結(jié)果與分析 |
4.3.1 實(shí)驗(yàn)設(shè)置 |
4.3.2 實(shí)驗(yàn)結(jié)果展示 |
4.3.3 實(shí)驗(yàn)分析 |
4.4 本章小結(jié) |
結(jié)論 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間發(fā)表學(xué)術(shù)論文情況 |
致謝 |
(5)基于古生物三維模型的化石圖像檢索技術(shù)研究(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景、目的及意義 |
1.2 研究現(xiàn)狀 |
1.2.1 基于古生物學(xué)的化石圖像鑒定研究現(xiàn)狀 |
1.2.2 基于計(jì)算機(jī)視覺的化石圖像鑒定和檢索研究現(xiàn)狀 |
1.3 本文研究?jī)?nèi)容 |
1.4 論文結(jié)構(gòu)安排 |
1.5 本章小結(jié) |
第二章 基于三維模型視圖的化石圖像數(shù)據(jù)集建立 |
2.1 問(wèn)題提出及解決方案 |
2.2 三維模型視圖獲取 |
2.3 基于三維模型視圖的化石圖像數(shù)據(jù)庫(kù)建立 |
2.3.1 圖像生成技術(shù) |
2.3.2 基于Cycle-GAN的化石圖像生成 |
2.4 實(shí)驗(yàn)驗(yàn)證及結(jié)果分析 |
2.4.1 數(shù)據(jù)集介紹 |
2.4.2 實(shí)驗(yàn)設(shè)置 |
2.4.3 結(jié)果展示與評(píng)價(jià) |
2.5 本章小結(jié) |
第三章 基于實(shí)例遷移的化石圖像顯著性檢測(cè) |
3.1 問(wèn)題提出及解決方案 |
3.2 面向仿真圖像的化石圖像顯著性檢測(cè)研究 |
3.2.1 生成圖像及化石圖像分析 |
3.2.2 仿真化石圖像掩膜生成 |
3.2.3 化石圖像顯著性檢測(cè) |
3.3 實(shí)驗(yàn)結(jié)果與分析 |
3.3.1 實(shí)驗(yàn)設(shè)置 |
3.3.2 結(jié)果展示與評(píng)價(jià) |
3.4 本章小結(jié) |
第四章 基于顯著特征和全局特征融合的化石圖像檢索 |
4.1 問(wèn)題提出及解決方案 |
4.2 基于特征融合的化石圖像檢索設(shè)計(jì) |
4.2.1 顯著特征提取 |
4.2.2 全局特征提取 |
4.2.3 基于通道拼接的特征融合 |
4.2.4 基于融合特征的化石圖像檢索 |
4.3 實(shí)驗(yàn)結(jié)果與評(píng)價(jià) |
4.3.1 實(shí)驗(yàn)設(shè)置 |
4.3.2 分類結(jié)果對(duì)比 |
4.3.3 檢索性能度量 |
4.4 本章小結(jié) |
總結(jié)與展望 |
本文總結(jié) |
未來(lái)工作展望 |
參考文獻(xiàn) |
致謝 |
攻讀碩士學(xué)位期間取得的科研成果 |
(6)基于深度學(xué)習(xí)的圖像檢索技術(shù)研究及應(yīng)用(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 課題研究背景及意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.3 主要研究?jī)?nèi)容 |
1.4 本文的組織結(jié)構(gòu) |
1.5 本章小結(jié) |
第二章 圖像檢索與深度學(xué)習(xí)理論研究 |
2.1 圖像檢索系統(tǒng)框架 |
2.2 圖像特征提取 |
2.2.1 深度神經(jīng)網(wǎng)絡(luò)原理 |
2.2.2 Inception v3 模塊 |
2.3 哈希算法 |
2.3.1 無(wú)監(jiān)督哈希算法 |
2.3.2 監(jiān)督哈希算法 |
2.4 相似性度量方法 |
2.5 本章小結(jié) |
第三章 細(xì)粒度特征提取網(wǎng)絡(luò) |
3.1 生成對(duì)抗網(wǎng)絡(luò) |
3.2 弱監(jiān)督注意力學(xué)習(xí) |
3.3 對(duì)抗數(shù)據(jù)增強(qiáng) |
3.3.1 對(duì)抗策略 |
3.3.2 獎(jiǎng)懲策略 |
3.4 網(wǎng)絡(luò)結(jié)構(gòu) |
3.5 實(shí)驗(yàn) |
3.5.1 數(shù)據(jù)集及實(shí)驗(yàn)設(shè)置 |
3.5.2 對(duì)比實(shí)驗(yàn)及分析 |
3.5.3 數(shù)據(jù)增強(qiáng)可視化 |
3.6 本章小結(jié) |
第四章 基于中心相似度量的哈希算法 |
4.1 算法原理 |
4.2 哈希中心的定義 |
4.3 生成哈希中心 |
4.4 中心相似量化 |
4.5 實(shí)驗(yàn) |
4.5.1 圖像散列實(shí)驗(yàn) |
4.5.2 實(shí)驗(yàn)結(jié)果對(duì)比 |
4.5.3 細(xì)粒度哈希實(shí)驗(yàn) |
4.6 實(shí)驗(yàn)結(jié)果分析 |
4.7 本章小結(jié) |
第五章 理化實(shí)驗(yàn)圖像關(guān)鍵幀檢索系統(tǒng) |
5.1 PCEIR系統(tǒng)環(huán)境及框架 |
5.2 系統(tǒng)組織結(jié)構(gòu) |
5.3 數(shù)據(jù)庫(kù)構(gòu)建與實(shí)現(xiàn) |
5.4 圖像預(yù)處理 |
5.5 系統(tǒng)交互界面的設(shè)計(jì) |
5.6 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 本文總結(jié) |
6.2 未來(lái)工作展望 |
6.2.1 當(dāng)前存在的問(wèn)題 |
6.2.2 今后研究方法與內(nèi)容 |
參考文獻(xiàn) |
攻讀學(xué)位期間取得的科研成果 |
致謝 |
(7)WebAR平臺(tái)大規(guī)模圖像檢索系統(tǒng)的研究與實(shí)現(xiàn)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 研究現(xiàn)狀 |
1.3 研究?jī)?nèi)容 |
1.4 論文組織結(jié)構(gòu) |
1.5 本章小結(jié) |
第二章 相關(guān)技術(shù)概述 |
2.1 圖像嵌入算法 |
2.1.1 嵌入技術(shù) |
2.1.2 卷積神經(jīng)網(wǎng)絡(luò) |
2.2 嵌入向量搜索 |
2.2.1 向量距離度量方法 |
2.2.2 主成分分析 |
2.2.3 近似最近鄰算法 |
2.3 邊緣計(jì)算 |
2.3.1 發(fā)展概述 |
2.3.2 關(guān)鍵技術(shù) |
2.4 本章小結(jié) |
第三章 系統(tǒng)需求分析與概要設(shè)計(jì) |
3.1 需求分析 |
3.1.1 業(yè)務(wù)術(shù)語(yǔ)定義 |
3.1.2 需求概述 |
3.1.3 圖像嵌入提取功能 |
3.1.4 向量搜索功能 |
3.1.5 圖像檢索系統(tǒng)服務(wù)化 |
3.1.6 云邊協(xié)同服務(wù) |
3.2 系統(tǒng)概要設(shè)計(jì) |
3.2.1 系統(tǒng)架構(gòu)概述 |
3.2.2 嵌入算法模塊 |
3.2.3 向量搜索模塊 |
3.2.4 模版圖管理模塊 |
3.2.5 云邊協(xié)同模塊 |
3.3 本章小結(jié) |
第四章 系統(tǒng)詳細(xì)實(shí)現(xiàn) |
4.1 系統(tǒng)實(shí)現(xiàn)方案概述 |
4.2 嵌入算法模塊的設(shè)計(jì)與實(shí)現(xiàn) |
4.2.1 算法設(shè)計(jì) |
4.2.2 損失函數(shù) |
4.2.3 數(shù)據(jù)增強(qiáng)技術(shù) |
4.3 向量搜索模塊的實(shí)現(xiàn) |
4.3.1 搜索方法實(shí)現(xiàn) |
4.3.2 工程優(yōu)化 |
4.3.3 嵌入維度壓縮 |
4.3.4 近似最近鄰搜索算法 |
4.4 模版圖管理模塊的實(shí)現(xiàn) |
4.4.1 接口功能實(shí)現(xiàn) |
4.4.2 數(shù)據(jù)存儲(chǔ)方案 |
4.4.3 異常提示 |
4.5 云邊協(xié)同模塊的實(shí)現(xiàn) |
4.5.1 準(zhǔn)備工作 |
4.5.2 云邊端服務(wù)架構(gòu) |
4.5.3 系統(tǒng)請(qǐng)求分發(fā)方案 |
4.5.4 本章小結(jié) |
第五章 系統(tǒng)測(cè)試與應(yīng)用 |
5.1 測(cè)試目標(biāo)與環(huán)境 |
5.1.1 測(cè)試目標(biāo) |
5.1.2 測(cè)試環(huán)境 |
5.2 算法性能測(cè)試 |
5.2.1 數(shù)據(jù)準(zhǔn)備 |
5.2.2 評(píng)價(jià)指標(biāo) |
5.2.3 嵌入算法測(cè)試 |
5.2.4 向量搜索測(cè)試 |
5.3 系統(tǒng)功能測(cè)試 |
5.3.1 基本功能測(cè)試 |
5.3.2 模板圖管理測(cè)試 |
5.3.3 云邊協(xié)同測(cè)試 |
5.3.4 圖像檢索有效性測(cè)試 |
5.4 系統(tǒng)應(yīng)用案例 |
5.5 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 工作總結(jié) |
6.2 下一步工作展望 |
參考文獻(xiàn) |
致謝 |
(8)基于小樣本學(xué)習(xí)的目標(biāo)識(shí)別方法研究(論文提綱范文)
摘要 |
abstract |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 小樣本學(xué)習(xí) |
1.2.2 目標(biāo)識(shí)別 |
1.2.3 小樣本目標(biāo)識(shí)別 |
1.3 本文的主要貢獻(xiàn)與創(chuàng)新 |
1.4 本文的內(nèi)容結(jié)構(gòu)安排 |
第二章 小樣本目標(biāo)識(shí)別技術(shù) |
2.1 小樣本學(xué)習(xí) |
2.1.1 小樣本學(xué)習(xí)的相關(guān)定義 |
2.1.2 基于數(shù)據(jù)擴(kuò)充的小樣本學(xué)習(xí) |
2.1.3 基于度量學(xué)習(xí)的小樣本學(xué)習(xí) |
2.1.4 基于元學(xué)習(xí)的小樣本學(xué)習(xí) |
2.2 目標(biāo)識(shí)別的基本方法 |
2.2.1 單階段目標(biāo)識(shí)別 |
2.2.2 兩階段目標(biāo)識(shí)別 |
2.3 小樣本目標(biāo)識(shí)別技術(shù)與挑戰(zhàn) |
2.4 本章小結(jié) |
第三章 基于Transformer的小樣本學(xué)習(xí) |
3.1 研究動(dòng)機(jī) |
3.2 基于Transformer的小樣本學(xué)習(xí)模型 |
3.2.1 Transformer的特征遷移模塊 |
3.2.2 分組正則化模塊 |
3.2.3 TFSL模型 |
3.3 實(shí)驗(yàn)結(jié)果與分析 |
3.3.1 實(shí)驗(yàn)設(shè)置 |
3.3.2 Mini Image Net數(shù)據(jù)集圖像分類 |
3.3.3 Cub Bird數(shù)據(jù)集圖像分類 |
3.3.4 消融試驗(yàn) |
3.4 本章小結(jié) |
第四章 基于Transformer多尺度的目標(biāo)識(shí)別 |
4.1 研究動(dòng)機(jī) |
4.2 基于Transformer多尺度的目標(biāo)識(shí)別 |
4.2.1 多尺度候選框精煉 |
4.2.2 TMSOD模型 |
4.3 實(shí)驗(yàn)結(jié)果與分析 |
4.3.1 實(shí)驗(yàn)設(shè)置 |
4.3.2 PASCAL VOC數(shù)據(jù)集目標(biāo)識(shí)別 |
4.3.3 Flickr Logos數(shù)據(jù)集目標(biāo)識(shí)別 |
4.4 本章小結(jié) |
第五章 商標(biāo)小樣本目標(biāo)識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn) |
5.1 需求分析 |
5.1.1 系統(tǒng)總體功能概述 |
5.1.2 功能性需求 |
5.1.3 非功能性需求 |
5.2 商標(biāo)小樣本目標(biāo)識(shí)別系統(tǒng)設(shè)計(jì) |
5.2.1 系統(tǒng)整體架構(gòu)設(shè)計(jì) |
5.2.2 數(shù)據(jù)庫(kù)表結(jié)構(gòu)設(shè)計(jì) |
5.3 系統(tǒng)模塊詳細(xì)設(shè)計(jì)與實(shí)現(xiàn) |
5.3.1 微服務(wù)架構(gòu)相關(guān)設(shè)計(jì)與實(shí)現(xiàn) |
5.3.2 用戶管理模塊設(shè)計(jì)與實(shí)現(xiàn) |
5.3.3 識(shí)別器管理模塊設(shè)計(jì)與實(shí)現(xiàn) |
5.4 系統(tǒng)測(cè)試 |
5.4.1 功能性測(cè)試 |
5.4.2 非功能性測(cè)試 |
5.5 本章小結(jié) |
第六章 全文總結(jié)與展望 |
6.1 本文工作總結(jié) |
6.2 后續(xù)工作展望 |
致謝 |
參考文獻(xiàn) |
(9)基于對(duì)抗生成網(wǎng)絡(luò)和哈希匹配的行人重識(shí)別研究(論文提綱范文)
摘要 |
Abstract |
第一章 緒論 |
1.1 研究背景和意義 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.2.1 目標(biāo)檢測(cè)研究現(xiàn)狀 |
1.2.2 圖像檢索研究現(xiàn)狀 |
1.2.3 行人重識(shí)別研究現(xiàn)狀 |
1.3 本文的主要工作與創(chuàng)新點(diǎn) |
1.4 本文組織結(jié)構(gòu) |
第二章 基于人體姿態(tài)特征的對(duì)抗生成網(wǎng)絡(luò) |
2.1 對(duì)抗生成網(wǎng)絡(luò) |
2.1.1 傳統(tǒng)的對(duì)抗生成網(wǎng)絡(luò) |
2.1.2 改進(jìn)的對(duì)抗生成網(wǎng)絡(luò) |
2.1.3 用于行人重識(shí)別領(lǐng)域的對(duì)抗生成網(wǎng)絡(luò) |
2.2 人體姿態(tài)特征提取 |
2.3 基于人體姿態(tài)的對(duì)抗生成網(wǎng)絡(luò) |
2.4 本章小結(jié) |
第三章 基于注意力機(jī)制的殘差網(wǎng)絡(luò)模型 |
3.1 深度殘差網(wǎng)絡(luò)介紹 |
3.2 注意力機(jī)制網(wǎng)絡(luò)介紹 |
3.2.1 基于空間的注意力機(jī)制 |
3.2.2 基于通道的注意力機(jī)制 |
3.3 基于注意力機(jī)制的殘差網(wǎng)絡(luò)結(jié)構(gòu) |
3.4 本章小結(jié) |
第四章 基于哈希檢索的行人重識(shí)別方法 |
4.1 哈希檢索簡(jiǎn)介 |
4.1.1 無(wú)監(jiān)督的哈希檢索算法 |
4.1.2 有監(jiān)督的哈希檢索算法 |
4.1.3 半監(jiān)督的哈希檢索算法 |
4.2 哈希檢索方法的流程簡(jiǎn)介 |
4.2.1 深度哈希模型的訓(xùn)練 |
4.2.2 數(shù)據(jù)相似圖更新 |
4.2.3 二值碼優(yōu)化 |
4.3 本章小結(jié) |
第五章 系統(tǒng)結(jié)構(gòu)與實(shí)驗(yàn)展示 |
5.1 系統(tǒng)體系架構(gòu) |
5.2 實(shí)驗(yàn)平臺(tái)介紹 |
5.3 深度學(xué)習(xí)框架介紹 |
5.3.1 Tensorflow深度學(xué)習(xí)框架 |
5.3.2 其他深度學(xué)習(xí)框架 |
5.3.3 Pytorch深度學(xué)習(xí)框架 |
5.4 實(shí)驗(yàn)數(shù)據(jù)集介紹 |
5.4.1 Market-1501數(shù)據(jù)集 |
5.4.2 CUHK03數(shù)據(jù)集 |
5.5 損失函數(shù)介紹 |
5.6 實(shí)驗(yàn)結(jié)果展示 |
5.6.1 評(píng)價(jià)指標(biāo)介紹 |
5.6.2 實(shí)驗(yàn)流程介紹 |
5.6.3 最終結(jié)果 |
第六章 總結(jié)與展望 |
6.1 論文總結(jié) |
6.2 論文展望 |
參考文獻(xiàn) |
附錄A 專用術(shù)語(yǔ)注釋表 |
攻讀學(xué)位期間取得的研究成果 |
致謝 |
(10)基于場(chǎng)景分類和商品檢索的易混淆圖像識(shí)別研究(論文提綱范文)
摘要 |
Abstract |
第一章 緒論 |
1.1 研究背景 |
1.2 國(guó)內(nèi)外研究現(xiàn)狀 |
1.3 本文的工作內(nèi)容與貢獻(xiàn) |
1.3.1 研究?jī)?nèi)容 |
1.3.2 主要貢獻(xiàn) |
1.3.3 論文組織結(jié)構(gòu) |
第二章 場(chǎng)景分類和商品檢索的發(fā)展與技術(shù)概述 |
2.1 場(chǎng)景分類研究現(xiàn)狀 |
2.1.1 場(chǎng)景分類 |
2.1.2 深度卷積神經(jīng)網(wǎng)絡(luò)上的圖像識(shí)別 |
2.2 商品檢索研究現(xiàn)狀 |
2.2.1 特征提取算法的發(fā)展 |
2.2.2 檢索算法的衍生和發(fā)展 |
2.3 本章小結(jié) |
第三章 面向場(chǎng)景分類的易混淆信息應(yīng)用 |
3.1 背景介紹 |
3.2 基于混淆矩陣的聚類算法 |
3.3 混淆加權(quán)損失函數(shù) |
3.4 實(shí)驗(yàn)部分 |
3.4.1 Places365數(shù)據(jù)集 |
3.4.2 MIT indoor67數(shù)據(jù)集 |
3.4.3 拓展實(shí)驗(yàn) |
3.5 章節(jié)總結(jié) |
第四章 面向商品檢索的易混淆信息研究 |
4.1 背景介紹 |
4.1.1 特征提取 |
4.1.2 檢索中的重排序算法 |
4.2 基于易混淆訊息的數(shù)據(jù)集構(gòu)建 |
4.2.1 基于檢測(cè)算法的數(shù)據(jù)預(yù)處理 |
4.2.2 基于混淆矩陣的類別合并 |
4.3 基于卷積神經(jīng)網(wǎng)絡(luò)的模型訓(xùn)練 |
4.4 基于權(quán)重特征的重排序 |
4.5 實(shí)驗(yàn)部分 |
4.5.1 基于易混淆信息的數(shù)據(jù)集構(gòu)建算法的評(píng)估 |
4.5.2 評(píng)估多類型損失函數(shù)在商品檢索數(shù)據(jù)集上的效果 |
4.5.3 基于權(quán)重特征的重排序算法評(píng)估 |
4.6 本章小節(jié) |
第五章 基于易混淆信息的分類和檢索體系研究 |
5.1 背景介紹 |
5.2 基于易混淆信息的分類檢索體系在場(chǎng)景分類上的應(yīng)用 |
5.3 基于易混淆信息的分類檢索體系在商品檢索上的應(yīng)用 |
5.4 本章小結(jié) |
第六章 總結(jié)與展望 |
參考文獻(xiàn) |
致謝 |
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文目錄 |
四、易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)(論文參考文獻(xiàn))
- [1]空間目標(biāo)態(tài)勢(shì)認(rèn)知與服務(wù)關(guān)鍵技術(shù)研究[D]. 盧萬(wàn)杰. 戰(zhàn)略支援部隊(duì)信息工程大學(xué), 2020(01)
- [2]易于擴(kuò)充的圖像檢索平臺(tái)實(shí)現(xiàn)[J]. 朱赟,韓煒,吳煒. 上海師范大學(xué)學(xué)報(bào)(自然科學(xué)版), 2002(04)
- [3]基于深度學(xué)習(xí)的跨媒體科技資源立體精準(zhǔn)畫像研究[D]. 段躍鋒. 北京郵電大學(xué), 2021(01)
- [4]基于深度學(xué)習(xí)的智能無(wú)線感知方法研究[D]. 張良. 大連理工大學(xué), 2021(01)
- [5]基于古生物三維模型的化石圖像檢索技術(shù)研究[D]. 侯剛. 西北大學(xué), 2021(12)
- [6]基于深度學(xué)習(xí)的圖像檢索技術(shù)研究及應(yīng)用[D]. 司學(xué)飛. 太原理工大學(xué), 2021(01)
- [7]WebAR平臺(tái)大規(guī)模圖像檢索系統(tǒng)的研究與實(shí)現(xiàn)[D]. 吳壽鎰. 北京郵電大學(xué), 2021(01)
- [8]基于小樣本學(xué)習(xí)的目標(biāo)識(shí)別方法研究[D]. 陸遠(yuǎn)哲. 電子科技大學(xué), 2021(01)
- [9]基于對(duì)抗生成網(wǎng)絡(luò)和哈希匹配的行人重識(shí)別研究[D]. 何蘇生. 上海師范大學(xué), 2021(08)
- [10]基于場(chǎng)景分類和商品檢索的易混淆圖像識(shí)別研究[D]. 雷宇. 北京郵電大學(xué), 2020(04)
標(biāo)簽:機(jī)器學(xué)習(xí)論文; 大數(shù)據(jù)論文; 特征提取論文; 深度學(xué)習(xí)算法論文; 圖像深度論文;