国产精品三级AV三级AV三级_日韩AV无码一区二区三区不卡_青青草激情在线久久久免费播放_人妻无码视频免费看

一種簡單有效的說話人身份認(rèn)證方法

一種簡單有效的說話人身份認(rèn)證方法

一、一種簡單有效的說話人身份認(rèn)證方法(論文文獻(xiàn)綜述)

李佳慧[1](2021)在《基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理隨著智能設(shè)備的普及以及科技的迅猛發(fā)展,傳統(tǒng)的身份驗(yàn)證方式,如ID卡、密碼、簽名等已經(jīng)不能滿足人們對數(shù)據(jù)安全以及信息保護(hù)的要求。目前大多數(shù)的生物特征系統(tǒng)是將用戶的特征信息直接存儲或進(jìn)行用戶身份的認(rèn)證,很容易遭到攻擊,從而導(dǎo)致用戶信息的泄露。因此,構(gòu)造一種安全可靠的生物特征識別方案是人們關(guān)注的熱點(diǎn)問題。其中構(gòu)建一個(gè)安全的數(shù)據(jù)模板及評分標(biāo)準(zhǔn)成為關(guān)鍵。與其他生物特征相比,聲紋識別具有無接觸、信息量大、成本低廉等優(yōu)點(diǎn),是一種具有良好實(shí)用價(jià)值和研究潛力的身份認(rèn)證技術(shù),因此本文選擇對聲紋識別技術(shù)的隱私保護(hù)進(jìn)行研究。本文的主要工作有以下幾個(gè)方面:(1)關(guān)于聲紋識別的特征信息的安全與隱私問題,本文設(shè)計(jì)了一種基于隨機(jī)映射技術(shù)的聲紋模板保護(hù)方法。該方法基于身份向量(identity Vector,i-Vector)和線性判別分析技術(shù)(Linear discriminant analysis,LDA),提出一種改進(jìn)的隨機(jī)映射技術(shù)。通過對隨機(jī)映射算法的改進(jìn)以及對聲紋特征信息的處理,構(gòu)造了一種聲紋識別的模板保護(hù)方案,用戶可以在隨機(jī)域注冊并完成聲紋識別。我們通過已知的中文數(shù)據(jù)集對所提出的方法進(jìn)行了實(shí)驗(yàn)仿真,實(shí)驗(yàn)表明,該方法基本不影響聲紋識別的準(zhǔn)確性,且也能有效保證語音數(shù)據(jù)的安全。(2)在保證聲紋特征信息的基礎(chǔ)上,認(rèn)證階段時(shí)的打分標(biāo)準(zhǔn)的安全性成為我們關(guān)心的主要問題。本文提出了基于安全兩方計(jì)算的余弦判別器的隱私保護(hù)。首先提取用戶的身份特征并進(jìn)行歸一化,然后通過安全兩方計(jì)算協(xié)議與余弦相似度結(jié)合,以到達(dá)保護(hù)判別器的目的。該方案也相對減少了計(jì)算量和時(shí)間消耗,對惡意語音的訪問有一定的限制。

劉勇[2](2021)在《基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究》文中提出隨著社會的進(jìn)步與互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,身份認(rèn)證技術(shù)的應(yīng)用場景愈加復(fù)雜,傳統(tǒng)的身份認(rèn)證技術(shù)已不能滿足人們的現(xiàn)實(shí)需求,社會亟需一種安全且便捷的身份認(rèn)證技術(shù)。聲紋識別技術(shù)是生物識別技術(shù)的一種,較傳統(tǒng)的身份認(rèn)證技術(shù)具備著更高的安全性與便捷性,并且相對于人臉識別、指紋識別等其它生物識別技術(shù)其應(yīng)用成本與隱私侵犯性更低、更容易被人們接受,因此聲紋識別技術(shù)是一種極具應(yīng)用前景的身份認(rèn)證技術(shù)。聲紋識別技術(shù)雖然有著諸多優(yōu)點(diǎn),但是傳統(tǒng)的聲紋識別技術(shù)卻存在著實(shí)現(xiàn)過程復(fù)雜、識別準(zhǔn)確率低等問題。近年來,隨著人工智能的快速發(fā)展,深度學(xué)習(xí)方法以其優(yōu)越的性能正逐漸取代聲紋識別領(lǐng)域中傳統(tǒng)的統(tǒng)計(jì)學(xué)習(xí)方法,并成為聲紋識別領(lǐng)域的研究熱點(diǎn)。本文主要研究了基于深度學(xué)習(xí)的聲紋識別方法,將時(shí)空融合的特征提取方法與通道注意力機(jī)制引入聲紋識別領(lǐng)域并提出了三種聲紋識別方法,分別為基于ResNet-GRU的聲紋識別方法、基于ECA-DenseNet的聲紋識別方法以及基于ECA-DenseNet-GRU的聲紋識別方法。本文的創(chuàng)新內(nèi)容如下:(1)本文提出了一種基于ResNet-GRU的聲紋識別方法??紤]到聲紋特征本質(zhì)上是一個(gè)時(shí)間序列數(shù)據(jù),部分方法在特征提取過程中僅采用CNN提取其空間特征是存在一定缺陷的。與此同時(shí),當(dāng)采用RNN對較長的時(shí)間序列數(shù)據(jù)直接進(jìn)行特征提取時(shí),由于模型的復(fù)雜度較高,訓(xùn)練時(shí)收斂速度通常較為緩慢。因此本文結(jié)合了CNN與RNN的優(yōu)點(diǎn),首先對聲紋特征采用殘差網(wǎng)絡(luò)(ResNet)進(jìn)行高層特征的提取,在獲取空間特征的同時(shí)降低特征圖的尺寸,然后進(jìn)一步采用門控循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU)對特征圖進(jìn)行時(shí)序特征的提取。實(shí)驗(yàn)結(jié)果表明,本文提出的基于ResNet-GRU的聲紋識別方法的識別能力明顯優(yōu)于基線方法,并且相對于僅提取空間特征或時(shí)序特征的聲紋識別方法性能上也存在著較大的性能提升。(2)本文提出了一種基于ECA-DenseNet的聲紋識別方法。一般情況下,當(dāng)采用CNN對聲紋特征進(jìn)行空間特征提取后將會得到一個(gè)較深的特征圖,而特征圖中各通道在聲紋識別過程中的貢獻(xiàn)度是不同的,因此本文采用了ECA-Net通道注意力機(jī)制對特征圖各通道的權(quán)重進(jìn)行了重新分配。同時(shí)考慮到密集卷積神經(jīng)網(wǎng)絡(luò)(DenseNet)相對于ResNet在不同層之間的連接更加緊密,并且鼓勵(lì)特征重用,降低了模型的參數(shù)量,因此本文考慮進(jìn)一步采用DenseNet作為聲紋特征的空間特征提取網(wǎng)絡(luò)。最終的實(shí)驗(yàn)結(jié)果表明,基于DenseNet的聲紋識別方法相對于基于ResNet的聲紋方法識別性能更高,且占用的磁盤空間更少;本文提出的基于ECADenseNet的聲紋識別方法的識別能力也明顯優(yōu)于基線方法。(3)本文提出了一種基于ECA-DenseNet-GRU的聲紋識別方法。實(shí)驗(yàn)結(jié)果表明,本文提出的基于ECA-DenseNet-GRU的聲紋識別方法的識別能力遠(yuǎn)優(yōu)于基線方法,并且相對于基于ResNet-GRU的聲紋識別方法與基于ECA-DenseNet的聲紋識別方法在性能上也存在著較大的提升。隨后,本文對基于ECA-DenseNet-GRU的聲紋識別方法的訓(xùn)練方法進(jìn)一步改進(jìn),采用加性角度間隔損失函數(shù)(Arc Face)作為網(wǎng)絡(luò)訓(xùn)練的代價(jià)函數(shù),使得識別性能得到進(jìn)一步提升。本文提出的三種聲紋識別方法較基線方法在識別性能上均有所提升,為短語音聲紋識別技術(shù)提供了新的思路以及解決方案,具有一定的學(xué)術(shù)研究價(jià)值。

落紅衛(wèi)[3](2021)在《移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究》文中指出隨著移動(dòng)互聯(lián)網(wǎng)的快速發(fā)展,以及與云計(jì)算、物聯(lián)網(wǎng)等新興技術(shù)的深度融合,移動(dòng)互聯(lián)網(wǎng)已經(jīng)滲透到工作和生活的各個(gè)方面。身份認(rèn)證作為網(wǎng)絡(luò)與信息安全的基石,已經(jīng)成為移動(dòng)互聯(lián)網(wǎng)業(yè)務(wù)應(yīng)用安全的第一道防線,不同的業(yè)務(wù)應(yīng)用對其提出了差異化需求。支持多類別、多級別的身份認(rèn)證,以滿足不同類型、不同規(guī)模的移動(dòng)互聯(lián)網(wǎng)業(yè)務(wù)應(yīng)用的差異化身份認(rèn)證需求成為了移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證的重要發(fā)展方向。本文以建立面向移動(dòng)互聯(lián)網(wǎng)的多級可信身份認(rèn)證技術(shù)方案為目標(biāo),對移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)進(jìn)行了深入研究:首先,針對應(yīng)用場景多樣化和安全需求差異化,提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù);其次,針對最前沿的基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng),提出了利用對抗性實(shí)例進(jìn)行安全性檢測方法;最后,針對典型的移動(dòng)互聯(lián)網(wǎng)應(yīng)用場景,分別設(shè)計(jì)了一種基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議和一種基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型。本文的主要貢獻(xiàn)如下:(1)提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù),用于滿足大規(guī)模多級可信身份認(rèn)證需求。首先提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)架構(gòu),并針對大規(guī)模身份認(rèn)證場景提出了輕量級身份認(rèn)證服務(wù)接入方案;然后針對多因子聯(lián)合身份認(rèn)證進(jìn)行設(shè)計(jì),以保證身份認(rèn)證安全的情況下盡可能降低對用戶的打擾;隨后提出基于深度學(xué)習(xí)的身份認(rèn)證風(fēng)險(xiǎn)控制;最后給出了具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)的具體應(yīng)用案例。(2)提出了一種針對基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng)的安全性檢測方法。首先,介紹了基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng)實(shí)現(xiàn)原理,隨后相應(yīng)地設(shè)計(jì)了一個(gè)新的損失函數(shù)來部署一個(gè)對抗性實(shí)例生成器,并生成具有輕微擾動(dòng)的對抗性實(shí)例,然后利用這些對抗性實(shí)例來欺騙說話人驗(yàn)證系統(tǒng)以達(dá)到安全性檢測的目的,最后通過具體測試實(shí)驗(yàn)獲取我們設(shè)計(jì)系統(tǒng)的安全性檢測性能指標(biāo)。(3)設(shè)計(jì)了一種基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議。首先分析了高敏感應(yīng)用場景身份認(rèn)證面臨的安全威脅并提出了相應(yīng)的身份認(rèn)證需求。然后以Mo等人的方案為例,指出其協(xié)議遭受竊取驗(yàn)證表攻擊、拒絕服務(wù)攻擊、離線猜測攻擊和臨時(shí)秘密值泄露攻擊,隨后提出了一種基于橢圓曲線加密并具備離線認(rèn)證中心的三因子身份認(rèn)證方案。該方案繼承了現(xiàn)有方案的優(yōu)點(diǎn),并可以應(yīng)用于包括用戶設(shè)備、云服務(wù)器和注冊中心的移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證系統(tǒng)。通過安全性分析表明,所設(shè)計(jì)的方案可以抵抗已知攻擊,并具備用戶友好性。通過性能分析比較表明,我們所提出的方案具有更小的計(jì)算和通信開銷,并提供更多的安全屬性。(4)設(shè)計(jì)了一種基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型。首先分析了物聯(lián)網(wǎng)面臨的安全威脅并提出了相應(yīng)的身份認(rèn)證需求,繼而提出了一種基于網(wǎng)關(guān)的雙因子身份認(rèn)證(Gateway-based2nd Factor,G2F)方案。該方案基于FIDO的通用第二因子協(xié)議(Universal 2nd Factor,U2F),將FIDOU2F協(xié)議中防篡改的硬件令牌,與以網(wǎng)關(guān)為中心的物聯(lián)網(wǎng)架構(gòu)相結(jié)合。該硬件令牌可以與網(wǎng)關(guān)節(jié)點(diǎn)和移動(dòng)互聯(lián)網(wǎng)應(yīng)用服務(wù)器同時(shí)進(jìn)行交互,實(shí)現(xiàn)了物聯(lián)網(wǎng)身份認(rèn)證的高安全性和高效率,并降低了對服務(wù)提供商的依賴性,同時(shí)保護(hù)物聯(lián)網(wǎng)設(shè)備免受惡意攻擊。之后,我們將G2F原型應(yīng)用在商業(yè)化的阿里云上并進(jìn)行了實(shí)際測試評估,安全和性能的測評結(jié)果表明:G2F實(shí)現(xiàn)了基于硬件令牌的輕量快速物聯(lián)網(wǎng)身份認(rèn)證,并能抵御已知針對物聯(lián)網(wǎng)設(shè)備管理身份認(rèn)證的安全攻擊。

陳青梅[4](2021)在《基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)》文中提出隨著信息技術(shù)的迅速發(fā)展和個(gè)人數(shù)據(jù)的蓬勃增長,對信息的訪問控制和隱私保護(hù)一直是人們關(guān)注的熱點(diǎn)。由于不同人的發(fā)聲器官在形狀、大小等結(jié)構(gòu)上各不相同,且每個(gè)人都有著自己獨(dú)特的發(fā)聲習(xí)慣,使得每個(gè)人的聲音聽起來都獨(dú)具自己的特點(diǎn),能夠根據(jù)一個(gè)人的聲音來確定其身份。語音也是人類日常溝通交流最直接、普遍的方式,通過說話人的語音進(jìn)行說話人身份的識別或驗(yàn)證安全便捷,易于大規(guī)模推廣。在電子支付、智能門鎖、安防等信息安全領(lǐng)域,聲紋識別技術(shù)已逐漸成為身份認(rèn)證方式的主流趨勢。雖然聲紋識別相關(guān)的研究已取得了巨大的進(jìn)展,但離投入真實(shí)應(yīng)用還存在一些待解決的問題。聲紋識別系統(tǒng)的實(shí)際應(yīng)用,往往是在復(fù)雜多樣的應(yīng)用環(huán)境中且面臨著多種類型的未知欺騙語音,主要的欺騙語音通常由語音合成、語音轉(zhuǎn)換以及錄音重放等方法得到。傳統(tǒng)的聲紋識別系統(tǒng)缺乏對輸入語音的欺騙性檢測,欺騙語音的攻擊會極大程度上降低系統(tǒng)的安全性能。針對以上問題,本文提出了一種基于深度學(xué)習(xí)的反欺騙聲紋識別算法。該算法對語音提取多張不同窗口設(shè)置的語譜圖特征作為輸入,多張不同分辨率的語譜圖有利于從原始語音中獲取更充分、全局的信息,并基于深度殘差網(wǎng)絡(luò)和通道注意力特征融合機(jī)制從語音中提取高層次的語音表征,實(shí)現(xiàn)對輸入語音的欺騙性檢測以及說話人身份驗(yàn)證。該算法在公開語音數(shù)據(jù)集ASVSpoof 2019上進(jìn)行了一系列對比實(shí)驗(yàn),結(jié)果證明了本文提出的多分辨率語譜圖結(jié)合深度學(xué)習(xí)模型能夠有效檢測多種類型的欺騙語音。在該算法基礎(chǔ)上,本文設(shè)計(jì)與實(shí)現(xiàn)了基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng),并詳細(xì)描述了系統(tǒng)相關(guān)的需求分析、系統(tǒng)架構(gòu)組成以及各層工作的流程,在論文的最后對反欺騙聲紋識別系統(tǒng)內(nèi)各個(gè)組成模塊的設(shè)計(jì)以及具體功能作用進(jìn)行了詳細(xì)的闡述。

蘇靖婷[5](2021)在《基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)》文中研究表明“無監(jiān)督”身份認(rèn)證的時(shí)代已經(jīng)到來,快速準(zhǔn)確便捷的實(shí)現(xiàn)身份認(rèn)證,不僅能夠方便人們的生活,還能保障個(gè)人權(quán)益。以往常見的身份認(rèn)證方法普遍存在被“冒名頂替”的風(fēng)險(xiǎn)。因此,生物特征識別技術(shù)應(yīng)運(yùn)而生。其中聲音作為人類攜帶的自然屬性,采用“非接觸式”的認(rèn)證方式,使身份認(rèn)證更加便捷,且對硬件要求簡單,在刑偵、金融、軍事、智能設(shè)備等領(lǐng)域,可以被廣泛應(yīng)用。SOPC(片上可編程系統(tǒng))是一種以FPGA(現(xiàn)場可編程門陣列)為基礎(chǔ),通過軟硬件結(jié)合的方式實(shí)現(xiàn)的系統(tǒng)。具有安全高效、成本低廉、易于維護(hù)等優(yōu)勢。故基于SOPC技術(shù)設(shè)計(jì)、實(shí)現(xiàn)本系統(tǒng)。本文設(shè)計(jì)實(shí)現(xiàn)了基于SOPC的聲紋識別系統(tǒng)。主要內(nèi)容包括基于FPGA的硬件模塊的設(shè)計(jì)實(shí)現(xiàn)以及將各模塊集成為SOPC系統(tǒng)兩大部分。硬件部分包含預(yù)處理和特征提取兩個(gè)模塊。預(yù)處理模塊包括預(yù)加重模塊、分幀模塊、加窗模塊和端點(diǎn)檢測模塊,實(shí)現(xiàn)了對語音信號的初步處理,消除了噪音并增強(qiáng)了有用信息。特征提取模塊包括FFT模塊、功率譜模塊、Mel濾波模塊、LOG模塊和DCT模塊,實(shí)現(xiàn)了從經(jīng)過預(yù)處理后的語音信號中提取出能夠表達(dá)說話人獨(dú)有個(gè)性的特征。并結(jié)合Nios II處理器,設(shè)計(jì)集成了SOPC系統(tǒng)。經(jīng)測試結(jié)果表明,所實(shí)現(xiàn)的聲紋識別系統(tǒng)有效可行。

苑新宇[6](2021)在《說話人辨認(rèn)加速方法研究》文中指出說話人辨認(rèn)需要把所有待辨認(rèn)語音的聲紋模型與辨認(rèn)集中所有的說話人模型進(jìn)行全交叉生成辨認(rèn)列表,然后根據(jù)生成的辨認(rèn)列表,對待辨認(rèn)語音的聲紋模型和說話人的聲紋模型進(jìn)行似然分計(jì)算,然后對似然分進(jìn)行排序,從而找出最高或者前幾高的似然分。但是這樣進(jìn)行說話人辨認(rèn)將導(dǎo)致總體的計(jì)算時(shí)間過久,因?yàn)槊看伪嬲J(rèn)需要一定的時(shí)間,在說話人數(shù)目過于龐大的時(shí)候,把每個(gè)待辨認(rèn)語音與所有說話人進(jìn)行全交叉計(jì)算似然分將導(dǎo)致很大的計(jì)算開銷,時(shí)間效率低下。本文在閉集文本無關(guān)的說話人辨認(rèn)上進(jìn)行加速方法的探索和研究,提出了兩種方法進(jìn)行說話人辨認(rèn)的提速工作:其一是使用雙層參考說話人模型的方式,利用某種聚類算法把模型庫中的目標(biāo)說話人聚類得到多組的聚類中心,也就是參考說話人模型,參考說話人模型具有同一組內(nèi)說話人模型的共性特征。在辨認(rèn)時(shí),計(jì)算待辨認(rèn)語音與所有說話人模型的似然分,根據(jù)似然分選擇相似程度最高的一組再進(jìn)行辨認(rèn),最終找到與待辨認(rèn)語音最相似的說話人模型。這個(gè)過程減少了總體的辨認(rèn)次數(shù),達(dá)到了說話人辨認(rèn)加速的目的。其二是將說話人表征進(jìn)行二進(jìn)制編碼,同時(shí)保留說話人的個(gè)性特征,把原先在流式空間中計(jì)算語音特征和說話人特征似然分,改成了在二進(jìn)制漢明空間計(jì)算似然分,在計(jì)算似然分時(shí)在漢明空間使用近似最近鄰搜索算法查找說話人表征,度量方式分別采用漢明距離和地球移動(dòng)距離,由于在二進(jìn)制線性空間中似然分計(jì)算比正常的流式空間快的多,相當(dāng)于把每次辨認(rèn)的時(shí)間減小,總體的說話人辨認(rèn)效率也相應(yīng)的有較大提升。實(shí)驗(yàn)結(jié)果證明,本文所提出的分別利用聚類和二進(jìn)制的方式進(jìn)行優(yōu)化說話人辨認(rèn)的計(jì)算方式,能夠有效的縮短辨認(rèn)時(shí)間。

王琪[7](2021)在《灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究》文中研究表明當(dāng)今社會基于人類特征提取的生物認(rèn)證技術(shù)不斷發(fā)展,說話人識別作為其中之一,是通過發(fā)音人的聲音來辨別身份的。該生物認(rèn)證技術(shù)也被叫做聲紋識別,其核心內(nèi)容是將語音樣本信號中提取出的能代表發(fā)音人身份的信息進(jìn)行處理進(jìn)而實(shí)現(xiàn)對各類別說話人的識別。由于近年來生物認(rèn)證方法在機(jī)器學(xué)習(xí)的推動(dòng)下獲得了巨大進(jìn)展,有著廣闊的發(fā)展前景和重要的研究價(jià)值,說話人識別也深受其影響,學(xué)者們逐漸從基于傳統(tǒng)方法的說話人識別的研究方向轉(zhuǎn)移到基于機(jī)器學(xué)習(xí)方法的說話人識別中來。本文提出了一種基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)應(yīng)用于說話人識別的方法,通過選取合適的語音樣本數(shù)據(jù)集,提取數(shù)據(jù)集中的聲音特征并進(jìn)行降維,將降維之后的數(shù)據(jù)集置于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)模型中進(jìn)行訓(xùn)練。最后,將測試樣本作為訓(xùn)練后系統(tǒng)的輸入,進(jìn)行匹配計(jì)算、結(jié)果比對。首先,進(jìn)行語音樣本數(shù)據(jù)的采集,選擇15名實(shí)驗(yàn)者在安靜的環(huán)境下進(jìn)行每人30~40條語音數(shù)據(jù)的采集工作,并將采集到的語音樣本數(shù)據(jù)統(tǒng)一處理為9秒左右的WAV格式文件,為了降低說話人識別系統(tǒng)的復(fù)雜度,將得到的數(shù)據(jù)進(jìn)行特征處理,為說話人身份的識別提供了真實(shí)的實(shí)驗(yàn)數(shù)據(jù)。其次,將經(jīng)過特征處理后的語音樣本數(shù)據(jù)集分為兩類,一類作為訓(xùn)練集用于說話人識別系統(tǒng)的學(xué)習(xí),一類作為測試集用于比較說話人身份的識別結(jié)果。提出了極限學(xué)習(xí)機(jī)模型后,又通過公式推導(dǎo)和理論分析詳細(xì)研究了核極限學(xué)習(xí)機(jī)模型,通過對一組隨機(jī)樣本數(shù)據(jù)進(jìn)行識別,并且在識別中選取不同的傳統(tǒng)機(jī)器學(xué)習(xí)方法進(jìn)行了對比實(shí)驗(yàn),表明了核極限學(xué)習(xí)機(jī)的訓(xùn)練速度和準(zhǔn)確率遠(yuǎn)遠(yuǎn)優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。最后,為了追求更好的識別準(zhǔn)確率,引入了群智能優(yōu)化算法中的灰狼優(yōu)化算法,實(shí)驗(yàn)結(jié)果表明,基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在識別精度和收斂速度方面優(yōu)于其他群智能算法優(yōu)化的網(wǎng)絡(luò)模型,并在灰狼算法的迭代優(yōu)化中尋求最優(yōu)解,使一次實(shí)驗(yàn)中對于說話人識別的最大識別準(zhǔn)確率為94.76%,平均識別準(zhǔn)確率為93.17%,且各類別說話人的聲音辨別準(zhǔn)確率均在85%以上,結(jié)果說明了改進(jìn)后的網(wǎng)絡(luò)模型相比核極限機(jī)網(wǎng)絡(luò)模型有更好的識別精度,表明了基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)模型有更好的分類特性,驗(yàn)證了本文所提出的基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)模型在說話人識別應(yīng)用中的良好發(fā)展前景。

閆琛[8](2021)在《聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理感知技術(shù)的飛速發(fā)展促使物聯(lián)網(wǎng)與真實(shí)物理世界更廣泛地交互連接,使無人駕駛、智能家居、語音助手等智能應(yīng)用成為可能。然而,感知的安全風(fēng)險(xiǎn)在過去尚未得到足夠重視。傳感器是感知技術(shù)的核心組件,由于其復(fù)雜度和智能化程度普遍較低,它們非常容易遭受來自物理世界的“換能攻擊”,導(dǎo)致感知結(jié)果發(fā)生錯(cuò)誤。上層系統(tǒng)通常僅考慮傳感器的有限噪聲和誤差,默認(rèn)測量結(jié)果是可信的,這種對硬件的盲目信任將導(dǎo)致傳感器一旦被攻擊,后續(xù)的決策和執(zhí)行環(huán)節(jié)都可能發(fā)生錯(cuò)誤,從而使其所在的物聯(lián)網(wǎng)設(shè)備系統(tǒng)的安全遭受威脅。因此,傳感器是亟須關(guān)注的物聯(lián)網(wǎng)新型脆弱點(diǎn),需要系統(tǒng)地了解感知安全的風(fēng)險(xiǎn)和機(jī)理,進(jìn)行系統(tǒng)防護(hù),使傳感器可以在復(fù)雜多變的環(huán)境中可靠地測量,保障物聯(lián)網(wǎng)與物理世界的交互安全。本文針對物聯(lián)網(wǎng)的感知安全問題,研究感知安全的內(nèi)在機(jī)理,并以聲音感知為切入點(diǎn),研究語音采集和聲波測量兩類代表性場景中的攻擊和防護(hù)關(guān)鍵技術(shù),為聲音感知安全問題提出了相應(yīng)的解決方案?!じ兄踩珯C(jī)理建模與分析:傳感器種類繁多,具有多元異構(gòu)的硬件設(shè)計(jì)方案和復(fù)雜多變的換能原理,同時(shí),針對傳感器的攻擊方式具有信號多模態(tài)、傳播多路徑、作用多機(jī)理等特點(diǎn),難以進(jìn)行統(tǒng)一的描述和作用機(jī)理分析,限制了對感知安全問題的深入理解。本文首先對感知安全問題進(jìn)行剖析,定義感知過程可能遭受的換能攻擊的方式、方法和威脅模型。為準(zhǔn)確理解感知安全機(jī)理,本文從傳感器的信號轉(zhuǎn)換、傳遞和處理通路出發(fā),將感知信號在傳感器中從輸入到輸出所經(jīng)歷的通路抽象為由換能器、信號處理電路、模數(shù)轉(zhuǎn)換器三個(gè)主要部分組成的信號鏈,進(jìn)而構(gòu)建傳感器模型。在此模型的基礎(chǔ)上,構(gòu)建換能攻擊模型,實(shí)現(xiàn)對換能攻擊作用機(jī)理的統(tǒng)一描述與分析?!せ谄骷蔷€性的無聲語音指令攻擊:語音采集常用于智能語音助手等物聯(lián)網(wǎng)的各類語音系統(tǒng),系統(tǒng)通過麥克風(fēng)實(shí)現(xiàn)對用戶語音信號的采集。本文發(fā)現(xiàn)語音采集可能遭受攻擊,存在語音采集結(jié)果不可信的問題。通過對麥克風(fēng)傳感器進(jìn)行感知安全機(jī)理分析,本文首次發(fā)現(xiàn)由于麥克風(fēng)硬件固有的非線性特性導(dǎo)致的安全問題,該硬件缺陷廣泛存在于現(xiàn)有的語音采集設(shè)備中。攻擊者通過利用器件的非線性特性,可以在被攻擊的麥克風(fēng)信號通路中產(chǎn)生交調(diào)失真,導(dǎo)致麥克風(fēng)的輸出信號包含輸入信號中不存在的信號頻率。本文深入研究麥克風(fēng)的此類安全脆弱性,首次設(shè)計(jì)了“海豚音攻擊”,該攻擊可以通過超聲波無聲地向語音采集系統(tǒng)中注入有聲的語音信號,使語音助手接收到無聲語音指令,從而以隱蔽的方式控制智能設(shè)備?!せ诼晥龅恼Z音欺騙攻擊檢測:除了以上攻擊,語音采集系統(tǒng)同時(shí)面臨語音欺騙攻擊等多種攻擊方式,攻擊者可以通過錄音重放、語音合成、語音轉(zhuǎn)換等技術(shù)模仿用戶的語音指令,繞過說話人驗(yàn)證系統(tǒng)對語音助手進(jìn)行控制,造成嚴(yán)重的安全隱私風(fēng)險(xiǎn)。海豚音攻擊與此類攻擊的共性特征是均利用揚(yáng)聲器或換能器設(shè)備產(chǎn)生攻擊信號,與人體發(fā)聲方式有巨大差異。為應(yīng)對此類威脅,本文提出基于聲場的語音欺騙攻擊檢測方法,該方法通過手機(jī)內(nèi)置的雙麥克風(fēng)對語音進(jìn)行采集,并基于雙通道音頻計(jì)算語音反映的聲場特征“場紋”。本文通過深入的仿真和實(shí)驗(yàn)研究發(fā)現(xiàn),不同的發(fā)聲體由于物理發(fā)聲結(jié)構(gòu)的差異,其產(chǎn)生的聲音存在獨(dú)特的聲場空間能量分布特征,系統(tǒng)可以通過場紋對不同的發(fā)聲體(例如人與音箱、超聲波發(fā)生器以及其他人)進(jìn)行區(qū)分,有效檢測語音欺騙攻擊,實(shí)現(xiàn)可信的語音采集?!っ嫦驘o人駕駛超聲波避障的攻擊與防護(hù):聲波測量常用于無人駕駛汽車等場景,系統(tǒng)通過超聲波測距傳感器實(shí)現(xiàn)對障礙物的檢測和測距,為自動(dòng)駕駛的決策和控制提供重要感知信息。本文發(fā)現(xiàn)超聲波避障存在測距結(jié)果不可信的問題,攻擊者可以通過發(fā)射超聲波攻擊信號,使傳感器無輸出或精確控制其測量結(jié)果。本文通過對超聲波測距傳感器進(jìn)行模糊測試和逆向分析,發(fā)現(xiàn)現(xiàn)有超聲波傳感器的安全缺陷,首次提出并實(shí)現(xiàn)了針對超聲波避障的阻塞攻擊和兩類欺騙攻擊方法,并在11款超聲波傳感器和7款真實(shí)汽車上進(jìn)行了攻擊驗(yàn)證,發(fā)現(xiàn)攻擊可嚴(yán)重影響自動(dòng)駕駛安全,例如使自動(dòng)駕駛狀態(tài)下的特斯拉汽車與障礙物發(fā)生碰撞。為防御此類攻擊,本文設(shè)計(jì)了基于單傳感器和多傳感器的安全防護(hù)機(jī)制,同時(shí)實(shí)現(xiàn)了攻擊檢測、可靠測距和攻擊者定位,有效地提高了超聲波避障的安全性。

劉樂,鄔曉鈞,鄭方[9](2020)在《金融領(lǐng)域中的聲紋識別應(yīng)用》文中指出在金融領(lǐng)域,生物識別已經(jīng)被廣泛應(yīng)用于各身份認(rèn)證環(huán)節(jié)中,相比于傳統(tǒng)方法優(yōu)勢明顯,但其仍舊存在著較多風(fēng)險(xiǎn)。聲紋識別在應(yīng)用過程中,結(jié)合多特征融合、聲紋鑒偽及意圖檢測等方法有效降低了其在金融領(lǐng)域應(yīng)用過程中的風(fēng)險(xiǎn),覆蓋的應(yīng)用場景也越來越廣。同時(shí),金融領(lǐng)域中的聲紋評測方法也從單一指標(biāo)的評測方式轉(zhuǎn)向整體系統(tǒng)評測的方式。此外,行業(yè)標(biāo)準(zhǔn)的制定和發(fā)布也對聲紋識別應(yīng)用在金融領(lǐng)域的發(fā)展進(jìn)程產(chǎn)生了極大的促進(jìn)作用。

梁寧欣[10](2020)在《基于時(shí)域信號的端到端的說話人識別算法研究》文中研究說明隨著科學(xué)技術(shù)的高速發(fā)展,網(wǎng)絡(luò)信息化時(shí)代下社會對信息安全的需求日益增長。如何準(zhǔn)確識別某個(gè)人的身份,更好地保護(hù)個(gè)人的信息安全是智能化時(shí)代亟待解決的關(guān)鍵問題。生物特征識別作為一種利用人的生理和行為特征來進(jìn)行個(gè)人身份認(rèn)證的技術(shù),因其兼具生物特征方便、安全和高效的特點(diǎn)逐漸獲得越來越多的關(guān)注。其中,說話人識別技術(shù),又稱聲紋識別技術(shù)是生物特征識別領(lǐng)域的熱門研究方向之一,具備聲紋語音特征穩(wěn)定、唯一、便于采集等優(yōu)點(diǎn),被廣泛應(yīng)用于人機(jī)交互、身份識別等現(xiàn)實(shí)場合中。深度學(xué)習(xí)的引入進(jìn)一步促進(jìn)了說話人識別技術(shù)的發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的端到端的說話人識別技術(shù)吸引了眾多科研工作者,然而,目前端到端的說話人識別系統(tǒng)普遍采用“分而治之”的流程:即先從原始語音信號中提取出傳統(tǒng)的語音特征,如梅爾頻率倒譜系數(shù),再基于傳統(tǒng)的語音特征進(jìn)行說話人分類器網(wǎng)絡(luò)的訓(xùn)練。這種方法通常依賴于人工設(shè)計(jì)固定的、復(fù)雜的傳統(tǒng)語音聲學(xué)特征,并且傳統(tǒng)語音特征的提取和說話人識別模型的訓(xùn)練往往是單獨(dú)進(jìn)行的,并未從整體的角度出發(fā),難以實(shí)現(xiàn)語音特征提取及說話人識別分類的共同優(yōu)化。因此如何有機(jī)地結(jié)合說話人語音特征的提取器和說話人識別的分類器,實(shí)現(xiàn)端到端的說話人識別算法是有必要的同時(shí)又是極富挑戰(zhàn)性的課題。針對上述問題,本文提出了一個(gè)新的端到端的說話人識別框架:基于時(shí)域卷積直接從原始時(shí)域信號提取語音特征,并搭建基于深度神經(jīng)網(wǎng)絡(luò)的說話人分類器模型,從而實(shí)現(xiàn)說話人的身份識別。本文的主要工作有:第一,提出了一個(gè)新的基于時(shí)域信號的端到端的說話人識別框架,即聯(lián)合語音特征提取器、基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)的分類器、AM-Softmax和Triplet損失函數(shù)的說話人識別框架。該識別框架能夠?qū)崿F(xiàn)共同優(yōu)化語音特征的提取和說話人的識別分類,并達(dá)到穩(wěn)定、準(zhǔn)確的說話人識別目的。第二,提出了一種新的基于時(shí)域卷積的語音特征提取方法,該方法能夠從原始的時(shí)域信號中學(xué)習(xí)提取出一種有效的時(shí)間域語音特征表達(dá)(Raw-Front Feature),并且可以替代傳統(tǒng)的固定語音特征嵌入到說話人識別系統(tǒng)中,提高了直接從時(shí)域信號中提取語音特征的準(zhǔn)確性和魯棒性。第三,為驗(yàn)證本文提出的新的語音特征提取方法的可行性,以及該方法在端到端說話人識別框架中的可移植性,本文搭建了多個(gè)將時(shí)間域語音特征(Raw-Front Feature)作為輸入和不同深度神經(jīng)網(wǎng)絡(luò)作為分類模型的文本無關(guān)說話人識別系統(tǒng),探討了基于時(shí)域卷積的語音特征提取方法在端到端的說話人識別技術(shù)上的應(yīng)用。在開源數(shù)據(jù)集CSTR VCTK Corpus和TIMIT上的大量實(shí)驗(yàn)結(jié)果對比和分析表明,本文提出的新的基于時(shí)域信號的端到端的說話人識別框架能夠分別取得1.93%和9.61%的等錯(cuò)誤率(Equal Error Rate,EER),實(shí)現(xiàn)了良好的說話人識別準(zhǔn)確率性能。并且相比于傳統(tǒng)的語音特征方法,本文提出的時(shí)間域語音特征表達(dá)在固定分類器模型實(shí)驗(yàn)配置下,能夠獲得更低的EER值。

二、一種簡單有效的說話人身份認(rèn)證方法(論文開題報(bào)告)

(1)論文研究背景及目的

此處內(nèi)容要求:

首先簡單簡介論文所研究問題的基本概念和背景,再而簡單明了地指出論文所要研究解決的具體問題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。

寫法范例:

本文主要提出一款精簡64位RISC處理器存儲管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過程。在該MMU結(jié)構(gòu)中,TLB采用叁個(gè)分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁面大小,采用多級分層頁表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級頁表轉(zhuǎn)換過程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲系統(tǒng)實(shí)現(xiàn)的一個(gè)重要組成部分。

(2)本文研究方法

調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對象的具體信息。

觀察法:用自己的感官和輔助工具直接觀察研究對象從而得到有關(guān)信息。

實(shí)驗(yàn)法:通過主支變革、控制研究對象來發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。

文獻(xiàn)研究法:通過調(diào)查文獻(xiàn)來獲得資料,從而全面的、正確的了解掌握研究方法。

實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。

定性分析法:對研究對象進(jìn)行“質(zhì)”的方面的研究,這個(gè)方法需要計(jì)算的數(shù)據(jù)較少。

定量分析法:通過具體的數(shù)字,使人們對研究對象的認(rèn)識進(jìn)一步精確化。

跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對某一課題進(jìn)行研究。

功能分析法:這是社會科學(xué)用來分析社會現(xiàn)象的一種方法,從某一功能出發(fā)研究多個(gè)方面的影響。

模擬法:通過創(chuàng)設(shè)一個(gè)與原型相似的模型來間接研究原型某種特性的一種形容方法。

三、一種簡單有效的說話人身份認(rèn)證方法(論文提綱范文)

(1)基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究(論文提綱范文)

摘要
Abstract
第一章 緒論
    §1.1 課題的研究背景與意義
    §1.2 國內(nèi)外研究現(xiàn)狀
        §1.2.1 聲紋識別的發(fā)展歷程
        §1.2.2 聲紋識別特征的模板保護(hù)
    §1.3 本文工作以及內(nèi)容安排
第二章 預(yù)備知識
    §2.1 聲紋識別技術(shù)
        §2.1.1 聲紋識別系統(tǒng)框架和基本原理
        §2.1.2 聲紋識別常用特征
        §2.1.3 聲紋識別主要模型
    §2.2 隨機(jī)映射相關(guān)知識
        §2.2.1 Johnson-Lindenstrauss引理
        §2.2.2 隨機(jī)映射
    §2.3 本章小結(jié)
第三章 基于隨機(jī)映射技術(shù)的聲紋識別模板保護(hù)
    §3.1 引言
    §3.2 方案設(shè)計(jì)
        §3.2.1 基于隨機(jī)映射技術(shù)的聲紋模板保護(hù)定義
        §3.2.2 改進(jìn)的隨機(jī)映射聲紋模板保護(hù)方法
    §3.3 性能分析
        §3.3.1 實(shí)驗(yàn)結(jié)果分析
        §3.3.2 有效性和安全性分析
    §3.4 本章小結(jié)
第四章 基于安全兩方計(jì)算的余弦判別器的隱私保護(hù)
    §4.1 引言
    §4.2 預(yù)備知識
        §4.2.1 安全兩方計(jì)算
        §4.2.2 基于余弦相似度和同態(tài)加密的模板保護(hù)
    §4.3 基于安全兩方計(jì)算的余弦相似度比較的嵌入
        §4.3.1 本文方案
        §4.3.2 實(shí)驗(yàn)結(jié)果分析
        §4.3.3 安全性分析
    §4.4 本章小結(jié)
第五章 總結(jié)與展望
    §5.1 全文總結(jié)
    §5.2 研究展望
參考文獻(xiàn)
致謝
作者在攻讀碩士期間的主要研究成果

(2)基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究(論文提綱范文)

摘要
ABSTRACT
1 緒論
    1.1 研究背景
    1.2 研究歷史與發(fā)展現(xiàn)狀
        1.2.1 研究歷史
        1.2.2 發(fā)展現(xiàn)狀
    1.3 本文的研究內(nèi)容與結(jié)構(gòu)安排
2 本文相關(guān)工作
    2.1 聲紋識別
        2.1.1 基本概念
        2.1.2 聲紋識別基本框架
    2.2 聲紋識別相關(guān)工作
        2.2.1 預(yù)處理
        2.2.2 聲紋參數(shù)
        2.2.3 傳統(tǒng)聲紋識別模型
    2.3 深度學(xué)習(xí)理論
        2.3.1 深度神經(jīng)網(wǎng)絡(luò)
        2.3.2 卷積神經(jīng)網(wǎng)絡(luò)
        2.3.3 循環(huán)神經(jīng)網(wǎng)絡(luò)
        2.3.4 激活函數(shù)
        2.3.5 損失函數(shù)
        2.3.6 過擬合
    2.4 本章小結(jié)
3 基于深度學(xué)習(xí)的聲紋識別方法
    3.1 基線方法
        3.1.1 基于DNN的聲紋識別方法
        3.1.2 基于VGGNet的聲紋識別方法
        3.1.3 基于LSTM的聲紋識別方法
    3.2 數(shù)據(jù)集
    3.3 實(shí)驗(yàn)設(shè)置與評價(jià)指標(biāo)
        3.3.1 實(shí)驗(yàn)設(shè)置
        3.3.2 評價(jià)指標(biāo)
    3.4 實(shí)驗(yàn)結(jié)果與分析
        3.4.1 實(shí)驗(yàn)結(jié)果
        3.4.2 實(shí)驗(yàn)分析
    3.5 本章小結(jié)
4 時(shí)空融合的特征提取方法
    4.1 基于ResNet的聲紋識別方法
        4.1.1 ResNet
        4.1.2 網(wǎng)絡(luò)結(jié)構(gòu)
    4.2 基于ResNet-GRU的聲紋識別方法
        4.2.1 GRU
        4.2.2 網(wǎng)絡(luò)結(jié)構(gòu)
    4.3 實(shí)驗(yàn)結(jié)果與分析
        4.3.1 實(shí)驗(yàn)結(jié)果
        4.3.2 實(shí)驗(yàn)分析
    4.4 本章小結(jié)
5 結(jié)合時(shí)空融合與注意力機(jī)制的特征提取方法
    5.1 基于ECA-DenseNet的聲紋識別方法
        5.1.1 ECA-Net
        5.1.2 DenseNet
        5.1.3 網(wǎng)絡(luò)結(jié)構(gòu)
    5.2 基于ECA-DenseNet-GRU的聲紋識別方法
    5.3 實(shí)驗(yàn)結(jié)果與分析
        5.3.1 基于ECA-DenseNet的聲紋識別方法
        5.3.2 基于ECA-DenseNet-GRU的聲紋識別方法
        5.3.3 加性角度空隔損失函數(shù)的應(yīng)用
    5.4 本章小結(jié)
6 總結(jié)與展望
    6.1 總結(jié)
    6.2 展望
參考文獻(xiàn)
致謝
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文目錄及研究成果

(3)移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景與意義
    1.2 國內(nèi)外研究現(xiàn)狀
    1.3 本文的主要工作及結(jié)構(gòu)安排
        1.3.1 本文的主要工作
        1.3.2 本文的結(jié)構(gòu)安排
第二章 具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)
    2.1 前言
    2.2 研究動(dòng)機(jī)和相關(guān)工作
    2.3 具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)框架
    2.4 輕量級身份認(rèn)證服務(wù)接入
    2.5 多因子聯(lián)合身份認(rèn)證
        2.5.1 多因子身份認(rèn)證強(qiáng)度分析
        2.5.2 基于數(shù)據(jù)共享的聯(lián)合身份認(rèn)證
    2.6 基于深度學(xué)習(xí)的身份認(rèn)證風(fēng)險(xiǎn)控制
        2.6.1 用戶行為大數(shù)據(jù)分析
        2.6.2 身份認(rèn)證風(fēng)險(xiǎn)控制
    2.7 應(yīng)用案例
    2.8 本章小結(jié)
第三章 說話人驗(yàn)證系統(tǒng)的安全性檢測方法
    3.1 前言
    3.2 研究動(dòng)機(jī)和相關(guān)工作
    3.3 基礎(chǔ)知識
        3.3.1 說話人驗(yàn)證基礎(chǔ)知識
        3.3.2 損失函數(shù)TE2E和GE2E
    3.4 對抗性實(shí)例生成器系統(tǒng)設(shè)計(jì)
        3.4.1 對抗性實(shí)例攻擊模型
        3.4.2 對抗性實(shí)例技術(shù)需求
        3.4.3 對抗性實(shí)例剪輯函數(shù)
        3.4.4 廣義相關(guān)攻擊損失函數(shù)
        3.4.5 隱蔽相關(guān)攻擊損失函數(shù)
    3.5 性能分析
        3.5.1 實(shí)驗(yàn)設(shè)置
        3.5.2 性能指標(biāo)
        3.5.3 攻擊特性
    3.6 攻擊和防御討論
        3.6.1 對抗性實(shí)例欺騙攻擊的探索
        3.6.2 針對對抗性實(shí)例欺騙攻擊的防御
    3.7 本章小結(jié)
第四章 基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議
    4.1 前言
    4.2 研究動(dòng)機(jī)和相關(guān)工作
    4.3 已有相關(guān)方案分析
        4.3.1 已有方案回顧
        4.3.2 已有方案缺陷
    4.4 基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議
        4.4.1 系統(tǒng)架構(gòu)
        4.4.2 具體協(xié)議描述
    4.5 安全性與性能分析
        4.5.1 安全性分析
        4.5.2 性能分析
    4.6 本章小結(jié)
第五章 基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型
    5.1 前言
    5.2 研究動(dòng)機(jī)和相關(guān)工作
    5.3 基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型設(shè)計(jì)
        5.3.1 相關(guān)背景知識
        5.3.2 安全風(fēng)險(xiǎn)分析
        5.3.3 模型設(shè)計(jì)原則
        5.3.4 具體模型描述
    5.4 安全性與性能分析
        5.4.1 實(shí)驗(yàn)評估設(shè)置
        5.4.2 安全性分析
        5.4.3 性能分析
    5.5 本章小結(jié)
第六章 總結(jié)與展望
    6.1 工作總結(jié)
    6.2 未來展望
參考文獻(xiàn)
縮略語
致謝
攻讀博士學(xué)位期間發(fā)表的學(xué)術(shù)論文目錄

(4)基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景與意義
    1.2 聲紋識別技術(shù)研究現(xiàn)狀
        1.2.1 技術(shù)概述
        1.2.2 國內(nèi)外研究現(xiàn)狀
    1.3 反欺騙攻擊技術(shù)研究現(xiàn)狀
        1.3.1 概述
        1.3.2 國內(nèi)外研究現(xiàn)狀
    1.4 主要研究內(nèi)容
    1.5 論文章節(jié)結(jié)構(gòu)
    1.6 本章小結(jié)
第二章 相關(guān)技術(shù)介紹
    2.1 語音信號預(yù)處理
        2.1.1 預(yù)加重
        2.1.2 分幀
        2.1.3 加窗
    2.2 特征提取
        2.2.1 線性預(yù)測編碼
        2.2.2 線性預(yù)測倒譜系數(shù)
        2.2.3 梅爾頻率倒譜系數(shù)
    2.3 識別算法
        2.3.1 矢量量化
        2.3.2 高斯混合-通用背景模型
        2.3.3 聯(lián)合因子分析
        2.3.4 身份向量i-vector
        2.3.5 d-vector
    2.4 評價(jià)指標(biāo)
        2.4.1 ROC曲線
        2.4.2 等錯(cuò)誤率
    2.5 欺騙攻擊與反欺騙技術(shù)
        2.5.1 錄音重放
        2.5.2 語音合成
        2.5.3 語音轉(zhuǎn)換
    2.6 本章小結(jié)
第三章 基于深度學(xué)習(xí)的反欺騙聲紋識別算法
    3.1 特征提取
        3.1.1 分幀加窗
        3.1.2 快速傅里葉變換
        3.1.3 多分辨率語譜圖
    3.2 反欺騙聲紋識別模型
        3.2.1 深度殘差網(wǎng)絡(luò)ResNet
        3.2.2 通道注意力模型
    3.3 實(shí)驗(yàn)結(jié)果與分析
        3.3.1 數(shù)據(jù)集
        3.3.2 實(shí)驗(yàn)結(jié)果
    3.4 本章小結(jié)
第四章 基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
    4.1 系統(tǒng)需求分析
        4.1.1 功能性需求分析
        4.1.2 性能需求分析
    4.2 系統(tǒng)概要設(shè)計(jì)
        4.2.1 系統(tǒng)結(jié)構(gòu)設(shè)計(jì)
        4.2.2 系統(tǒng)工作流程
    4.3 系統(tǒng)詳細(xì)設(shè)計(jì)與實(shí)現(xiàn)
        4.3.1 用戶交互模塊
        4.3.2 預(yù)處理模塊
        4.3.3 特征提取模塊
        4.3.4 語音表征模塊
        4.3.5 數(shù)據(jù)存儲模塊
        4.3.6 欺騙檢測模塊
        4.3.7 說話人驗(yàn)證模塊
        4.3.8 系統(tǒng)實(shí)現(xiàn)
    4.4 本章小結(jié)
第五章 總結(jié)與展望
    5.1 本文研究總結(jié)
    5.2 未來工作展望
參考文獻(xiàn)
致謝

(5)基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景及意義
    1.2 聲紋識別發(fā)展與研究現(xiàn)狀
    1.3 技術(shù)難點(diǎn)及主要工作
    1.4 論文章節(jié)安排
第二章 系統(tǒng)關(guān)鍵技術(shù)
    2.1 聲紋識別技術(shù)
        2.1.1 聲紋識別的分類
        2.1.2 聲紋識別流程
    2.2 SOPC系統(tǒng)設(shè)計(jì)方法
        2.2.1 基于FPGA的 SOPC技術(shù)簡介
        2.2.2 Nios II軟核處理器
        2.2.3 Avalon架構(gòu)
        2.2.4 SOPC系統(tǒng)設(shè)計(jì)開發(fā)流程
第三章 聲紋識別系統(tǒng)總體設(shè)計(jì)
    3.1 系統(tǒng)功能設(shè)計(jì)
        3.1.1 系統(tǒng)功能需求與分析
        3.1.2 系統(tǒng)功能劃分與流程設(shè)計(jì)
    3.2 系統(tǒng)硬件平臺
        3.2.1 Cyclone II FPGA
        3.2.2 語音信號采集模塊
第四章 聲紋識別系統(tǒng)的硬件設(shè)計(jì)與實(shí)現(xiàn)
    4.1 預(yù)處理模塊
        4.1.1 預(yù)加重模塊
        4.1.2 分幀模塊
        4.1.3 加窗模塊
        4.1.4 端點(diǎn)檢測模塊
    4.2 MFCC特征參數(shù)提取模塊
        4.2.1 FFT模塊
        4.2.2 功率譜模塊
        4.2.3 Mel濾波模塊
        4.2.4 LOG模塊
        4.2.5 DCT模塊
        4.2.6 動(dòng)態(tài)特征模塊
第五章 基于SOPC的聲紋識別系統(tǒng)實(shí)現(xiàn)與功能測試
    5.1 預(yù)處理模塊的集成
    5.2 MFCC特征參數(shù)提取模塊的集成
    5.3 SOPC系統(tǒng)的集成
    5.4 系統(tǒng)板級調(diào)試驗(yàn)證
第六章 總結(jié)與展望
    6.1 工作總結(jié)
    6.2 工作展望
參考文獻(xiàn)
致謝

(6)說話人辨認(rèn)加速方法研究(論文提綱范文)

摘要
Abstract
第1章 緒論
    1.1 說話人辨認(rèn)綜述
    1.2 研究現(xiàn)狀
    1.3 研究工作概述
    1.4 論文組織結(jié)構(gòu)
第2章 說話人辨認(rèn)基線系統(tǒng)
    2.1 特征提取
        2.1.1 預(yù)加重
        2.1.2 分幀和加窗
        2.1.3 端點(diǎn)檢測
        2.1.4 離散傅里葉變換
        2.1.5 對數(shù)計(jì)算和離散余弦
    2.2 說話人表征
        2.2.1 i-vector
        2.2.2 x-vector
    2.3 后端打分
        2.3.1 余弦相似度
        2.3.2 歐式距離
        2.3.3 LDA、PLDA等
    2.4 性能評價(jià)指標(biāo)
        2.4.1 說話人確認(rèn)
        2.4.2 說話人辨認(rèn)
    2.5 實(shí)驗(yàn)與分析
        2.5.1 i-vector
        2.5.2 x-vector
    2.6 小結(jié)
第3章 基于參考說話人模型的說話人辨認(rèn)剪枝加速算法
    3.1 基于參考說話人模型的剪枝算法
        3.1.1 參考說話人模型構(gòu)建
        3.1.2 加速比計(jì)算方法
        3.1.3 聚類類簇?cái)?shù)目
        3.1.4 評價(jià)指標(biāo)
    3.2 使用K-means聚類的參考說話人模型的說話人辨認(rèn)加速
        3.2.1 K-means聚類算法
        3.2.2 實(shí)驗(yàn)與分析
    3.3 基于層次聚類的說話人辨認(rèn)加速
        3.3.1 層次聚類算法
        3.3.2 實(shí)驗(yàn)與分析
    3.4 基于譜聚類的說話人辨認(rèn)加速
        3.4.1 譜聚類算法
        3.4.2 實(shí)驗(yàn)與分析
    3.5 小結(jié)
第4章 基于二進(jìn)制編碼的說話人辨認(rèn)加速方法
    4.1 局部敏感哈希技術(shù)概述
        4.1.1 局部敏感哈希函數(shù)族
        4.1.2 幾種局部敏感哈希函數(shù)族簡介
    4.2 使用局部敏感哈希對說話人表征進(jìn)行二進(jìn)制編碼
        4.2.1 說話人表征編碼前后對比
    4.3 漢明空間中的距離度量
        4.3.1 漢明距離
        4.3.2 實(shí)驗(yàn)
        4.3.3 地球移動(dòng)距離
        4.3.4 實(shí)驗(yàn)
    4.4 小結(jié)
第5章 總結(jié)與展望
    5.1 論文工作總結(jié)
    5.2 下一步研究與展望
參考文獻(xiàn)
致謝

(7)灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究(論文提綱范文)

摘要
Abstract
第1章 緒論
    1.1 課題研究背景和意義
    1.2 國內(nèi)外研究現(xiàn)狀
        1.2.1 說話人識別的國內(nèi)外研究現(xiàn)狀
        1.2.2 極限學(xué)習(xí)機(jī)的國內(nèi)外研究現(xiàn)狀
    1.3 本文主要研究內(nèi)容
第2章 語音樣本數(shù)據(jù)的采集與處理
    2.1 語音樣本數(shù)據(jù)的采集
    2.2 語音樣本數(shù)據(jù)的預(yù)處理
        2.2.1 信號采樣
        2.2.2 預(yù)加重
        2.2.3 分幀和加窗
        2.2.4 快速傅里葉變換
    2.3 語音樣本數(shù)據(jù)的特征處理
        2.3.1 梅爾頻率倒譜系數(shù)特征提取
        2.3.2 主成分分析降維
    2.4 本章小結(jié)
第3章 說話人識別系統(tǒng)模型的構(gòu)建
    3.1 機(jī)器學(xué)習(xí)在說話人識別中的應(yīng)用
        3.1.1 極限學(xué)習(xí)機(jī)
        3.1.2 核極限學(xué)習(xí)機(jī)
    3.2 傳統(tǒng)的機(jī)器學(xué)習(xí)網(wǎng)絡(luò)模型
        3.2.1 支持向量機(jī)網(wǎng)絡(luò)模型
        3.2.2 反向傳播神經(jīng)網(wǎng)絡(luò)模型
    3.3 實(shí)驗(yàn)仿真
        3.3.1 說話人識別系統(tǒng)模型的構(gòu)建
        3.3.2 核極限學(xué)習(xí)機(jī)與傳統(tǒng)網(wǎng)絡(luò)模型的對比實(shí)驗(yàn)
    3.4 本章小結(jié)
第4章 灰狼算法優(yōu)化的說話人識別系統(tǒng)模型的實(shí)現(xiàn)
    4.1 灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)實(shí)現(xiàn)說話人識別
    4.2 其他群智能算法對核極限學(xué)習(xí)機(jī)的優(yōu)化
        4.2.1 遺傳算法
        4.2.2 粒子群算法
    4.3 實(shí)驗(yàn)結(jié)果分析
        4.3.1 識別性能評價(jià)標(biāo)準(zhǔn)
        4.3.2 采用準(zhǔn)確率評價(jià)標(biāo)準(zhǔn)對比三種算法
        4.3.3 采用訓(xùn)練耗時(shí)評價(jià)標(biāo)準(zhǔn)對比三種算法
    4.4 本章小結(jié)
結(jié)論
參考文獻(xiàn)
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)成果
致謝

(8)聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究(論文提綱范文)

致謝
摘要
Abstract
1 緒論
    1.1 研究背景與意義
        1.1.1 物聯(lián)網(wǎng)與感知
        1.1.2 感知安全
        1.1.3 聲音感知安全
    1.2 國內(nèi)外研究現(xiàn)狀
        1.2.1 感知安全研究
        1.2.2 語音攻擊
        1.2.3 語音安全防護(hù)
    1.3 研究目標(biāo)、挑戰(zhàn)與思路
    1.4 研究內(nèi)容
        1.4.1 感知安全機(jī)理建模與分析
        1.4.2 語音采集安全
        1.4.3 聲波測量安全
    1.5 論文組織結(jié)構(gòu)
2 感知安全機(jī)理建模與分析
    2.1 感知安全與換能攻擊
        2.1.1 換能攻擊
        2.1.2 換能攻擊信號
        2.1.3 換能攻擊分類
        2.1.4 攻擊者假設(shè)
        2.1.5 感知安全的核心問題
    2.2 感知安全機(jī)理模型
        2.2.1 傳感器模型
        2.2.2 換能攻擊模型
        2.2.3 案例分析
        2.2.4 模型應(yīng)用
    2.3 換能攻擊方法
        2.3.1 信號注入步驟
        2.3.2 測量構(gòu)造步驟
        2.3.3 構(gòu)造換能攻擊
    2.4 換能攻擊防護(hù)方法
        2.4.1 攻擊檢測方法
        2.4.2 攻擊抵御方法
    2.5 本章小結(jié)
3 語音采集攻擊:基于器件非線性的無聲語音指令攻擊
    3.1 引言
    3.2 背景介紹和威脅模型
        3.2.1 語音助手
        3.2.2 麥克風(fēng)
        3.2.3 威脅模型
    3.3 攻擊可行性分析
        3.3.1 非線性效應(yīng)建模
        3.3.2 非線性效應(yīng)評估
    3.4 攻擊設(shè)計(jì)
        3.4.1 語音指令生成
        3.4.2 語音指令調(diào)制
        3.4.3 攻擊信號發(fā)射
    3.5 攻擊可行性驗(yàn)證
        3.5.1 目標(biāo)系統(tǒng)選擇
        3.5.2 實(shí)驗(yàn)設(shè)置
        3.5.3 可行性實(shí)驗(yàn)結(jié)果
    3.6 本章小結(jié)
4 語音采集防護(hù):基于聲場的語音欺騙攻擊檢測
    4.1 引言
    4.2 背景介紹
        4.2.1 人類發(fā)聲體
        4.2.2 揚(yáng)聲器
        4.2.3 聲場
    4.3 威脅模型
    4.4 場紋的可行性
        4.4.1 發(fā)聲體與聲場
        4.4.2 場紋的提取
        4.4.3 場紋的一致性
        4.4.4 場紋的獨(dú)特性
        4.4.5 場紋特性總結(jié)
    4.5 系統(tǒng)設(shè)計(jì)
        4.5.1 概述
        4.5.2 信號處理
        4.5.3 場紋提取
        4.5.4 場紋匹配
    4.6 系統(tǒng)評估
        4.6.1 評估方法
        4.6.2 系統(tǒng)整體性能
        4.6.3 影響系統(tǒng)性能的因素
        4.6.4 魯棒性和可用性
    4.7 討論
        4.7.1 安全性
        4.7.2 局限性和未來工作
    4.8 本章小結(jié)
5 聲波測量安全:面向無人駕駛超聲波避障的攻擊與防護(hù)
    5.1 引言
    5.2 背景介紹
        5.2.1 自動(dòng)駕駛系統(tǒng)
        5.2.2 超聲波傳感器
    5.3 安全問題描述
        5.3.1 威脅模型
        5.3.2 物理信號攻擊
        5.3.3 攻擊分類
    5.4 聲波測量攻擊
        5.4.1 傳感器分析
        5.4.2 隨機(jī)欺騙攻擊
        5.4.3 自適應(yīng)欺騙攻擊
        5.4.4 阻塞攻擊
        5.4.5 攻擊總結(jié)
    5.5 聲波測量防護(hù)
        5.5.1 物理變換認(rèn)證
        5.5.2 基于多傳感器的一致性檢查
        5.5.3 系統(tǒng)級防護(hù)策略
        5.5.4 討論
    5.6 本章小結(jié)
6 總結(jié)與展望
    6.1 工作總結(jié)
    6.2 研究展望
參考文獻(xiàn)
攻讀博士學(xué)位期間的主要成果

(9)金融領(lǐng)域中的聲紋識別應(yīng)用(論文提綱范文)

1引言
2金融領(lǐng)域身份認(rèn)證的特點(diǎn)和現(xiàn)狀
    2.1生物特征泄露風(fēng)險(xiǎn)
    2.2活體呈現(xiàn)攻擊風(fēng)險(xiǎn)
    2.3特征錄制重放風(fēng)險(xiǎn)
    2.4非真意圖使用風(fēng)險(xiǎn)
3金融領(lǐng)域中的聲紋識別應(yīng)用方式
4金融領(lǐng)域中的聲紋識別應(yīng)用場景
5金融領(lǐng)域中的聲紋識別應(yīng)用評測
6金融領(lǐng)域中的聲紋識別標(biāo)準(zhǔn)化
7結(jié)語

(10)基于時(shí)域信號的端到端的說話人識別算法研究(論文提綱范文)

摘要
ABSTRACT
第一章 緒論
    1.1 研究背景
    1.2 研究目的和意義
    1.3 研究現(xiàn)狀
        1.3.1 說話人識別現(xiàn)狀
        1.3.2 端到端的說話人識別現(xiàn)狀
    1.4 論文的研究內(nèi)容
    1.5 論文的組織結(jié)構(gòu)
第二章 說話人識別算法的基本原理
    2.1 說話人識別的基本框架
    2.2 語音預(yù)處理
    2.3 語音特征提取
        2.3.1 線性預(yù)測分析系數(shù)
        2.3.2 線性預(yù)測倒譜系數(shù)
        2.3.3 瓶頸特征(Bottleneck Feature)
        2.3.4 拼接特征(Tandem Feature)
    2.4 常用的說話人識別模型
        2.4.1 模板匹配算法
        2.4.2 概率模型算法
        2.4.3 支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)
    2.5 相似度測量方法
        2.5.1 余弦相似度
        2.5.2 概率線性判別分析
        2.5.3 距離度量
    2.6 說話人識別評價(jià)標(biāo)準(zhǔn)
    2.7 本章小結(jié)
第三章 基于時(shí)域信號的語音特征提取算法研究
    3.1 引言
    3.2 語音頻譜圖
    3.3 梅爾頻率倒譜系數(shù)
    3.4 基于時(shí)域卷積的語音特征提取算法
        3.4.1 時(shí)域卷積
        3.4.2 時(shí)間域語音特征提取算法
    3.5 本章小結(jié)
第四章 基于深度神經(jīng)網(wǎng)絡(luò)的端到端的說話人識別算法研究
    4.1 引言
    4.2 基于DNN的端到端的說話人識別框架
        4.2.1 基于DNN分類的說話人識別系統(tǒng)
        4.2.2 基于DNN建模的說話人識別系統(tǒng)
    4.3 基于DNN的端到端的說話人識別模型
        4.3.1 基于VGGNet的識別模型
        4.3.2 基于Res Net的識別模型
        4.3.3 基于Dense Net的識別模型
    4.4 基于時(shí)域信號的端到端的說話人識別算法實(shí)現(xiàn)
    4.5 本章小結(jié)
第五章 實(shí)驗(yàn)結(jié)果與分析
    5.1 實(shí)驗(yàn)設(shè)置
        5.1.1 實(shí)驗(yàn)數(shù)據(jù)集
        5.1.2 實(shí)驗(yàn)環(huán)境
    5.2 基于時(shí)域信號的語音特征提取算法實(shí)驗(yàn)
        5.2.1 實(shí)驗(yàn)方案
        5.2.2 實(shí)驗(yàn)結(jié)果與分析
    5.3 基于時(shí)域信號的端到端的說話人識別算法實(shí)驗(yàn)
        5.3.1 實(shí)驗(yàn)方案
        5.3.2 實(shí)驗(yàn)結(jié)果與分析
    5.4 本章小結(jié)
總結(jié)與展望
參考文獻(xiàn)
攻讀碩士學(xué)位期間取得的研究成果
    已發(fā)表論文
    已申請專利
致謝
附錄

四、一種簡單有效的說話人身份認(rèn)證方法(論文參考文獻(xiàn))

  • [1]基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究[D]. 李佳慧. 桂林電子科技大學(xué), 2021(02)
  • [2]基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究[D]. 劉勇. 青島科技大學(xué), 2021(02)
  • [3]移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究[D]. 落紅衛(wèi). 北京郵電大學(xué), 2021(01)
  • [4]基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 陳青梅. 北京郵電大學(xué), 2021(01)
  • [5]基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)[D]. 蘇靖婷. 內(nèi)蒙古大學(xué), 2021(12)
  • [6]說話人辨認(rèn)加速方法研究[D]. 苑新宇. 西北民族大學(xué), 2021(08)
  • [7]灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究[D]. 王琪. 哈爾濱理工大學(xué), 2021(09)
  • [8]聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究[D]. 閆琛. 浙江大學(xué), 2021(01)
  • [9]金融領(lǐng)域中的聲紋識別應(yīng)用[J]. 劉樂,鄔曉鈞,鄭方. 中國安全防范技術(shù)與應(yīng)用, 2020(05)
  • [10]基于時(shí)域信號的端到端的說話人識別算法研究[D]. 梁寧欣. 華南理工大學(xué), 2020(02)

標(biāo)簽:;  ;  ;  ;  ;  

一種簡單有效的說話人身份認(rèn)證方法
下載Doc文檔

猜你喜歡