一、一種簡單有效的說話人身份認(rèn)證方法(論文文獻(xiàn)綜述)
李佳慧[1](2021)在《基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理隨著智能設(shè)備的普及以及科技的迅猛發(fā)展,傳統(tǒng)的身份驗(yàn)證方式,如ID卡、密碼、簽名等已經(jīng)不能滿足人們對數(shù)據(jù)安全以及信息保護(hù)的要求。目前大多數(shù)的生物特征系統(tǒng)是將用戶的特征信息直接存儲或進(jìn)行用戶身份的認(rèn)證,很容易遭到攻擊,從而導(dǎo)致用戶信息的泄露。因此,構(gòu)造一種安全可靠的生物特征識別方案是人們關(guān)注的熱點(diǎn)問題。其中構(gòu)建一個(gè)安全的數(shù)據(jù)模板及評分標(biāo)準(zhǔn)成為關(guān)鍵。與其他生物特征相比,聲紋識別具有無接觸、信息量大、成本低廉等優(yōu)點(diǎn),是一種具有良好實(shí)用價(jià)值和研究潛力的身份認(rèn)證技術(shù),因此本文選擇對聲紋識別技術(shù)的隱私保護(hù)進(jìn)行研究。本文的主要工作有以下幾個(gè)方面:(1)關(guān)于聲紋識別的特征信息的安全與隱私問題,本文設(shè)計(jì)了一種基于隨機(jī)映射技術(shù)的聲紋模板保護(hù)方法。該方法基于身份向量(identity Vector,i-Vector)和線性判別分析技術(shù)(Linear discriminant analysis,LDA),提出一種改進(jìn)的隨機(jī)映射技術(shù)。通過對隨機(jī)映射算法的改進(jìn)以及對聲紋特征信息的處理,構(gòu)造了一種聲紋識別的模板保護(hù)方案,用戶可以在隨機(jī)域注冊并完成聲紋識別。我們通過已知的中文數(shù)據(jù)集對所提出的方法進(jìn)行了實(shí)驗(yàn)仿真,實(shí)驗(yàn)表明,該方法基本不影響聲紋識別的準(zhǔn)確性,且也能有效保證語音數(shù)據(jù)的安全。(2)在保證聲紋特征信息的基礎(chǔ)上,認(rèn)證階段時(shí)的打分標(biāo)準(zhǔn)的安全性成為我們關(guān)心的主要問題。本文提出了基于安全兩方計(jì)算的余弦判別器的隱私保護(hù)。首先提取用戶的身份特征并進(jìn)行歸一化,然后通過安全兩方計(jì)算協(xié)議與余弦相似度結(jié)合,以到達(dá)保護(hù)判別器的目的。該方案也相對減少了計(jì)算量和時(shí)間消耗,對惡意語音的訪問有一定的限制。
劉勇[2](2021)在《基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究》文中提出隨著社會的進(jìn)步與互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,身份認(rèn)證技術(shù)的應(yīng)用場景愈加復(fù)雜,傳統(tǒng)的身份認(rèn)證技術(shù)已不能滿足人們的現(xiàn)實(shí)需求,社會亟需一種安全且便捷的身份認(rèn)證技術(shù)。聲紋識別技術(shù)是生物識別技術(shù)的一種,較傳統(tǒng)的身份認(rèn)證技術(shù)具備著更高的安全性與便捷性,并且相對于人臉識別、指紋識別等其它生物識別技術(shù)其應(yīng)用成本與隱私侵犯性更低、更容易被人們接受,因此聲紋識別技術(shù)是一種極具應(yīng)用前景的身份認(rèn)證技術(shù)。聲紋識別技術(shù)雖然有著諸多優(yōu)點(diǎn),但是傳統(tǒng)的聲紋識別技術(shù)卻存在著實(shí)現(xiàn)過程復(fù)雜、識別準(zhǔn)確率低等問題。近年來,隨著人工智能的快速發(fā)展,深度學(xué)習(xí)方法以其優(yōu)越的性能正逐漸取代聲紋識別領(lǐng)域中傳統(tǒng)的統(tǒng)計(jì)學(xué)習(xí)方法,并成為聲紋識別領(lǐng)域的研究熱點(diǎn)。本文主要研究了基于深度學(xué)習(xí)的聲紋識別方法,將時(shí)空融合的特征提取方法與通道注意力機(jī)制引入聲紋識別領(lǐng)域并提出了三種聲紋識別方法,分別為基于ResNet-GRU的聲紋識別方法、基于ECA-DenseNet的聲紋識別方法以及基于ECA-DenseNet-GRU的聲紋識別方法。本文的創(chuàng)新內(nèi)容如下:(1)本文提出了一種基于ResNet-GRU的聲紋識別方法??紤]到聲紋特征本質(zhì)上是一個(gè)時(shí)間序列數(shù)據(jù),部分方法在特征提取過程中僅采用CNN提取其空間特征是存在一定缺陷的。與此同時(shí),當(dāng)采用RNN對較長的時(shí)間序列數(shù)據(jù)直接進(jìn)行特征提取時(shí),由于模型的復(fù)雜度較高,訓(xùn)練時(shí)收斂速度通常較為緩慢。因此本文結(jié)合了CNN與RNN的優(yōu)點(diǎn),首先對聲紋特征采用殘差網(wǎng)絡(luò)(ResNet)進(jìn)行高層特征的提取,在獲取空間特征的同時(shí)降低特征圖的尺寸,然后進(jìn)一步采用門控循環(huán)神經(jīng)網(wǎng)絡(luò)(GRU)對特征圖進(jìn)行時(shí)序特征的提取。實(shí)驗(yàn)結(jié)果表明,本文提出的基于ResNet-GRU的聲紋識別方法的識別能力明顯優(yōu)于基線方法,并且相對于僅提取空間特征或時(shí)序特征的聲紋識別方法性能上也存在著較大的性能提升。(2)本文提出了一種基于ECA-DenseNet的聲紋識別方法。一般情況下,當(dāng)采用CNN對聲紋特征進(jìn)行空間特征提取后將會得到一個(gè)較深的特征圖,而特征圖中各通道在聲紋識別過程中的貢獻(xiàn)度是不同的,因此本文采用了ECA-Net通道注意力機(jī)制對特征圖各通道的權(quán)重進(jìn)行了重新分配。同時(shí)考慮到密集卷積神經(jīng)網(wǎng)絡(luò)(DenseNet)相對于ResNet在不同層之間的連接更加緊密,并且鼓勵(lì)特征重用,降低了模型的參數(shù)量,因此本文考慮進(jìn)一步采用DenseNet作為聲紋特征的空間特征提取網(wǎng)絡(luò)。最終的實(shí)驗(yàn)結(jié)果表明,基于DenseNet的聲紋識別方法相對于基于ResNet的聲紋方法識別性能更高,且占用的磁盤空間更少;本文提出的基于ECADenseNet的聲紋識別方法的識別能力也明顯優(yōu)于基線方法。(3)本文提出了一種基于ECA-DenseNet-GRU的聲紋識別方法。實(shí)驗(yàn)結(jié)果表明,本文提出的基于ECA-DenseNet-GRU的聲紋識別方法的識別能力遠(yuǎn)優(yōu)于基線方法,并且相對于基于ResNet-GRU的聲紋識別方法與基于ECA-DenseNet的聲紋識別方法在性能上也存在著較大的提升。隨后,本文對基于ECA-DenseNet-GRU的聲紋識別方法的訓(xùn)練方法進(jìn)一步改進(jìn),采用加性角度間隔損失函數(shù)(Arc Face)作為網(wǎng)絡(luò)訓(xùn)練的代價(jià)函數(shù),使得識別性能得到進(jìn)一步提升。本文提出的三種聲紋識別方法較基線方法在識別性能上均有所提升,為短語音聲紋識別技術(shù)提供了新的思路以及解決方案,具有一定的學(xué)術(shù)研究價(jià)值。
落紅衛(wèi)[3](2021)在《移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究》文中指出隨著移動(dòng)互聯(lián)網(wǎng)的快速發(fā)展,以及與云計(jì)算、物聯(lián)網(wǎng)等新興技術(shù)的深度融合,移動(dòng)互聯(lián)網(wǎng)已經(jīng)滲透到工作和生活的各個(gè)方面。身份認(rèn)證作為網(wǎng)絡(luò)與信息安全的基石,已經(jīng)成為移動(dòng)互聯(lián)網(wǎng)業(yè)務(wù)應(yīng)用安全的第一道防線,不同的業(yè)務(wù)應(yīng)用對其提出了差異化需求。支持多類別、多級別的身份認(rèn)證,以滿足不同類型、不同規(guī)模的移動(dòng)互聯(lián)網(wǎng)業(yè)務(wù)應(yīng)用的差異化身份認(rèn)證需求成為了移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證的重要發(fā)展方向。本文以建立面向移動(dòng)互聯(lián)網(wǎng)的多級可信身份認(rèn)證技術(shù)方案為目標(biāo),對移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)進(jìn)行了深入研究:首先,針對應(yīng)用場景多樣化和安全需求差異化,提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù);其次,針對最前沿的基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng),提出了利用對抗性實(shí)例進(jìn)行安全性檢測方法;最后,針對典型的移動(dòng)互聯(lián)網(wǎng)應(yīng)用場景,分別設(shè)計(jì)了一種基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議和一種基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型。本文的主要貢獻(xiàn)如下:(1)提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù),用于滿足大規(guī)模多級可信身份認(rèn)證需求。首先提出了一種具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)架構(gòu),并針對大規(guī)模身份認(rèn)證場景提出了輕量級身份認(rèn)證服務(wù)接入方案;然后針對多因子聯(lián)合身份認(rèn)證進(jìn)行設(shè)計(jì),以保證身份認(rèn)證安全的情況下盡可能降低對用戶的打擾;隨后提出基于深度學(xué)習(xí)的身份認(rèn)證風(fēng)險(xiǎn)控制;最后給出了具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)的具體應(yīng)用案例。(2)提出了一種針對基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng)的安全性檢測方法。首先,介紹了基于深度學(xué)習(xí)的說話人驗(yàn)證系統(tǒng)實(shí)現(xiàn)原理,隨后相應(yīng)地設(shè)計(jì)了一個(gè)新的損失函數(shù)來部署一個(gè)對抗性實(shí)例生成器,并生成具有輕微擾動(dòng)的對抗性實(shí)例,然后利用這些對抗性實(shí)例來欺騙說話人驗(yàn)證系統(tǒng)以達(dá)到安全性檢測的目的,最后通過具體測試實(shí)驗(yàn)獲取我們設(shè)計(jì)系統(tǒng)的安全性檢測性能指標(biāo)。(3)設(shè)計(jì)了一種基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議。首先分析了高敏感應(yīng)用場景身份認(rèn)證面臨的安全威脅并提出了相應(yīng)的身份認(rèn)證需求。然后以Mo等人的方案為例,指出其協(xié)議遭受竊取驗(yàn)證表攻擊、拒絕服務(wù)攻擊、離線猜測攻擊和臨時(shí)秘密值泄露攻擊,隨后提出了一種基于橢圓曲線加密并具備離線認(rèn)證中心的三因子身份認(rèn)證方案。該方案繼承了現(xiàn)有方案的優(yōu)點(diǎn),并可以應(yīng)用于包括用戶設(shè)備、云服務(wù)器和注冊中心的移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證系統(tǒng)。通過安全性分析表明,所設(shè)計(jì)的方案可以抵抗已知攻擊,并具備用戶友好性。通過性能分析比較表明,我們所提出的方案具有更小的計(jì)算和通信開銷,并提供更多的安全屬性。(4)設(shè)計(jì)了一種基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型。首先分析了物聯(lián)網(wǎng)面臨的安全威脅并提出了相應(yīng)的身份認(rèn)證需求,繼而提出了一種基于網(wǎng)關(guān)的雙因子身份認(rèn)證(Gateway-based2nd Factor,G2F)方案。該方案基于FIDO的通用第二因子協(xié)議(Universal 2nd Factor,U2F),將FIDOU2F協(xié)議中防篡改的硬件令牌,與以網(wǎng)關(guān)為中心的物聯(lián)網(wǎng)架構(gòu)相結(jié)合。該硬件令牌可以與網(wǎng)關(guān)節(jié)點(diǎn)和移動(dòng)互聯(lián)網(wǎng)應(yīng)用服務(wù)器同時(shí)進(jìn)行交互,實(shí)現(xiàn)了物聯(lián)網(wǎng)身份認(rèn)證的高安全性和高效率,并降低了對服務(wù)提供商的依賴性,同時(shí)保護(hù)物聯(lián)網(wǎng)設(shè)備免受惡意攻擊。之后,我們將G2F原型應(yīng)用在商業(yè)化的阿里云上并進(jìn)行了實(shí)際測試評估,安全和性能的測評結(jié)果表明:G2F實(shí)現(xiàn)了基于硬件令牌的輕量快速物聯(lián)網(wǎng)身份認(rèn)證,并能抵御已知針對物聯(lián)網(wǎng)設(shè)備管理身份認(rèn)證的安全攻擊。
陳青梅[4](2021)在《基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)》文中提出隨著信息技術(shù)的迅速發(fā)展和個(gè)人數(shù)據(jù)的蓬勃增長,對信息的訪問控制和隱私保護(hù)一直是人們關(guān)注的熱點(diǎn)。由于不同人的發(fā)聲器官在形狀、大小等結(jié)構(gòu)上各不相同,且每個(gè)人都有著自己獨(dú)特的發(fā)聲習(xí)慣,使得每個(gè)人的聲音聽起來都獨(dú)具自己的特點(diǎn),能夠根據(jù)一個(gè)人的聲音來確定其身份。語音也是人類日常溝通交流最直接、普遍的方式,通過說話人的語音進(jìn)行說話人身份的識別或驗(yàn)證安全便捷,易于大規(guī)模推廣。在電子支付、智能門鎖、安防等信息安全領(lǐng)域,聲紋識別技術(shù)已逐漸成為身份認(rèn)證方式的主流趨勢。雖然聲紋識別相關(guān)的研究已取得了巨大的進(jìn)展,但離投入真實(shí)應(yīng)用還存在一些待解決的問題。聲紋識別系統(tǒng)的實(shí)際應(yīng)用,往往是在復(fù)雜多樣的應(yīng)用環(huán)境中且面臨著多種類型的未知欺騙語音,主要的欺騙語音通常由語音合成、語音轉(zhuǎn)換以及錄音重放等方法得到。傳統(tǒng)的聲紋識別系統(tǒng)缺乏對輸入語音的欺騙性檢測,欺騙語音的攻擊會極大程度上降低系統(tǒng)的安全性能。針對以上問題,本文提出了一種基于深度學(xué)習(xí)的反欺騙聲紋識別算法。該算法對語音提取多張不同窗口設(shè)置的語譜圖特征作為輸入,多張不同分辨率的語譜圖有利于從原始語音中獲取更充分、全局的信息,并基于深度殘差網(wǎng)絡(luò)和通道注意力特征融合機(jī)制從語音中提取高層次的語音表征,實(shí)現(xiàn)對輸入語音的欺騙性檢測以及說話人身份驗(yàn)證。該算法在公開語音數(shù)據(jù)集ASVSpoof 2019上進(jìn)行了一系列對比實(shí)驗(yàn),結(jié)果證明了本文提出的多分辨率語譜圖結(jié)合深度學(xué)習(xí)模型能夠有效檢測多種類型的欺騙語音。在該算法基礎(chǔ)上,本文設(shè)計(jì)與實(shí)現(xiàn)了基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng),并詳細(xì)描述了系統(tǒng)相關(guān)的需求分析、系統(tǒng)架構(gòu)組成以及各層工作的流程,在論文的最后對反欺騙聲紋識別系統(tǒng)內(nèi)各個(gè)組成模塊的設(shè)計(jì)以及具體功能作用進(jìn)行了詳細(xì)的闡述。
蘇靖婷[5](2021)在《基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)》文中研究表明“無監(jiān)督”身份認(rèn)證的時(shí)代已經(jīng)到來,快速準(zhǔn)確便捷的實(shí)現(xiàn)身份認(rèn)證,不僅能夠方便人們的生活,還能保障個(gè)人權(quán)益。以往常見的身份認(rèn)證方法普遍存在被“冒名頂替”的風(fēng)險(xiǎn)。因此,生物特征識別技術(shù)應(yīng)運(yùn)而生。其中聲音作為人類攜帶的自然屬性,采用“非接觸式”的認(rèn)證方式,使身份認(rèn)證更加便捷,且對硬件要求簡單,在刑偵、金融、軍事、智能設(shè)備等領(lǐng)域,可以被廣泛應(yīng)用。SOPC(片上可編程系統(tǒng))是一種以FPGA(現(xiàn)場可編程門陣列)為基礎(chǔ),通過軟硬件結(jié)合的方式實(shí)現(xiàn)的系統(tǒng)。具有安全高效、成本低廉、易于維護(hù)等優(yōu)勢。故基于SOPC技術(shù)設(shè)計(jì)、實(shí)現(xiàn)本系統(tǒng)。本文設(shè)計(jì)實(shí)現(xiàn)了基于SOPC的聲紋識別系統(tǒng)。主要內(nèi)容包括基于FPGA的硬件模塊的設(shè)計(jì)實(shí)現(xiàn)以及將各模塊集成為SOPC系統(tǒng)兩大部分。硬件部分包含預(yù)處理和特征提取兩個(gè)模塊。預(yù)處理模塊包括預(yù)加重模塊、分幀模塊、加窗模塊和端點(diǎn)檢測模塊,實(shí)現(xiàn)了對語音信號的初步處理,消除了噪音并增強(qiáng)了有用信息。特征提取模塊包括FFT模塊、功率譜模塊、Mel濾波模塊、LOG模塊和DCT模塊,實(shí)現(xiàn)了從經(jīng)過預(yù)處理后的語音信號中提取出能夠表達(dá)說話人獨(dú)有個(gè)性的特征。并結(jié)合Nios II處理器,設(shè)計(jì)集成了SOPC系統(tǒng)。經(jīng)測試結(jié)果表明,所實(shí)現(xiàn)的聲紋識別系統(tǒng)有效可行。
苑新宇[6](2021)在《說話人辨認(rèn)加速方法研究》文中指出說話人辨認(rèn)需要把所有待辨認(rèn)語音的聲紋模型與辨認(rèn)集中所有的說話人模型進(jìn)行全交叉生成辨認(rèn)列表,然后根據(jù)生成的辨認(rèn)列表,對待辨認(rèn)語音的聲紋模型和說話人的聲紋模型進(jìn)行似然分計(jì)算,然后對似然分進(jìn)行排序,從而找出最高或者前幾高的似然分。但是這樣進(jìn)行說話人辨認(rèn)將導(dǎo)致總體的計(jì)算時(shí)間過久,因?yàn)槊看伪嬲J(rèn)需要一定的時(shí)間,在說話人數(shù)目過于龐大的時(shí)候,把每個(gè)待辨認(rèn)語音與所有說話人進(jìn)行全交叉計(jì)算似然分將導(dǎo)致很大的計(jì)算開銷,時(shí)間效率低下。本文在閉集文本無關(guān)的說話人辨認(rèn)上進(jìn)行加速方法的探索和研究,提出了兩種方法進(jìn)行說話人辨認(rèn)的提速工作:其一是使用雙層參考說話人模型的方式,利用某種聚類算法把模型庫中的目標(biāo)說話人聚類得到多組的聚類中心,也就是參考說話人模型,參考說話人模型具有同一組內(nèi)說話人模型的共性特征。在辨認(rèn)時(shí),計(jì)算待辨認(rèn)語音與所有說話人模型的似然分,根據(jù)似然分選擇相似程度最高的一組再進(jìn)行辨認(rèn),最終找到與待辨認(rèn)語音最相似的說話人模型。這個(gè)過程減少了總體的辨認(rèn)次數(shù),達(dá)到了說話人辨認(rèn)加速的目的。其二是將說話人表征進(jìn)行二進(jìn)制編碼,同時(shí)保留說話人的個(gè)性特征,把原先在流式空間中計(jì)算語音特征和說話人特征似然分,改成了在二進(jìn)制漢明空間計(jì)算似然分,在計(jì)算似然分時(shí)在漢明空間使用近似最近鄰搜索算法查找說話人表征,度量方式分別采用漢明距離和地球移動(dòng)距離,由于在二進(jìn)制線性空間中似然分計(jì)算比正常的流式空間快的多,相當(dāng)于把每次辨認(rèn)的時(shí)間減小,總體的說話人辨認(rèn)效率也相應(yīng)的有較大提升。實(shí)驗(yàn)結(jié)果證明,本文所提出的分別利用聚類和二進(jìn)制的方式進(jìn)行優(yōu)化說話人辨認(rèn)的計(jì)算方式,能夠有效的縮短辨認(rèn)時(shí)間。
王琪[7](2021)在《灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究》文中研究表明當(dāng)今社會基于人類特征提取的生物認(rèn)證技術(shù)不斷發(fā)展,說話人識別作為其中之一,是通過發(fā)音人的聲音來辨別身份的。該生物認(rèn)證技術(shù)也被叫做聲紋識別,其核心內(nèi)容是將語音樣本信號中提取出的能代表發(fā)音人身份的信息進(jìn)行處理進(jìn)而實(shí)現(xiàn)對各類別說話人的識別。由于近年來生物認(rèn)證方法在機(jī)器學(xué)習(xí)的推動(dòng)下獲得了巨大進(jìn)展,有著廣闊的發(fā)展前景和重要的研究價(jià)值,說話人識別也深受其影響,學(xué)者們逐漸從基于傳統(tǒng)方法的說話人識別的研究方向轉(zhuǎn)移到基于機(jī)器學(xué)習(xí)方法的說話人識別中來。本文提出了一種基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)應(yīng)用于說話人識別的方法,通過選取合適的語音樣本數(shù)據(jù)集,提取數(shù)據(jù)集中的聲音特征并進(jìn)行降維,將降維之后的數(shù)據(jù)集置于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)模型中進(jìn)行訓(xùn)練。最后,將測試樣本作為訓(xùn)練后系統(tǒng)的輸入,進(jìn)行匹配計(jì)算、結(jié)果比對。首先,進(jìn)行語音樣本數(shù)據(jù)的采集,選擇15名實(shí)驗(yàn)者在安靜的環(huán)境下進(jìn)行每人30~40條語音數(shù)據(jù)的采集工作,并將采集到的語音樣本數(shù)據(jù)統(tǒng)一處理為9秒左右的WAV格式文件,為了降低說話人識別系統(tǒng)的復(fù)雜度,將得到的數(shù)據(jù)進(jìn)行特征處理,為說話人身份的識別提供了真實(shí)的實(shí)驗(yàn)數(shù)據(jù)。其次,將經(jīng)過特征處理后的語音樣本數(shù)據(jù)集分為兩類,一類作為訓(xùn)練集用于說話人識別系統(tǒng)的學(xué)習(xí),一類作為測試集用于比較說話人身份的識別結(jié)果。提出了極限學(xué)習(xí)機(jī)模型后,又通過公式推導(dǎo)和理論分析詳細(xì)研究了核極限學(xué)習(xí)機(jī)模型,通過對一組隨機(jī)樣本數(shù)據(jù)進(jìn)行識別,并且在識別中選取不同的傳統(tǒng)機(jī)器學(xué)習(xí)方法進(jìn)行了對比實(shí)驗(yàn),表明了核極限學(xué)習(xí)機(jī)的訓(xùn)練速度和準(zhǔn)確率遠(yuǎn)遠(yuǎn)優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。最后,為了追求更好的識別準(zhǔn)確率,引入了群智能優(yōu)化算法中的灰狼優(yōu)化算法,實(shí)驗(yàn)結(jié)果表明,基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在識別精度和收斂速度方面優(yōu)于其他群智能算法優(yōu)化的網(wǎng)絡(luò)模型,并在灰狼算法的迭代優(yōu)化中尋求最優(yōu)解,使一次實(shí)驗(yàn)中對于說話人識別的最大識別準(zhǔn)確率為94.76%,平均識別準(zhǔn)確率為93.17%,且各類別說話人的聲音辨別準(zhǔn)確率均在85%以上,結(jié)果說明了改進(jìn)后的網(wǎng)絡(luò)模型相比核極限機(jī)網(wǎng)絡(luò)模型有更好的識別精度,表明了基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)模型有更好的分類特性,驗(yàn)證了本文所提出的基于灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)網(wǎng)絡(luò)模型在說話人識別應(yīng)用中的良好發(fā)展前景。
閆琛[8](2021)在《聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究》文中進(jìn)行了進(jìn)一步梳理感知技術(shù)的飛速發(fā)展促使物聯(lián)網(wǎng)與真實(shí)物理世界更廣泛地交互連接,使無人駕駛、智能家居、語音助手等智能應(yīng)用成為可能。然而,感知的安全風(fēng)險(xiǎn)在過去尚未得到足夠重視。傳感器是感知技術(shù)的核心組件,由于其復(fù)雜度和智能化程度普遍較低,它們非常容易遭受來自物理世界的“換能攻擊”,導(dǎo)致感知結(jié)果發(fā)生錯(cuò)誤。上層系統(tǒng)通常僅考慮傳感器的有限噪聲和誤差,默認(rèn)測量結(jié)果是可信的,這種對硬件的盲目信任將導(dǎo)致傳感器一旦被攻擊,后續(xù)的決策和執(zhí)行環(huán)節(jié)都可能發(fā)生錯(cuò)誤,從而使其所在的物聯(lián)網(wǎng)設(shè)備系統(tǒng)的安全遭受威脅。因此,傳感器是亟須關(guān)注的物聯(lián)網(wǎng)新型脆弱點(diǎn),需要系統(tǒng)地了解感知安全的風(fēng)險(xiǎn)和機(jī)理,進(jìn)行系統(tǒng)防護(hù),使傳感器可以在復(fù)雜多變的環(huán)境中可靠地測量,保障物聯(lián)網(wǎng)與物理世界的交互安全。本文針對物聯(lián)網(wǎng)的感知安全問題,研究感知安全的內(nèi)在機(jī)理,并以聲音感知為切入點(diǎn),研究語音采集和聲波測量兩類代表性場景中的攻擊和防護(hù)關(guān)鍵技術(shù),為聲音感知安全問題提出了相應(yīng)的解決方案?!じ兄踩珯C(jī)理建模與分析:傳感器種類繁多,具有多元異構(gòu)的硬件設(shè)計(jì)方案和復(fù)雜多變的換能原理,同時(shí),針對傳感器的攻擊方式具有信號多模態(tài)、傳播多路徑、作用多機(jī)理等特點(diǎn),難以進(jìn)行統(tǒng)一的描述和作用機(jī)理分析,限制了對感知安全問題的深入理解。本文首先對感知安全問題進(jìn)行剖析,定義感知過程可能遭受的換能攻擊的方式、方法和威脅模型。為準(zhǔn)確理解感知安全機(jī)理,本文從傳感器的信號轉(zhuǎn)換、傳遞和處理通路出發(fā),將感知信號在傳感器中從輸入到輸出所經(jīng)歷的通路抽象為由換能器、信號處理電路、模數(shù)轉(zhuǎn)換器三個(gè)主要部分組成的信號鏈,進(jìn)而構(gòu)建傳感器模型。在此模型的基礎(chǔ)上,構(gòu)建換能攻擊模型,實(shí)現(xiàn)對換能攻擊作用機(jī)理的統(tǒng)一描述與分析?!せ谄骷蔷€性的無聲語音指令攻擊:語音采集常用于智能語音助手等物聯(lián)網(wǎng)的各類語音系統(tǒng),系統(tǒng)通過麥克風(fēng)實(shí)現(xiàn)對用戶語音信號的采集。本文發(fā)現(xiàn)語音采集可能遭受攻擊,存在語音采集結(jié)果不可信的問題。通過對麥克風(fēng)傳感器進(jìn)行感知安全機(jī)理分析,本文首次發(fā)現(xiàn)由于麥克風(fēng)硬件固有的非線性特性導(dǎo)致的安全問題,該硬件缺陷廣泛存在于現(xiàn)有的語音采集設(shè)備中。攻擊者通過利用器件的非線性特性,可以在被攻擊的麥克風(fēng)信號通路中產(chǎn)生交調(diào)失真,導(dǎo)致麥克風(fēng)的輸出信號包含輸入信號中不存在的信號頻率。本文深入研究麥克風(fēng)的此類安全脆弱性,首次設(shè)計(jì)了“海豚音攻擊”,該攻擊可以通過超聲波無聲地向語音采集系統(tǒng)中注入有聲的語音信號,使語音助手接收到無聲語音指令,從而以隱蔽的方式控制智能設(shè)備?!せ诼晥龅恼Z音欺騙攻擊檢測:除了以上攻擊,語音采集系統(tǒng)同時(shí)面臨語音欺騙攻擊等多種攻擊方式,攻擊者可以通過錄音重放、語音合成、語音轉(zhuǎn)換等技術(shù)模仿用戶的語音指令,繞過說話人驗(yàn)證系統(tǒng)對語音助手進(jìn)行控制,造成嚴(yán)重的安全隱私風(fēng)險(xiǎn)。海豚音攻擊與此類攻擊的共性特征是均利用揚(yáng)聲器或換能器設(shè)備產(chǎn)生攻擊信號,與人體發(fā)聲方式有巨大差異。為應(yīng)對此類威脅,本文提出基于聲場的語音欺騙攻擊檢測方法,該方法通過手機(jī)內(nèi)置的雙麥克風(fēng)對語音進(jìn)行采集,并基于雙通道音頻計(jì)算語音反映的聲場特征“場紋”。本文通過深入的仿真和實(shí)驗(yàn)研究發(fā)現(xiàn),不同的發(fā)聲體由于物理發(fā)聲結(jié)構(gòu)的差異,其產(chǎn)生的聲音存在獨(dú)特的聲場空間能量分布特征,系統(tǒng)可以通過場紋對不同的發(fā)聲體(例如人與音箱、超聲波發(fā)生器以及其他人)進(jìn)行區(qū)分,有效檢測語音欺騙攻擊,實(shí)現(xiàn)可信的語音采集?!っ嫦驘o人駕駛超聲波避障的攻擊與防護(hù):聲波測量常用于無人駕駛汽車等場景,系統(tǒng)通過超聲波測距傳感器實(shí)現(xiàn)對障礙物的檢測和測距,為自動(dòng)駕駛的決策和控制提供重要感知信息。本文發(fā)現(xiàn)超聲波避障存在測距結(jié)果不可信的問題,攻擊者可以通過發(fā)射超聲波攻擊信號,使傳感器無輸出或精確控制其測量結(jié)果。本文通過對超聲波測距傳感器進(jìn)行模糊測試和逆向分析,發(fā)現(xiàn)現(xiàn)有超聲波傳感器的安全缺陷,首次提出并實(shí)現(xiàn)了針對超聲波避障的阻塞攻擊和兩類欺騙攻擊方法,并在11款超聲波傳感器和7款真實(shí)汽車上進(jìn)行了攻擊驗(yàn)證,發(fā)現(xiàn)攻擊可嚴(yán)重影響自動(dòng)駕駛安全,例如使自動(dòng)駕駛狀態(tài)下的特斯拉汽車與障礙物發(fā)生碰撞。為防御此類攻擊,本文設(shè)計(jì)了基于單傳感器和多傳感器的安全防護(hù)機(jī)制,同時(shí)實(shí)現(xiàn)了攻擊檢測、可靠測距和攻擊者定位,有效地提高了超聲波避障的安全性。
劉樂,鄔曉鈞,鄭方[9](2020)在《金融領(lǐng)域中的聲紋識別應(yīng)用》文中指出在金融領(lǐng)域,生物識別已經(jīng)被廣泛應(yīng)用于各身份認(rèn)證環(huán)節(jié)中,相比于傳統(tǒng)方法優(yōu)勢明顯,但其仍舊存在著較多風(fēng)險(xiǎn)。聲紋識別在應(yīng)用過程中,結(jié)合多特征融合、聲紋鑒偽及意圖檢測等方法有效降低了其在金融領(lǐng)域應(yīng)用過程中的風(fēng)險(xiǎn),覆蓋的應(yīng)用場景也越來越廣。同時(shí),金融領(lǐng)域中的聲紋評測方法也從單一指標(biāo)的評測方式轉(zhuǎn)向整體系統(tǒng)評測的方式。此外,行業(yè)標(biāo)準(zhǔn)的制定和發(fā)布也對聲紋識別應(yīng)用在金融領(lǐng)域的發(fā)展進(jìn)程產(chǎn)生了極大的促進(jìn)作用。
梁寧欣[10](2020)在《基于時(shí)域信號的端到端的說話人識別算法研究》文中研究說明隨著科學(xué)技術(shù)的高速發(fā)展,網(wǎng)絡(luò)信息化時(shí)代下社會對信息安全的需求日益增長。如何準(zhǔn)確識別某個(gè)人的身份,更好地保護(hù)個(gè)人的信息安全是智能化時(shí)代亟待解決的關(guān)鍵問題。生物特征識別作為一種利用人的生理和行為特征來進(jìn)行個(gè)人身份認(rèn)證的技術(shù),因其兼具生物特征方便、安全和高效的特點(diǎn)逐漸獲得越來越多的關(guān)注。其中,說話人識別技術(shù),又稱聲紋識別技術(shù)是生物特征識別領(lǐng)域的熱門研究方向之一,具備聲紋語音特征穩(wěn)定、唯一、便于采集等優(yōu)點(diǎn),被廣泛應(yīng)用于人機(jī)交互、身份識別等現(xiàn)實(shí)場合中。深度學(xué)習(xí)的引入進(jìn)一步促進(jìn)了說話人識別技術(shù)的發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的端到端的說話人識別技術(shù)吸引了眾多科研工作者,然而,目前端到端的說話人識別系統(tǒng)普遍采用“分而治之”的流程:即先從原始語音信號中提取出傳統(tǒng)的語音特征,如梅爾頻率倒譜系數(shù),再基于傳統(tǒng)的語音特征進(jìn)行說話人分類器網(wǎng)絡(luò)的訓(xùn)練。這種方法通常依賴于人工設(shè)計(jì)固定的、復(fù)雜的傳統(tǒng)語音聲學(xué)特征,并且傳統(tǒng)語音特征的提取和說話人識別模型的訓(xùn)練往往是單獨(dú)進(jìn)行的,并未從整體的角度出發(fā),難以實(shí)現(xiàn)語音特征提取及說話人識別分類的共同優(yōu)化。因此如何有機(jī)地結(jié)合說話人語音特征的提取器和說話人識別的分類器,實(shí)現(xiàn)端到端的說話人識別算法是有必要的同時(shí)又是極富挑戰(zhàn)性的課題。針對上述問題,本文提出了一個(gè)新的端到端的說話人識別框架:基于時(shí)域卷積直接從原始時(shí)域信號提取語音特征,并搭建基于深度神經(jīng)網(wǎng)絡(luò)的說話人分類器模型,從而實(shí)現(xiàn)說話人的身份識別。本文的主要工作有:第一,提出了一個(gè)新的基于時(shí)域信號的端到端的說話人識別框架,即聯(lián)合語音特征提取器、基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)的分類器、AM-Softmax和Triplet損失函數(shù)的說話人識別框架。該識別框架能夠?qū)崿F(xiàn)共同優(yōu)化語音特征的提取和說話人的識別分類,并達(dá)到穩(wěn)定、準(zhǔn)確的說話人識別目的。第二,提出了一種新的基于時(shí)域卷積的語音特征提取方法,該方法能夠從原始的時(shí)域信號中學(xué)習(xí)提取出一種有效的時(shí)間域語音特征表達(dá)(Raw-Front Feature),并且可以替代傳統(tǒng)的固定語音特征嵌入到說話人識別系統(tǒng)中,提高了直接從時(shí)域信號中提取語音特征的準(zhǔn)確性和魯棒性。第三,為驗(yàn)證本文提出的新的語音特征提取方法的可行性,以及該方法在端到端說話人識別框架中的可移植性,本文搭建了多個(gè)將時(shí)間域語音特征(Raw-Front Feature)作為輸入和不同深度神經(jīng)網(wǎng)絡(luò)作為分類模型的文本無關(guān)說話人識別系統(tǒng),探討了基于時(shí)域卷積的語音特征提取方法在端到端的說話人識別技術(shù)上的應(yīng)用。在開源數(shù)據(jù)集CSTR VCTK Corpus和TIMIT上的大量實(shí)驗(yàn)結(jié)果對比和分析表明,本文提出的新的基于時(shí)域信號的端到端的說話人識別框架能夠分別取得1.93%和9.61%的等錯(cuò)誤率(Equal Error Rate,EER),實(shí)現(xiàn)了良好的說話人識別準(zhǔn)確率性能。并且相比于傳統(tǒng)的語音特征方法,本文提出的時(shí)間域語音特征表達(dá)在固定分類器模型實(shí)驗(yàn)配置下,能夠獲得更低的EER值。
二、一種簡單有效的說話人身份認(rèn)證方法(論文開題報(bào)告)
(1)論文研究背景及目的
此處內(nèi)容要求:
首先簡單簡介論文所研究問題的基本概念和背景,再而簡單明了地指出論文所要研究解決的具體問題,并提出你的論文準(zhǔn)備的觀點(diǎn)或解決方法。
寫法范例:
本文主要提出一款精簡64位RISC處理器存儲管理單元結(jié)構(gòu)并詳細(xì)分析其設(shè)計(jì)過程。在該MMU結(jié)構(gòu)中,TLB采用叁個(gè)分離的TLB,TLB采用基于內(nèi)容查找的相聯(lián)存儲器并行查找,支持粗粒度為64KB和細(xì)粒度為4KB兩種頁面大小,采用多級分層頁表結(jié)構(gòu)映射地址空間,并詳細(xì)論述了四級頁表轉(zhuǎn)換過程,TLB結(jié)構(gòu)組織等。該MMU結(jié)構(gòu)將作為該處理器存儲系統(tǒng)實(shí)現(xiàn)的一個(gè)重要組成部分。
(2)本文研究方法
調(diào)查法:該方法是有目的、有系統(tǒng)的搜集有關(guān)研究對象的具體信息。
觀察法:用自己的感官和輔助工具直接觀察研究對象從而得到有關(guān)信息。
實(shí)驗(yàn)法:通過主支變革、控制研究對象來發(fā)現(xiàn)與確認(rèn)事物間的因果關(guān)系。
文獻(xiàn)研究法:通過調(diào)查文獻(xiàn)來獲得資料,從而全面的、正確的了解掌握研究方法。
實(shí)證研究法:依據(jù)現(xiàn)有的科學(xué)理論和實(shí)踐的需要提出設(shè)計(jì)。
定性分析法:對研究對象進(jìn)行“質(zhì)”的方面的研究,這個(gè)方法需要計(jì)算的數(shù)據(jù)較少。
定量分析法:通過具體的數(shù)字,使人們對研究對象的認(rèn)識進(jìn)一步精確化。
跨學(xué)科研究法:運(yùn)用多學(xué)科的理論、方法和成果從整體上對某一課題進(jìn)行研究。
功能分析法:這是社會科學(xué)用來分析社會現(xiàn)象的一種方法,從某一功能出發(fā)研究多個(gè)方面的影響。
模擬法:通過創(chuàng)設(shè)一個(gè)與原型相似的模型來間接研究原型某種特性的一種形容方法。
三、一種簡單有效的說話人身份認(rèn)證方法(論文提綱范文)
(1)基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究(論文提綱范文)
摘要 |
Abstract |
第一章 緒論 |
§1.1 課題的研究背景與意義 |
§1.2 國內(nèi)外研究現(xiàn)狀 |
§1.2.1 聲紋識別的發(fā)展歷程 |
§1.2.2 聲紋識別特征的模板保護(hù) |
§1.3 本文工作以及內(nèi)容安排 |
第二章 預(yù)備知識 |
§2.1 聲紋識別技術(shù) |
§2.1.1 聲紋識別系統(tǒng)框架和基本原理 |
§2.1.2 聲紋識別常用特征 |
§2.1.3 聲紋識別主要模型 |
§2.2 隨機(jī)映射相關(guān)知識 |
§2.2.1 Johnson-Lindenstrauss引理 |
§2.2.2 隨機(jī)映射 |
§2.3 本章小結(jié) |
第三章 基于隨機(jī)映射技術(shù)的聲紋識別模板保護(hù) |
§3.1 引言 |
§3.2 方案設(shè)計(jì) |
§3.2.1 基于隨機(jī)映射技術(shù)的聲紋模板保護(hù)定義 |
§3.2.2 改進(jìn)的隨機(jī)映射聲紋模板保護(hù)方法 |
§3.3 性能分析 |
§3.3.1 實(shí)驗(yàn)結(jié)果分析 |
§3.3.2 有效性和安全性分析 |
§3.4 本章小結(jié) |
第四章 基于安全兩方計(jì)算的余弦判別器的隱私保護(hù) |
§4.1 引言 |
§4.2 預(yù)備知識 |
§4.2.1 安全兩方計(jì)算 |
§4.2.2 基于余弦相似度和同態(tài)加密的模板保護(hù) |
§4.3 基于安全兩方計(jì)算的余弦相似度比較的嵌入 |
§4.3.1 本文方案 |
§4.3.2 實(shí)驗(yàn)結(jié)果分析 |
§4.3.3 安全性分析 |
§4.4 本章小結(jié) |
第五章 總結(jié)與展望 |
§5.1 全文總結(jié) |
§5.2 研究展望 |
參考文獻(xiàn) |
致謝 |
作者在攻讀碩士期間的主要研究成果 |
(2)基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究(論文提綱范文)
摘要 |
ABSTRACT |
1 緒論 |
1.1 研究背景 |
1.2 研究歷史與發(fā)展現(xiàn)狀 |
1.2.1 研究歷史 |
1.2.2 發(fā)展現(xiàn)狀 |
1.3 本文的研究內(nèi)容與結(jié)構(gòu)安排 |
2 本文相關(guān)工作 |
2.1 聲紋識別 |
2.1.1 基本概念 |
2.1.2 聲紋識別基本框架 |
2.2 聲紋識別相關(guān)工作 |
2.2.1 預(yù)處理 |
2.2.2 聲紋參數(shù) |
2.2.3 傳統(tǒng)聲紋識別模型 |
2.3 深度學(xué)習(xí)理論 |
2.3.1 深度神經(jīng)網(wǎng)絡(luò) |
2.3.2 卷積神經(jīng)網(wǎng)絡(luò) |
2.3.3 循環(huán)神經(jīng)網(wǎng)絡(luò) |
2.3.4 激活函數(shù) |
2.3.5 損失函數(shù) |
2.3.6 過擬合 |
2.4 本章小結(jié) |
3 基于深度學(xué)習(xí)的聲紋識別方法 |
3.1 基線方法 |
3.1.1 基于DNN的聲紋識別方法 |
3.1.2 基于VGGNet的聲紋識別方法 |
3.1.3 基于LSTM的聲紋識別方法 |
3.2 數(shù)據(jù)集 |
3.3 實(shí)驗(yàn)設(shè)置與評價(jià)指標(biāo) |
3.3.1 實(shí)驗(yàn)設(shè)置 |
3.3.2 評價(jià)指標(biāo) |
3.4 實(shí)驗(yàn)結(jié)果與分析 |
3.4.1 實(shí)驗(yàn)結(jié)果 |
3.4.2 實(shí)驗(yàn)分析 |
3.5 本章小結(jié) |
4 時(shí)空融合的特征提取方法 |
4.1 基于ResNet的聲紋識別方法 |
4.1.1 ResNet |
4.1.2 網(wǎng)絡(luò)結(jié)構(gòu) |
4.2 基于ResNet-GRU的聲紋識別方法 |
4.2.1 GRU |
4.2.2 網(wǎng)絡(luò)結(jié)構(gòu) |
4.3 實(shí)驗(yàn)結(jié)果與分析 |
4.3.1 實(shí)驗(yàn)結(jié)果 |
4.3.2 實(shí)驗(yàn)分析 |
4.4 本章小結(jié) |
5 結(jié)合時(shí)空融合與注意力機(jī)制的特征提取方法 |
5.1 基于ECA-DenseNet的聲紋識別方法 |
5.1.1 ECA-Net |
5.1.2 DenseNet |
5.1.3 網(wǎng)絡(luò)結(jié)構(gòu) |
5.2 基于ECA-DenseNet-GRU的聲紋識別方法 |
5.3 實(shí)驗(yàn)結(jié)果與分析 |
5.3.1 基于ECA-DenseNet的聲紋識別方法 |
5.3.2 基于ECA-DenseNet-GRU的聲紋識別方法 |
5.3.3 加性角度空隔損失函數(shù)的應(yīng)用 |
5.4 本章小結(jié) |
6 總結(jié)與展望 |
6.1 總結(jié) |
6.2 展望 |
參考文獻(xiàn) |
致謝 |
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)論文目錄及研究成果 |
(3)移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.3 本文的主要工作及結(jié)構(gòu)安排 |
1.3.1 本文的主要工作 |
1.3.2 本文的結(jié)構(gòu)安排 |
第二章 具備智能風(fēng)控的多因子身份認(rèn)證技術(shù) |
2.1 前言 |
2.2 研究動(dòng)機(jī)和相關(guān)工作 |
2.3 具備智能風(fēng)控的多因子身份認(rèn)證技術(shù)框架 |
2.4 輕量級身份認(rèn)證服務(wù)接入 |
2.5 多因子聯(lián)合身份認(rèn)證 |
2.5.1 多因子身份認(rèn)證強(qiáng)度分析 |
2.5.2 基于數(shù)據(jù)共享的聯(lián)合身份認(rèn)證 |
2.6 基于深度學(xué)習(xí)的身份認(rèn)證風(fēng)險(xiǎn)控制 |
2.6.1 用戶行為大數(shù)據(jù)分析 |
2.6.2 身份認(rèn)證風(fēng)險(xiǎn)控制 |
2.7 應(yīng)用案例 |
2.8 本章小結(jié) |
第三章 說話人驗(yàn)證系統(tǒng)的安全性檢測方法 |
3.1 前言 |
3.2 研究動(dòng)機(jī)和相關(guān)工作 |
3.3 基礎(chǔ)知識 |
3.3.1 說話人驗(yàn)證基礎(chǔ)知識 |
3.3.2 損失函數(shù)TE2E和GE2E |
3.4 對抗性實(shí)例生成器系統(tǒng)設(shè)計(jì) |
3.4.1 對抗性實(shí)例攻擊模型 |
3.4.2 對抗性實(shí)例技術(shù)需求 |
3.4.3 對抗性實(shí)例剪輯函數(shù) |
3.4.4 廣義相關(guān)攻擊損失函數(shù) |
3.4.5 隱蔽相關(guān)攻擊損失函數(shù) |
3.5 性能分析 |
3.5.1 實(shí)驗(yàn)設(shè)置 |
3.5.2 性能指標(biāo) |
3.5.3 攻擊特性 |
3.6 攻擊和防御討論 |
3.6.1 對抗性實(shí)例欺騙攻擊的探索 |
3.6.2 針對對抗性實(shí)例欺騙攻擊的防御 |
3.7 本章小結(jié) |
第四章 基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議 |
4.1 前言 |
4.2 研究動(dòng)機(jī)和相關(guān)工作 |
4.3 已有相關(guān)方案分析 |
4.3.1 已有方案回顧 |
4.3.2 已有方案缺陷 |
4.4 基于橢圓曲線密碼的三因子身份認(rèn)證協(xié)議 |
4.4.1 系統(tǒng)架構(gòu) |
4.4.2 具體協(xié)議描述 |
4.5 安全性與性能分析 |
4.5.1 安全性分析 |
4.5.2 性能分析 |
4.6 本章小結(jié) |
第五章 基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型 |
5.1 前言 |
5.2 研究動(dòng)機(jī)和相關(guān)工作 |
5.3 基于硬件令牌的物聯(lián)網(wǎng)身份認(rèn)證模型設(shè)計(jì) |
5.3.1 相關(guān)背景知識 |
5.3.2 安全風(fēng)險(xiǎn)分析 |
5.3.3 模型設(shè)計(jì)原則 |
5.3.4 具體模型描述 |
5.4 安全性與性能分析 |
5.4.1 實(shí)驗(yàn)評估設(shè)置 |
5.4.2 安全性分析 |
5.4.3 性能分析 |
5.5 本章小結(jié) |
第六章 總結(jié)與展望 |
6.1 工作總結(jié) |
6.2 未來展望 |
參考文獻(xiàn) |
縮略語 |
致謝 |
攻讀博士學(xué)位期間發(fā)表的學(xué)術(shù)論文目錄 |
(4)基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景與意義 |
1.2 聲紋識別技術(shù)研究現(xiàn)狀 |
1.2.1 技術(shù)概述 |
1.2.2 國內(nèi)外研究現(xiàn)狀 |
1.3 反欺騙攻擊技術(shù)研究現(xiàn)狀 |
1.3.1 概述 |
1.3.2 國內(nèi)外研究現(xiàn)狀 |
1.4 主要研究內(nèi)容 |
1.5 論文章節(jié)結(jié)構(gòu) |
1.6 本章小結(jié) |
第二章 相關(guān)技術(shù)介紹 |
2.1 語音信號預(yù)處理 |
2.1.1 預(yù)加重 |
2.1.2 分幀 |
2.1.3 加窗 |
2.2 特征提取 |
2.2.1 線性預(yù)測編碼 |
2.2.2 線性預(yù)測倒譜系數(shù) |
2.2.3 梅爾頻率倒譜系數(shù) |
2.3 識別算法 |
2.3.1 矢量量化 |
2.3.2 高斯混合-通用背景模型 |
2.3.3 聯(lián)合因子分析 |
2.3.4 身份向量i-vector |
2.3.5 d-vector |
2.4 評價(jià)指標(biāo) |
2.4.1 ROC曲線 |
2.4.2 等錯(cuò)誤率 |
2.5 欺騙攻擊與反欺騙技術(shù) |
2.5.1 錄音重放 |
2.5.2 語音合成 |
2.5.3 語音轉(zhuǎn)換 |
2.6 本章小結(jié) |
第三章 基于深度學(xué)習(xí)的反欺騙聲紋識別算法 |
3.1 特征提取 |
3.1.1 分幀加窗 |
3.1.2 快速傅里葉變換 |
3.1.3 多分辨率語譜圖 |
3.2 反欺騙聲紋識別模型 |
3.2.1 深度殘差網(wǎng)絡(luò)ResNet |
3.2.2 通道注意力模型 |
3.3 實(shí)驗(yàn)結(jié)果與分析 |
3.3.1 數(shù)據(jù)集 |
3.3.2 實(shí)驗(yàn)結(jié)果 |
3.4 本章小結(jié) |
第四章 基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn) |
4.1 系統(tǒng)需求分析 |
4.1.1 功能性需求分析 |
4.1.2 性能需求分析 |
4.2 系統(tǒng)概要設(shè)計(jì) |
4.2.1 系統(tǒng)結(jié)構(gòu)設(shè)計(jì) |
4.2.2 系統(tǒng)工作流程 |
4.3 系統(tǒng)詳細(xì)設(shè)計(jì)與實(shí)現(xiàn) |
4.3.1 用戶交互模塊 |
4.3.2 預(yù)處理模塊 |
4.3.3 特征提取模塊 |
4.3.4 語音表征模塊 |
4.3.5 數(shù)據(jù)存儲模塊 |
4.3.6 欺騙檢測模塊 |
4.3.7 說話人驗(yàn)證模塊 |
4.3.8 系統(tǒng)實(shí)現(xiàn) |
4.4 本章小結(jié) |
第五章 總結(jié)與展望 |
5.1 本文研究總結(jié) |
5.2 未來工作展望 |
參考文獻(xiàn) |
致謝 |
(5)基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景及意義 |
1.2 聲紋識別發(fā)展與研究現(xiàn)狀 |
1.3 技術(shù)難點(diǎn)及主要工作 |
1.4 論文章節(jié)安排 |
第二章 系統(tǒng)關(guān)鍵技術(shù) |
2.1 聲紋識別技術(shù) |
2.1.1 聲紋識別的分類 |
2.1.2 聲紋識別流程 |
2.2 SOPC系統(tǒng)設(shè)計(jì)方法 |
2.2.1 基于FPGA的 SOPC技術(shù)簡介 |
2.2.2 Nios II軟核處理器 |
2.2.3 Avalon架構(gòu) |
2.2.4 SOPC系統(tǒng)設(shè)計(jì)開發(fā)流程 |
第三章 聲紋識別系統(tǒng)總體設(shè)計(jì) |
3.1 系統(tǒng)功能設(shè)計(jì) |
3.1.1 系統(tǒng)功能需求與分析 |
3.1.2 系統(tǒng)功能劃分與流程設(shè)計(jì) |
3.2 系統(tǒng)硬件平臺 |
3.2.1 Cyclone II FPGA |
3.2.2 語音信號采集模塊 |
第四章 聲紋識別系統(tǒng)的硬件設(shè)計(jì)與實(shí)現(xiàn) |
4.1 預(yù)處理模塊 |
4.1.1 預(yù)加重模塊 |
4.1.2 分幀模塊 |
4.1.3 加窗模塊 |
4.1.4 端點(diǎn)檢測模塊 |
4.2 MFCC特征參數(shù)提取模塊 |
4.2.1 FFT模塊 |
4.2.2 功率譜模塊 |
4.2.3 Mel濾波模塊 |
4.2.4 LOG模塊 |
4.2.5 DCT模塊 |
4.2.6 動(dòng)態(tài)特征模塊 |
第五章 基于SOPC的聲紋識別系統(tǒng)實(shí)現(xiàn)與功能測試 |
5.1 預(yù)處理模塊的集成 |
5.2 MFCC特征參數(shù)提取模塊的集成 |
5.3 SOPC系統(tǒng)的集成 |
5.4 系統(tǒng)板級調(diào)試驗(yàn)證 |
第六章 總結(jié)與展望 |
6.1 工作總結(jié) |
6.2 工作展望 |
參考文獻(xiàn) |
致謝 |
(6)說話人辨認(rèn)加速方法研究(論文提綱范文)
摘要 |
Abstract |
第1章 緒論 |
1.1 說話人辨認(rèn)綜述 |
1.2 研究現(xiàn)狀 |
1.3 研究工作概述 |
1.4 論文組織結(jié)構(gòu) |
第2章 說話人辨認(rèn)基線系統(tǒng) |
2.1 特征提取 |
2.1.1 預(yù)加重 |
2.1.2 分幀和加窗 |
2.1.3 端點(diǎn)檢測 |
2.1.4 離散傅里葉變換 |
2.1.5 對數(shù)計(jì)算和離散余弦 |
2.2 說話人表征 |
2.2.1 i-vector |
2.2.2 x-vector |
2.3 后端打分 |
2.3.1 余弦相似度 |
2.3.2 歐式距離 |
2.3.3 LDA、PLDA等 |
2.4 性能評價(jià)指標(biāo) |
2.4.1 說話人確認(rèn) |
2.4.2 說話人辨認(rèn) |
2.5 實(shí)驗(yàn)與分析 |
2.5.1 i-vector |
2.5.2 x-vector |
2.6 小結(jié) |
第3章 基于參考說話人模型的說話人辨認(rèn)剪枝加速算法 |
3.1 基于參考說話人模型的剪枝算法 |
3.1.1 參考說話人模型構(gòu)建 |
3.1.2 加速比計(jì)算方法 |
3.1.3 聚類類簇?cái)?shù)目 |
3.1.4 評價(jià)指標(biāo) |
3.2 使用K-means聚類的參考說話人模型的說話人辨認(rèn)加速 |
3.2.1 K-means聚類算法 |
3.2.2 實(shí)驗(yàn)與分析 |
3.3 基于層次聚類的說話人辨認(rèn)加速 |
3.3.1 層次聚類算法 |
3.3.2 實(shí)驗(yàn)與分析 |
3.4 基于譜聚類的說話人辨認(rèn)加速 |
3.4.1 譜聚類算法 |
3.4.2 實(shí)驗(yàn)與分析 |
3.5 小結(jié) |
第4章 基于二進(jìn)制編碼的說話人辨認(rèn)加速方法 |
4.1 局部敏感哈希技術(shù)概述 |
4.1.1 局部敏感哈希函數(shù)族 |
4.1.2 幾種局部敏感哈希函數(shù)族簡介 |
4.2 使用局部敏感哈希對說話人表征進(jìn)行二進(jìn)制編碼 |
4.2.1 說話人表征編碼前后對比 |
4.3 漢明空間中的距離度量 |
4.3.1 漢明距離 |
4.3.2 實(shí)驗(yàn) |
4.3.3 地球移動(dòng)距離 |
4.3.4 實(shí)驗(yàn) |
4.4 小結(jié) |
第5章 總結(jié)與展望 |
5.1 論文工作總結(jié) |
5.2 下一步研究與展望 |
參考文獻(xiàn) |
致謝 |
(7)灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究(論文提綱范文)
摘要 |
Abstract |
第1章 緒論 |
1.1 課題研究背景和意義 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 說話人識別的國內(nèi)外研究現(xiàn)狀 |
1.2.2 極限學(xué)習(xí)機(jī)的國內(nèi)外研究現(xiàn)狀 |
1.3 本文主要研究內(nèi)容 |
第2章 語音樣本數(shù)據(jù)的采集與處理 |
2.1 語音樣本數(shù)據(jù)的采集 |
2.2 語音樣本數(shù)據(jù)的預(yù)處理 |
2.2.1 信號采樣 |
2.2.2 預(yù)加重 |
2.2.3 分幀和加窗 |
2.2.4 快速傅里葉變換 |
2.3 語音樣本數(shù)據(jù)的特征處理 |
2.3.1 梅爾頻率倒譜系數(shù)特征提取 |
2.3.2 主成分分析降維 |
2.4 本章小結(jié) |
第3章 說話人識別系統(tǒng)模型的構(gòu)建 |
3.1 機(jī)器學(xué)習(xí)在說話人識別中的應(yīng)用 |
3.1.1 極限學(xué)習(xí)機(jī) |
3.1.2 核極限學(xué)習(xí)機(jī) |
3.2 傳統(tǒng)的機(jī)器學(xué)習(xí)網(wǎng)絡(luò)模型 |
3.2.1 支持向量機(jī)網(wǎng)絡(luò)模型 |
3.2.2 反向傳播神經(jīng)網(wǎng)絡(luò)模型 |
3.3 實(shí)驗(yàn)仿真 |
3.3.1 說話人識別系統(tǒng)模型的構(gòu)建 |
3.3.2 核極限學(xué)習(xí)機(jī)與傳統(tǒng)網(wǎng)絡(luò)模型的對比實(shí)驗(yàn) |
3.4 本章小結(jié) |
第4章 灰狼算法優(yōu)化的說話人識別系統(tǒng)模型的實(shí)現(xiàn) |
4.1 灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)實(shí)現(xiàn)說話人識別 |
4.2 其他群智能算法對核極限學(xué)習(xí)機(jī)的優(yōu)化 |
4.2.1 遺傳算法 |
4.2.2 粒子群算法 |
4.3 實(shí)驗(yàn)結(jié)果分析 |
4.3.1 識別性能評價(jià)標(biāo)準(zhǔn) |
4.3.2 采用準(zhǔn)確率評價(jià)標(biāo)準(zhǔn)對比三種算法 |
4.3.3 采用訓(xùn)練耗時(shí)評價(jià)標(biāo)準(zhǔn)對比三種算法 |
4.4 本章小結(jié) |
結(jié)論 |
參考文獻(xiàn) |
攻讀學(xué)位期間發(fā)表的學(xué)術(shù)成果 |
致謝 |
(8)聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究(論文提綱范文)
致謝 |
摘要 |
Abstract |
1 緒論 |
1.1 研究背景與意義 |
1.1.1 物聯(lián)網(wǎng)與感知 |
1.1.2 感知安全 |
1.1.3 聲音感知安全 |
1.2 國內(nèi)外研究現(xiàn)狀 |
1.2.1 感知安全研究 |
1.2.2 語音攻擊 |
1.2.3 語音安全防護(hù) |
1.3 研究目標(biāo)、挑戰(zhàn)與思路 |
1.4 研究內(nèi)容 |
1.4.1 感知安全機(jī)理建模與分析 |
1.4.2 語音采集安全 |
1.4.3 聲波測量安全 |
1.5 論文組織結(jié)構(gòu) |
2 感知安全機(jī)理建模與分析 |
2.1 感知安全與換能攻擊 |
2.1.1 換能攻擊 |
2.1.2 換能攻擊信號 |
2.1.3 換能攻擊分類 |
2.1.4 攻擊者假設(shè) |
2.1.5 感知安全的核心問題 |
2.2 感知安全機(jī)理模型 |
2.2.1 傳感器模型 |
2.2.2 換能攻擊模型 |
2.2.3 案例分析 |
2.2.4 模型應(yīng)用 |
2.3 換能攻擊方法 |
2.3.1 信號注入步驟 |
2.3.2 測量構(gòu)造步驟 |
2.3.3 構(gòu)造換能攻擊 |
2.4 換能攻擊防護(hù)方法 |
2.4.1 攻擊檢測方法 |
2.4.2 攻擊抵御方法 |
2.5 本章小結(jié) |
3 語音采集攻擊:基于器件非線性的無聲語音指令攻擊 |
3.1 引言 |
3.2 背景介紹和威脅模型 |
3.2.1 語音助手 |
3.2.2 麥克風(fēng) |
3.2.3 威脅模型 |
3.3 攻擊可行性分析 |
3.3.1 非線性效應(yīng)建模 |
3.3.2 非線性效應(yīng)評估 |
3.4 攻擊設(shè)計(jì) |
3.4.1 語音指令生成 |
3.4.2 語音指令調(diào)制 |
3.4.3 攻擊信號發(fā)射 |
3.5 攻擊可行性驗(yàn)證 |
3.5.1 目標(biāo)系統(tǒng)選擇 |
3.5.2 實(shí)驗(yàn)設(shè)置 |
3.5.3 可行性實(shí)驗(yàn)結(jié)果 |
3.6 本章小結(jié) |
4 語音采集防護(hù):基于聲場的語音欺騙攻擊檢測 |
4.1 引言 |
4.2 背景介紹 |
4.2.1 人類發(fā)聲體 |
4.2.2 揚(yáng)聲器 |
4.2.3 聲場 |
4.3 威脅模型 |
4.4 場紋的可行性 |
4.4.1 發(fā)聲體與聲場 |
4.4.2 場紋的提取 |
4.4.3 場紋的一致性 |
4.4.4 場紋的獨(dú)特性 |
4.4.5 場紋特性總結(jié) |
4.5 系統(tǒng)設(shè)計(jì) |
4.5.1 概述 |
4.5.2 信號處理 |
4.5.3 場紋提取 |
4.5.4 場紋匹配 |
4.6 系統(tǒng)評估 |
4.6.1 評估方法 |
4.6.2 系統(tǒng)整體性能 |
4.6.3 影響系統(tǒng)性能的因素 |
4.6.4 魯棒性和可用性 |
4.7 討論 |
4.7.1 安全性 |
4.7.2 局限性和未來工作 |
4.8 本章小結(jié) |
5 聲波測量安全:面向無人駕駛超聲波避障的攻擊與防護(hù) |
5.1 引言 |
5.2 背景介紹 |
5.2.1 自動(dòng)駕駛系統(tǒng) |
5.2.2 超聲波傳感器 |
5.3 安全問題描述 |
5.3.1 威脅模型 |
5.3.2 物理信號攻擊 |
5.3.3 攻擊分類 |
5.4 聲波測量攻擊 |
5.4.1 傳感器分析 |
5.4.2 隨機(jī)欺騙攻擊 |
5.4.3 自適應(yīng)欺騙攻擊 |
5.4.4 阻塞攻擊 |
5.4.5 攻擊總結(jié) |
5.5 聲波測量防護(hù) |
5.5.1 物理變換認(rèn)證 |
5.5.2 基于多傳感器的一致性檢查 |
5.5.3 系統(tǒng)級防護(hù)策略 |
5.5.4 討論 |
5.6 本章小結(jié) |
6 總結(jié)與展望 |
6.1 工作總結(jié) |
6.2 研究展望 |
參考文獻(xiàn) |
攻讀博士學(xué)位期間的主要成果 |
(9)金融領(lǐng)域中的聲紋識別應(yīng)用(論文提綱范文)
1引言 |
2金融領(lǐng)域身份認(rèn)證的特點(diǎn)和現(xiàn)狀 |
2.1生物特征泄露風(fēng)險(xiǎn) |
2.2活體呈現(xiàn)攻擊風(fēng)險(xiǎn) |
2.3特征錄制重放風(fēng)險(xiǎn) |
2.4非真意圖使用風(fēng)險(xiǎn) |
3金融領(lǐng)域中的聲紋識別應(yīng)用方式 |
4金融領(lǐng)域中的聲紋識別應(yīng)用場景 |
5金融領(lǐng)域中的聲紋識別應(yīng)用評測 |
6金融領(lǐng)域中的聲紋識別標(biāo)準(zhǔn)化 |
7結(jié)語 |
(10)基于時(shí)域信號的端到端的說話人識別算法研究(論文提綱范文)
摘要 |
ABSTRACT |
第一章 緒論 |
1.1 研究背景 |
1.2 研究目的和意義 |
1.3 研究現(xiàn)狀 |
1.3.1 說話人識別現(xiàn)狀 |
1.3.2 端到端的說話人識別現(xiàn)狀 |
1.4 論文的研究內(nèi)容 |
1.5 論文的組織結(jié)構(gòu) |
第二章 說話人識別算法的基本原理 |
2.1 說話人識別的基本框架 |
2.2 語音預(yù)處理 |
2.3 語音特征提取 |
2.3.1 線性預(yù)測分析系數(shù) |
2.3.2 線性預(yù)測倒譜系數(shù) |
2.3.3 瓶頸特征(Bottleneck Feature) |
2.3.4 拼接特征(Tandem Feature) |
2.4 常用的說話人識別模型 |
2.4.1 模板匹配算法 |
2.4.2 概率模型算法 |
2.4.3 支持向量機(jī)和神經(jīng)網(wǎng)絡(luò) |
2.5 相似度測量方法 |
2.5.1 余弦相似度 |
2.5.2 概率線性判別分析 |
2.5.3 距離度量 |
2.6 說話人識別評價(jià)標(biāo)準(zhǔn) |
2.7 本章小結(jié) |
第三章 基于時(shí)域信號的語音特征提取算法研究 |
3.1 引言 |
3.2 語音頻譜圖 |
3.3 梅爾頻率倒譜系數(shù) |
3.4 基于時(shí)域卷積的語音特征提取算法 |
3.4.1 時(shí)域卷積 |
3.4.2 時(shí)間域語音特征提取算法 |
3.5 本章小結(jié) |
第四章 基于深度神經(jīng)網(wǎng)絡(luò)的端到端的說話人識別算法研究 |
4.1 引言 |
4.2 基于DNN的端到端的說話人識別框架 |
4.2.1 基于DNN分類的說話人識別系統(tǒng) |
4.2.2 基于DNN建模的說話人識別系統(tǒng) |
4.3 基于DNN的端到端的說話人識別模型 |
4.3.1 基于VGGNet的識別模型 |
4.3.2 基于Res Net的識別模型 |
4.3.3 基于Dense Net的識別模型 |
4.4 基于時(shí)域信號的端到端的說話人識別算法實(shí)現(xiàn) |
4.5 本章小結(jié) |
第五章 實(shí)驗(yàn)結(jié)果與分析 |
5.1 實(shí)驗(yàn)設(shè)置 |
5.1.1 實(shí)驗(yàn)數(shù)據(jù)集 |
5.1.2 實(shí)驗(yàn)環(huán)境 |
5.2 基于時(shí)域信號的語音特征提取算法實(shí)驗(yàn) |
5.2.1 實(shí)驗(yàn)方案 |
5.2.2 實(shí)驗(yàn)結(jié)果與分析 |
5.3 基于時(shí)域信號的端到端的說話人識別算法實(shí)驗(yàn) |
5.3.1 實(shí)驗(yàn)方案 |
5.3.2 實(shí)驗(yàn)結(jié)果與分析 |
5.4 本章小結(jié) |
總結(jié)與展望 |
參考文獻(xiàn) |
攻讀碩士學(xué)位期間取得的研究成果 |
已發(fā)表論文 |
已申請專利 |
致謝 |
附錄 |
四、一種簡單有效的說話人身份認(rèn)證方法(論文參考文獻(xiàn))
- [1]基于同態(tài)加密的聲紋認(rèn)證隱私保護(hù)技術(shù)研究[D]. 李佳慧. 桂林電子科技大學(xué), 2021(02)
- [2]基于深度學(xué)習(xí)的聲紋識別關(guān)鍵技術(shù)研究[D]. 劉勇. 青島科技大學(xué), 2021(02)
- [3]移動(dòng)互聯(lián)網(wǎng)身份認(rèn)證關(guān)鍵技術(shù)研究[D]. 落紅衛(wèi). 北京郵電大學(xué), 2021(01)
- [4]基于深度學(xué)習(xí)的反欺騙聲紋識別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D]. 陳青梅. 北京郵電大學(xué), 2021(01)
- [5]基于SOPC的聲紋識別系統(tǒng)的設(shè)計(jì)與現(xiàn)[D]. 蘇靖婷. 內(nèi)蒙古大學(xué), 2021(12)
- [6]說話人辨認(rèn)加速方法研究[D]. 苑新宇. 西北民族大學(xué), 2021(08)
- [7]灰狼算法優(yōu)化的核極限學(xué)習(xí)機(jī)在說話人識別中的應(yīng)用研究[D]. 王琪. 哈爾濱理工大學(xué), 2021(09)
- [8]聲音感知安全機(jī)理與攻擊和防護(hù)關(guān)鍵技術(shù)研究[D]. 閆琛. 浙江大學(xué), 2021(01)
- [9]金融領(lǐng)域中的聲紋識別應(yīng)用[J]. 劉樂,鄔曉鈞,鄭方. 中國安全防范技術(shù)與應(yīng)用, 2020(05)
- [10]基于時(shí)域信號的端到端的說話人識別算法研究[D]. 梁寧欣. 華南理工大學(xué), 2020(02)
標(biāo)簽:機(jī)器學(xué)習(xí)論文; 身份認(rèn)證技術(shù)論文; 聲紋識別論文; 特征提取論文; 深度學(xué)習(xí)算法論文;