Zobrazeno 1 - 10
of 10
pro vyhledávání: '"Sarkar, Achintya Kr."'
Autor:
Sarkar, Achintya kr., Tan, Zheng-Hua
Deep representation learning has gained significant momentum in advancing text-dependent speaker verification (TD-SV) systems. When designing deep neural networks (DNN) for extracting bottleneck features, key considerations include training targets,
Externí odkaz:
http://arxiv.org/abs/2201.06426
Autor:
Sarkar, Achintya kr., Tan, Zheng-Hua
Publikováno v:
IEEE Signal Processing Letters, vol. 28, pp. 364-368, 2021
In this letter, we propose a vocal tract length (VTL) perturbation method for text-dependent speaker verification (TD-SV), in which a set of TD-SV systems are trained, one for each VTL factor, and score-level fusion is applied to make a final decisio
Externí odkaz:
http://arxiv.org/abs/2011.12536
Publikováno v:
Computer Speech & Language, volume 59, January 2020, Pages 1-21
This paper presents an unsupervised segment-based method for robust voice activity detection (rVAD). The method consists of two passes of denoising followed by a voice activity detection (VAD) stage. In the first pass, high-energy segments in a speec
Externí odkaz:
http://arxiv.org/abs/1906.03588
Publikováno v:
IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2019
There are a number of studies about extraction of bottleneck (BN) features from deep neural networks (DNNs)trained to discriminate speakers, pass-phrases and triphone states for improving the performance of text-dependent speaker verification (TD-SV)
Externí odkaz:
http://arxiv.org/abs/1905.04554
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Sarkar, Achintya Kr., Tan, Zheng-Hua
Publikováno v:
NIPS Time Series Workshop 2017, Long Beach, CA, USA
In this paper, we present a time-contrastive learning (TCL) based bottleneck (BN)feature extraction method for speech signals with an application to text-dependent (TD) speaker verification (SV). It is well-known that speech signals exhibit quasi-sta
Externí odkaz:
http://arxiv.org/abs/1704.02373
Publikováno v:
In Computer Speech & Language January 2020 59:1-21
Publikováno v:
IEEE Sensors Journal; August 2024, Vol. 24 Issue: 16 p25558-25564, 7p
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.