Zobrazeno 1 - 10
of 1 307
pro vyhledávání: '"emotional speech recognition"'
In the field of audio and speech analysis, the ability to identify emotions from acoustic signals is essential. Human-computer interaction (HCI) and behavioural analysis are only a few of the many areas where the capacity to distinguish emotions from
Externí odkaz:
http://arxiv.org/abs/2312.14020
Autor:
Chen, Maximillian, Yu, Zhou
Publikováno v:
Proc. INTERSPEECH 2023, 3602-3606 (2023)
Speech models have long been known to overfit individual speakers for many classification tasks. This leads to poor generalization in settings where the speakers are out-of-domain or out-of-distribution, as is common in production environments. We vi
Externí odkaz:
http://arxiv.org/abs/2302.12921
Publikováno v:
Deep Learning for NLP Workshop, Extraction et Gestion des Connaissances (EGC), 2022
In this paper, we propose a new methodology for emotional speech recognition using visual deep neural network models. We employ the transfer learning capabilities of the pre-trained computer vision deep models to have a mandate for the emotion recogn
Externí odkaz:
http://arxiv.org/abs/2204.03561
Autor:
Hema, C., Garcia Marquez, Fausto Pedro
Publikováno v:
In Applied Acoustics August 2023 211
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Lyakso, Elena1 (AUTHOR) lyakso@gmail.com, Ruban, Nersisson2 (AUTHOR), Frolova, Olga1 (AUTHOR), Mekala, Mary A.3 (AUTHOR)
Publikováno v:
PLoS ONE. 2/15/2023, Vol. 17 Issue 2, p1-22. 22p.
Conference
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
EURASIP Journal on Audio, Speech, and Music Processing, Vol 2018, Iss 1, Pp 1-13 (2018)
Abstract The performance of automatic speech recognition systems degrades in the presence of emotional states and in adverse environments (e.g., noisy conditions). This greatly limits the deployment of speech recognition application in realistic envi
Externí odkaz:
https://doaj.org/article/203cd72c28264e75b437276c543ac506
Publikováno v:
PLoS ONE, Vol 18, Iss 2 (2023)
The current study investigated the features of cross-cultural recognition of four basic emotions “joy–neutral (calm state)–sad–anger” in the spontaneous and acting speech of Indian and Russian children aged 8–12 years across Russian and T
Externí odkaz:
https://doaj.org/article/9119cfbb6513464ab0da9af3f4326ee7