Zobrazeno 1 - 10
of 49
pro vyhledávání: '"Pang, Yutong"'
This paper introduces two advancements in the field of Large Language Model Annotation with a focus on punctuation restoration tasks. Our first contribution is the application of LLaMA for punctuation restoration, which demonstrates superior performa
Externí odkaz:
http://arxiv.org/abs/2408.11845
Autor:
Vats, Arpita, Liu, Zhe, Su, Peng, Paul, Debjyoti, Ma, Yingyi, Pang, Yutong, Ahmed, Zeeshan, Kalinli, Ozlem
Model adaptation is crucial to handle the discrepancy between proxy training data and actual users data received. To effectively perform adaptation, textual data of users is typically stored on servers or their local devices, where downstream natural
Externí odkaz:
http://arxiv.org/abs/2309.08628
Autor:
Sun, Chuanneng, Ahmed, Zeeshan, Ma, Yingyi, Liu, Zhe, Kabela, Lucas, Pang, Yutong, Kalinli, Ozlem
This paper studies contextual biasing with Large Language Models (LLMs), where during second-pass rescoring additional contextual information is provided to a LLM to boost Automatic Speech Recognition (ASR) performance. We propose to leverage prompts
Externí odkaz:
http://arxiv.org/abs/2309.00723
With the emergence of automatic speech recognition (ASR) models, converting the spoken form text (from ASR) to the written form is in urgent need. This inverse text normalization (ITN) problem attracts the attention of researchers from various fields
Externí odkaz:
http://arxiv.org/abs/2301.08506
Autor:
Pandey, Laxmi, Paul, Debjyoti, Chitkara, Pooja, Pang, Yutong, Zhang, Xuedong, Schubert, Kjell, Chou, Mark, Liu, Shu, Saraf, Yatharth
Inverse text normalization (ITN) is used to convert the spoken form output of an automatic speech recognition (ASR) system to a written form. Traditional handcrafted ITN rules can be complex to transcribe and maintain. Meanwhile neural modeling appro
Externí odkaz:
http://arxiv.org/abs/2207.09674
Publikováno v:
In Case Studies in Construction Materials July 2024 20
Autor:
Wang, Yiren, Huang, Hongzhao, Liu, Zhe, Pang, Yutong, Wang, Yongqiang, Zhai, ChengXiang, Peng, Fuchun
Although n-gram language models (LMs) have been outperformed by the state-of-the-art neural LMs, they are still widely used in speech recognition due to its high efficiency in inference. In this paper, we demonstrate that n-gram LM can be improved by
Externí odkaz:
http://arxiv.org/abs/1911.10235
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.