Zobrazeno 1 - 10
of 42 533
pro vyhledávání: '"Language-independent"'
Publikováno v:
Proceedings of the 2019 Workshop on Widening NLP, pp. 92-94, Florence, Italy
This work presents a set of experiments conducted to predict the gender of Twitter users based on language-independent features extracted from the text of the users' tweets. The experiments were performed on a version of TwiSty dataset including twee
Externí odkaz:
http://arxiv.org/abs/2411.19733
This paper presents a comprehensive study on the tokenization techniques employed by state-of-the-art large language models (LLMs) and their implications on the cost and availability of services across different languages, especially low resource lan
Externí odkaz:
http://arxiv.org/abs/2410.03568
Finetuning pretrained models on downstream generation tasks often leads to catastrophic forgetting in zero-shot conditions. In this work, we focus on summarization and tackle the problem through the lens of language-independent representations. After
Externí odkaz:
http://arxiv.org/abs/2404.05720
Autor:
Fahed, Vitória S.1,2 vitoria.fahed@ucdconnect.ie, Doheny, Emer P.1,2, Collazo, Carla3, Krzysztofik, Joanna4, Mann, Elliot5, Morgan-Jones, Philippa5,6, Mills, Laura5, Drew, Cheney5, Rosser, Anne E.7, Cousins, Rebecca8, Witkowski, Grzegorz4, Cubo, Esther3, Busse, Monica5, Lowery, Madeleine M.1,2
Publikováno v:
American Journal of Speech-Language Pathology. May2024, Vol. 33 Issue 3, p1390-1405. 16p.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Pre-trained language models (PLMs) contain vast amounts of factual knowledge, but how the knowledge is stored in the parameters remains unclear. This paper delves into the complex task of understanding how factual knowledge is stored in multilingual
Externí odkaz:
http://arxiv.org/abs/2308.13198
Recent works on form understanding mostly employ multimodal transformers or large-scale pre-trained language models. These models need ample data for pre-training. In contrast, humans can usually identify key-value pairings from a form only by lookin
Externí odkaz:
http://arxiv.org/abs/2305.04460
Autor:
Sheikhaei, Mohammad Sadegh, Tian, Yuan
Software and systems traceability is essential for downstream tasks such as data-driven software analysis and intelligent tool development. However, despite the increasing attention to mining and understanding technical debt in software systems, spec
Externí odkaz:
http://arxiv.org/abs/2304.07829
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.