Zobrazeno 1 - 10
of 108
pro vyhledávání: '"Tanti, M."'
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Multilingual language models such as mBERT have seen impressive cross-lingual transfer to a variety of languages, but many languages remain excluded from these models. In this paper, we analyse the effect of pre-training with monolingual data for a l
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od_______101::8ea36b6a26bb4a94d002fc79a850e2be
https://dspace.library.uu.nl/handle/1874/425952
https://dspace.library.uu.nl/handle/1874/425952
Autor:
Tanti, M, Abdilla, S, Muscat, A, Borg, C, Farrugia, RA, Gatt, A, Sub Natural Language Processing, Natural Language Processing
Publikováno v:
Proceedings of the Second Workshop on People in Vision, Language and Mind @ LREC2022, 41. European Language Resources Association (ELRA)
STARTPAGE=41;TITLE=Proceedings of the Second Workshop on People in Vision, Language and Mind @ LREC2022
STARTPAGE=41;TITLE=Proceedings of the Second Workshop on People in Vision, Language and Mind @ LREC2022
Current image description generation models do not transfer well to the task of describing human faces. To encourage the development of more human-focused descriptions, we developed a new data set of facial descriptions based on the CelebA image data
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=narcis______::a4caeb8a297deefa25ff2de3c1a9a2f3
https://dspace.library.uu.nl/handle/1874/425950
https://dspace.library.uu.nl/handle/1874/425950
Autor:
Tanti, M, van der Plas, L, Borg, C, Gatt, A, Bastings, Jasmijn, Belinkov, Yonatan, Dupoux, Emmanuel, Giulianelli, Mario, Hupkes, Dieuwke, Pinter, Yuval, Sajjad, Hassan
Recent work has shown evidence that the knowledge acquired by multilingual BERT (mBERT) has two components: a language-specific and a language-neutral one. This paper analyses the relationship between them, in the context of fine-tuning on two tasks
Externí odkaz:
https://explore.openaire.eu/search/publication?articleId=od_______101::4126d7107b6da4b27bb9a696086a522c
https://dspace.library.uu.nl/handle/1874/416478
https://dspace.library.uu.nl/handle/1874/416478
Autor:
Mayet, A., Santi, V. Pommier de, Manet, G., Nivoix, P., Ligier, C., Faure, N., Haus-Cheymol, R., Piarroux, M., Dia, A., Duron, S., Tanti, M., De Laval, F., Camara, K., Queyriaux, B., Nicand, E., Decam, C., Chaudet, H., Meynard, J.-B., Deparis, X., Migliani, R.
Publikováno v:
In Médecine et Maladies Infectieuses 2010 40(7):404-411
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Publikováno v:
Acta Neurologica Scandinavica. Sep2017, Vol. 136 Issue 3, p246-253. 8p.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.