Zobrazeno 1 - 10
of 380
pro vyhledávání: '"Jin, Haifeng"'
Autor:
Watson, Matthew, Sreepathihalli, Divyashree Shivakumar, Chollet, Francois, Gorner, Martin, Sodhia, Kiranbir, Sampath, Ramesh, Patel, Tirth, Jin, Haifeng, Kovelamudi, Neel, Rasskin, Gabriel, Saadat, Samaneh, Wood, Luke, Qian, Chen, Bischof, Jonathan, Stenbit, Ian, Sharma, Abheesht, Mishra, Anshuman
We present the Keras domain packages KerasCV and KerasNLP, extensions of the Keras API for Computer Vision and Natural Language Processing workflows, capable of running on either JAX, TensorFlow, or PyTorch. These domain packages are designed to enab
Externí odkaz:
http://arxiv.org/abs/2405.20247
Autor:
Wang, Yue, Jin, Haifeng, Wang, Jinke, Ma, Li, Lin, Cunguo, Luo, Shuyou, Li, Zongbao, Chen, Weiting, Liu, Huan, Ma, Lingwei, Zhang, Dawei
Publikováno v:
In Progress in Organic Coatings October 2024 195
Human-designed data augmentation strategies have been replaced by automatically learned augmentation policy in the past two years. Specifically, recent work has empirically shown that the superior performance of the automated data augmentation method
Externí odkaz:
http://arxiv.org/abs/2103.14545
Realistic recommender systems are often required to adapt to ever-changing data and tasks or to explore different models systematically. To address the need, we present AutoRec, an open-source automated machine learning (AutoML) platform extended fro
Externí odkaz:
http://arxiv.org/abs/2007.07224
Autor:
Li, Yuening, Chen, Zhengzhang, Zha, Daochen, Zhou, Kaixiong, Jin, Haifeng, Chen, Haifeng, Hu, Xia
Outlier detection is an important data mining task with numerous practical applications such as intrusion detection, credit card fraud detection, and video surveillance. However, given a specific complicated task with big data, the process of buildin
Externí odkaz:
http://arxiv.org/abs/2006.11321
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.
Autor:
Jin, Haifeng
Publikováno v:
In Resources Policy October 2023 86 Part B
Adversarial examples are delicately perturbed inputs, which aim to mislead machine learning models towards incorrect outputs. While most of the existing work focuses on generating adversarial perturbations in multi-class classification problems, many
Externí odkaz:
http://arxiv.org/abs/1901.00546