Zobrazeno 1 - 3
of 3
pro vyhledávání: '"Alukaev, Danis"'
One of the ways to make artificial intelligence more natural is to give it some room for doubt. Two main questions should be resolved in that way. First, how to train a model to estimate uncertainties of its own predictions? And then, what to do with
Externí odkaz:
http://arxiv.org/abs/2404.10314
Autor:
Alukaev, Danis, Kiselev, Semen, Pershin, Ilya, Ibragimov, Bulat, Ivanov, Vladimir, Kornaev, Alexey, Titov, Ivan
Concept Bottleneck Models (CBMs) assume that training examples (e.g., x-ray images) are annotated with high-level concepts (e.g., types of abnormalities), and perform classification by first predicting the concepts, followed by predicting the label r
Externí odkaz:
http://arxiv.org/abs/2310.14805
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.