Epistémologie des modèles et demandes d’explicabilité de l’apprentissage machine
Autor: | Franck Varenne |
---|---|
Přispěvatelé: | Équipe de Recherche Interdisciplinaire sur les Aires Culturelles (ERIAC), Université de Rouen Normandie (UNIROUEN), Normandie Université (NU)-Normandie Université (NU)-Institut de Recherche Interdisciplinaire Homme et Société (IRIHS), Normandie Université (NU)-Normandie Université (NU)-Université de Rouen Normandie (UNIROUEN), Normandie Université (NU), Institut d'Histoire et de Philosophie des Sciences et des Techniques (IHPST), Université Paris 1 Panthéon-Sorbonne (UP1)-Centre National de la Recherche Scientifique (CNRS), Association Aristote, Ecole Polytechnique, Centre National de la Recherche Scientifique (CNRS)-Université Paris 1 Panthéon-Sorbonne (UP1) |
Jazyk: | francouzština |
Rok vydání: | 2019 |
Předmět: |
analyse de données
[SHS.HISPHILSO]Humanities and Social Sciences/History Philosophy and Sociology of Sciences intelligence artificielle [INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] modèles prédictifs [SHS.PHIL]Humanities and Social Sciences/Philosophy apprentissage machine [INFO.INFO-MO]Computer Science [cs]/Modeling and Simulation IA explicable interprétabilité explicabilité [INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI] |
Zdroj: | L'IA est-elle explicable ? L'IA est-elle explicable ?, Association Aristote; Ecole Polytechnique, Oct 2019, Palaiseau, France HAL |
Popis: | National audience; Dans cet exposé, je présenterai cette partie du travail engagé avec Christophe Denis (Denis, Varenne, 2019) dans laquelle je recours à l’épistémologie comparative des fonctions de connaissance des modèles scientifiques (Varenne 2018). Cette épistémologie se révèle utile pour aborder, plus finement que certaines autres approches, les problèmes spécifiques à l’apprentissage machine (AM), en particulier le déficit d’explicabilité. Même si l’on considère parfois que les méthodes à AM ne sont pas des approches par modèles dans leur processus même, de fait, elles aboutissent, in fine, à produire d’authentiques modèles de décision ou de prédiction. À la lumière de l’épistémologie des modèles, je propose de montrer en quoi le déficit d’explicabilité des modèles prédictifs à base d’AM tient – comme on le dit souvent et à juste raison – à l’absence de représentation d’une causalité. Je commencerai en montrant que les distinctions et liens entre interprétation, explication et compréhension doivent d’abord être clarifiés. Ensuite, je montrerai que les modèles à base d’AM s’apparentent aux modèles prédictifs classiques fondés sur l’analyse des données considérées comme des signaux plutôt que comme des signes, mais que certains s’en distinguent (comme les techniques de deep learning) en ce que le pari « métaphysique » sur lequel leur réussite se fonde est loin d’être aussi clair. Je soulignerai enfin les différences entre explication par le modèle, explication du modèle et explication ex post du comportement du modèle à quoi on réduit souvent les recherches en « explainable AI » (Mittelstadt et al. 2019). Cette dernière distinction permet de comprendre pourquoi le fait de détenir un modèle expliquant un modèle à AM, c’est-à-dire un modèle explicatif approché de second degré, expliquant partiellement, de manière locale ou ad hoc le comportement d’un modèle à AM, ne peut pas nous assurer d’une complète confiance en ce modèle. |
Databáze: | OpenAIRE |
Externí odkaz: |