Rémy Demichelis, « Qu’est-ce que tu ne comprends pas ? » Jeux de langage et algorithmes boîte noire
Abstract
L’enjeu de cet article est de déterminer ce qui pose problème dans notre compréhension des algorithmes dits « boîte noire », une problématique propre à la jeune discipline de l’Explainable Artificial Intelligence (XAI). Car, s’il est aisé de comprendre quelque chose que quelqu’un nous explique, c’est plus délicat lorsque personne n’arrive à saisir le problème. Cependant, notre propos consiste à souligner : (1) qu’il convient de parler d’interprétabilité plutôt que d’explicabilité lorsque nous cherchons à comprendre les modèles, principalement parce que nous n’avons jamais un accès complet et sans ambiguïté à l’information ; (2) que la machine fait face au problème de l’inscrutabilité de la référence, de la même manière que le linguiste imaginé par Willard Van Orman Quine ne peut pas déterminer précisément ce que désigne le terme « gavagai » dans une situation de traduction radicale ; (3) qu’il n’y a pas de règle pour l’application de la langue, si ce n’est des « language games », comme la linguistique de Ludwig Wittgenstein nous l’enseigne. Il en découle que l’espoir d’arriver à une explicabilité des algorithmes, et donc à la transparence attendue, est sans doute vain : nous ne pouvons nous contenter que d’interprétations qui ne mentionneront jamais la règle de la règle.
Keywords: XAI, Explicabilité, Interprétabilité, Linguistique, Jeux de langage, Ethique.
Abstract (english)
The aim of this article is to understand the problem of “black box” algorithms, an issue inherent to the nascent field of Explainable Artificial Intelligence (XAI). While it is relatively easy to understand something someone explained to us, it becomes more complicated when no one can fully grasp the issue. Our purpose is however to highlight: (1) that we should speak of interpretability rather than explainability when we seek to understand models, mainly because we never have complete and unambiguous access to information; (2) that the machines face the problem of the inscrutability of reference, in the same way that the linguist imagined by Willard Van Orman Quine cannot precisely determine what the term “gavagai” refers to in a situation of radical translation; (3) that there is no rule for the application of language, except for “language games”, as Ludwig Wittgenstein’s linguistics teaches us. The hope of achieving complete explicability and transparency of algorithms is undoubtedly in vain: we can only rely on partial and broad interpretations that will never fully explain the underlying rules.
Keywords: XAI, Explicability, Interpretability, Linguistics, Language games, Ethics.