Chapitre 3 : TRANSPARENCE ET EXPLICABILITE
Il existe deux raisons principales pour lesquelles le droit stipule qu’il y a un besoin d’explicabilité des algorithmes. Premièrement, les individus ont le droit de comprendre et de contester une décision algorithmique. Deuxièmement il faut garantir qu’une institution de contrôle puisse comprendre le fonctionnement de l’algorithme, à la fois dans l’ensemble et dans un cas particulier. Par exemple, pour être sûr qu’il n’y a pas de discrimination raciale. Il y a donc un aspect individuel et un aspect institutionnel.
Les défis de la transparence et de l’explicabilité des algorithmes
La transparence consiste à exposer le fonctionnement des systèmes algorithmiques. Il s’agit d’une mesure qui vise essentiellement les personnes responsables de ces systèmes. Cela permet de limiter l’opacité lorsque cette dernière est intentionnelle[1]. L’explicabilité quant à elle consiste à fournir une information utilisant un langage accessible à tout utilisateur, quel qu’il soit et quelle que soit son niveau de connaissances ou d’expertise sur le sujet en question. En d’autres termes, le vocabulaire utilisé est adapté selon les situations à la cible de ceux qui vont recevoir cette information. L’explicabilité répond donc aux questions « De quoi parle-t-on ? », « A quoi cela sert-il ? », « Pourquoi et dans quel but le fait-on ? ».
Mais bien que consacré par la loi française « pour une république numérique », le principe de la transparence reste parfois insuffisant pour répondre à tous les enjeux. C’est à juste titre que pour certains auteurs, elle est insatisfaisante.
Car si la transparence exige que les responsables publient les formulent de calcul ou le code source de leur logiciel, le véritable problème demeure au niveau de la capacité des profanes à comprendre et à analyser ses informations. C’est donc à juste titre que cette exigence de transparence appel des concepts tels que ceux de l’interprètabilité et de l’explicabilité. Seulement ces notions posent également des préoccupations car la question reste posée de savoir s’il faut tout expliquer, tout interpréter.
L’explicabilité est donc une question complexe car les algorithmes reposent sur des modèles complexes qui ne sont pas toujours faciles à expliquer. Les algorithmes sont souvent conçus sur des systèmes qui utilisent les techniques dites de « boîtes noire », Ce qui suppose que même le concepteur n’a pas accès au processus décisionnel. Ce processus n’est d’ailleurs pas souvent précis[2]. En dehors de cet aspect, il y a aussi le constat que les systèmes algorithmiques reposent sur des mécanismes d’apprentissage qui sont en perpétuel fonctionnement. Ils ont accès à des milliers d’information à chaque instant d’où découle une instabilité qui rend encore plus difficile la compréhension de leurs décisions.
On pourra citer aussi la problématique de la protection des secrets d’affaire ou du droit de la propriété intellectuelle de ces systèmes voir la possibilité d’une potentille mise en œuvre de l’explication au profit des pirates informatiques.
Droit d’accès à l’information et droit à l’explication
Le droit d’accès à l’information et le droit à l’explication sont deux concepts importants liés à la transparence et à la responsabilité dans l’utilisation des algorithmes, en particulier dans des contextes où des décisions algorithmiques influencent la vie des individus. Voici une explication de chacun de ces droits :
Droit d’accès à l’information : Le droit d’accès à l’information est le droit des individus de demander et d’obtenir des informations sur la manière dont des décisions les concernant ont été prises, notamment lorsque ces décisions ont été prises par des entités privées ou des algorithmes. Ce droit peut s’appliquer dans divers domaines, tels que les prêts, les embauches, la santé, les assurances et d’autres décisions basées sur des algorithmes. Il permet aux individus de savoir pourquoi une décision a été prise à leur sujet. Il favorise la transparence en obligeant les organisations à divulguer des informations pertinentes sur les critères, les données et le processus décisionnel utilisés par les algorithmes.
Le droit à l’explication : Le droit à l’explication est un aspect du droit d’accès à l’information. Il stipule que les individus ont le droit de recevoir des explications compréhensibles sur les décisions prises par des algorithmes qui les concernent.
Ce droit exige que les explications fournies soient claires, transparentes et facilement accessibles. Les individus doivent pouvoir comprendre pourquoi une décision a été prise. Le droit à l’explication permet également aux individus de contester les décisions algorithmiques s’ils estiment qu’elles sont injustes, inexactes ou discriminatoires. Ainsi, en garantissant que les individus comprennent les décisions prises par les algorithmes, le droit à l’explication renforce la responsabilité des organisations et des développeurs envers leurs utilisateurs. Le droit d’accès à l’information et le droit à l’explication sont essentiels pour garantir que les individus ne sont pas soumis à des décisions algorithmiques arbitraires ou discriminatoires. Ils sont particulièrement pertinents dans des domaines sensibles tels que la finance, la santé, l’emploi et la justice, où les décisions algorithmiques ont un impact significatif sur la vie des personnes. Ils contribuent à assurer la transparence, la redevabilité et l’équité dans l’utilisation croissante de l’intelligence artificielle et des algorithmes.
Mécanismes pour rendre les décisions algorithmiques compréhensibles
Pour rendre des décisions algorithmiques plus compréhensibles, il faut :
Fournir une documentation détaillée : Fournissez une documentation complète sur la manière dont l’algorithme a été conçu, les données utilisées, les caractéristiques prises en compte et les critères de décision. Cette documentation doit être claire et accessible.
Explications textuelles : Fournissez des explications textuelles pour chaque décision prise par l’algorithme. Expliquez pourquoi une certaine action a été recommandée ou prise, en utilisant un langage compréhensible pour les utilisateurs finaux.
Définir les caractéristiques d’une explication idéale : Ces caractéristiques sont entre autres : la précision dans la description de la situation traitée par l’algorithme. Il faut également que cette description soit faite dans un souci d’accessibilité afin qu’elle puisse être comprise par l’audience concernée. Ensuite, il faudra que l’explication fournie soit assez concise pour être facilement assimilée. On peut également souhaitée qu’elle soit actionnable de sorte à permettre à l’humain d’entreprendre des actions. L’explication idéale doit également être valable et s’accommoder à chaque situation. En d’autres termes, elle doit être interactive et être capable de fournir une diversité d’explications. Le processus d’explication peut par ailleurs reposer sur un mécanisme permettant aux utilisateurs d’accéder à l’explication qui s’adapte mieux à leur situation.
Visualisations : Utilisez des visualisations telles que des graphiques, des diagrammes ou des infographies pour illustrer comment l’algorithme a pris une décision. Les visualisations peuvent rendre les processus algorithmiques plus accessibles.
Exemples concrets : Montrez des exemples concrets de données et d’entrées qui ont conduit à une décision particulière. Cela peut aider les utilisateurs à comprendre comment les données influencent les résultats.
Comparaisons et analogies : Utilisez des comparaisons ou des analogies simples pour expliquer les décisions. Par exemple, vous pouvez dire que l’algorithme fonctionne de manière similaire à un expert humain dans un domaine donné.
Interfaces utilisateur conviviales : Concevez des interfaces utilisateur conviviales qui présentent les résultats de manière claire et expliquent les décisions prises par l’algorithme de manière intuitive.
Tests de sensibilité : Effectuez des tests de sensibilité en modifiant délibérément les données d’entrée pour montrer comment cela affecte les résultats. Cela peut aider à illustrer la sensibilité de l’algorithme à différentes entrées.
Accès aux données d’entraînement : Dans la mesure du possible, offrez aux utilisateurs un accès aux données d’entraînement pour qu’ils puissent voir quelles données ont été utilisées pour former l’algorithme.
Résumés succincts : Fournissez des résumés succincts des principales caractéristiques et des facteurs qui ont influencé une décision particulière.
Formation et sensibilisation : Formez les utilisateurs à comprendre les concepts de base liés à l’IA et aux algorithmes, ce qui facilite la compréhension des décisions prises.
Droit à l’explication : Respectez les réglementations qui exigent le droit à l’explication, permettant aux utilisateurs de demander et de recevoir des explications détaillées sur les décisions algorithmiques qui les concernent.
Feedback et amélioration continue : Recueillez le feedback des utilisateurs sur la compréhensibilité des décisions et utilisez ces informations pour améliorer la transparence de l’algorithme.
[1] Clément Henin. Expliquer et justifier les systèmes de décisions algorithmiques. Intelligence artificielle
[cs.AI]. Université de Lyon, 2021. Français. NNT : 2021LYSEI058. tel-03551798v2, p.26
[2] « L’ia souffre encore d’un gros défau, elle a du mal à expliquer ses décisions » https://www.axys-consultants.com/blog/achats/le-defi-de-l-explicabilite%E2%80%AF-faire-tomber-le-mythe-et-accelerer-l-adoption-de-l-ia-dans-les-entreprises