IA responsable : 8 leçons tirées de notre périple vers une IA responsable (2/2)

Dans cette troisième partie de notre série sur l’IA responsable, nous continuons à partager les apprentissages tirés de notre cheminement. Pour lire la première partie de nos enseignements, c’est ici : IA responsable : 8 leçons tirées de notre périple vers une IA responsable (1/2) – gradiant. Que ce soit en identifiant les biais dès leur source, en misant sur la transparence, ou en adoptant des outils adaptés à chaque organisation, ces leçons sont conçues pour inspirer des approches plus équitables, inclusives et transparentes. Voici donc 4 autres maximes, un peu excentriques mais tout aussi importantes pour illustrer notre parcours 🙂
5. On n’attend pas d’avoir soif pour creuser un puits
Identifiez les risques de biais à la racine.
Les biais peuvent se glisser à toutes les étapes du développement IA. Pour les traiter efficacement, nous avons associé les questions de certification à chaque phase de notre pipeline IA/ML, de la préparation des données à la mise en production. Cela nous a aidés à identifier les points critiques où des biais pouvaient émerger, qu’ils soient dus à des inégalités dans les données ou à des biais algorithmiques. En concevant un pipeline IA attentif aux biais, nous avons garanti que l’équité et l’inclusivité soient intégrées à chaque étape du développement.
Pssst : Pour mieux comprendre comment nos biais influencent des outils d’IA, nous vous conseillons cette expérience ludique très courte >> Survival of the Best Fit.
6. Mettez cartes sur table… avec des « Model Cards »
La transparence n’est pas qu’un mot, c’est l’un des piliers de l’IA responsable. Nous avons introduit l’utilisation des fiches descriptives de modèles (AI Fact Sheet), équivalent à des “Model Cards”. Ces fiches documentent les aspects clés de la conception et du développement d’un modèle en un seul endroit. Elles incluent aussi des liens vers des lignes directrices pertinentes, assurant cohérence dans nos projets. Ces fiches ne sont pas seulement utiles en interne : elles renforcent la confiance avec les parties prenantes en rendant nos décisions claires et accessibles.
7. Un bon ouvrier a de bons outils
Les biais ne disparaissent pas par magie : il faut les bons outils pour les identifier et les réduire tout au long du cycle de vie de nos systèmes IA. Après avoir comparé plusieurs options sur la base de critères comme la facilité d’utilisation et le coût (hello, si vous souhaitez avoir accès à la grille complète, contactez-nous!), dont Microsoft’s Fairlearn ou encore Google’s What-If Tool, nous avons retenu IBM’s AI Fairness 360 (AIF360), qui aide à mesurer et corriger les biais dans les systèmes IA.
Prenons l’exemple d’un théâtre qui utiliserait un système de recommandation. En visant une optimisation absolue des revenus, il pourrait favoriser certains types de spectacles au détriment d’autres, et manquer des objectifs d’exposer ses publics à une certaine diversité. AIF360 permettrait de vérifier l’équité du modèle et d’ajuster ses recommandations pour mieux refléter la diversité de l’offre.
D’autres principes d’IA responsable sont également à adresser, notamment l’explicabilité. SHAP est un outil qui permet d’identifier les facteurs qui influencent une décision prise par un modèle IA, peu importe sa complexité. Imaginons un modèle avancé qui vise à prédire si une production théâtrale est susceptible d’attirer un grand nombre de spectateur·triceres. En comprenant quels facteurs – comme la notoriété des comédien·nes ou le thème de la pièce – influencent cette prédiction, un théâtre peut mieux ajuster ses campagnes marketing ou ses choix de programmation pour maximiser l’engagement du public et optimiser ses ressources.
Enfin, ce qui ne se mesure pas, n’existe pas. Le calculateur d’impact développé dans le cadre du projet MLCo2, grâce à des chercheurs comme Sasha Luccioni, mondialement reconnue pour son engagement dans l’étude des interactions entre IA et climat, est un outil précieux pour pouvoir mesurer les coûts environnementaux des modèles que nous développons, et nous inviter à adopter des pratiques plus sobres.
8. Rien de grand ne se fait sans passion
Commencez avec un projet important pour vous. Pour déployer un projet de cette ampleur, qui allait potentiellement transformer nos pratiques en profondeur, il nous a fallu commencer par développer et appliquer ce processus dans le cadre de projets qui comptaient vraiment pour nous. Notre mission visant à rendre accessible l’IA et l’analytique avancée pour plus de démocratie, de culture, de diversité, nous a naturellement poussés à travailler sur une initiative alignée avec ces valeurs. En choisissant un terrain qui nous mobilisait déjà, nous avons réussi à embarquer l’équipe et à poser des bases solides pour la suite. Nous partagerons d’ailleurs avec vous ce projet dans le prochain numéro de notre série sur l’IA responsable! 😉
Restez connecté·es pour découvrir la suite de notre parcours et les enseignements qui pourraient transformer vos propres initiatives en IA responsable !
Vous avez un projet d’IA et souhaitez explorer des solutions responsables ?
N’hésitez pas à nous contacter : notre équipe sera ravie d’échanger avec vous sur la manière dont une IA responsable peut répondre à vos défis et objectifs.