Comment développer une science des données responsable pour la culture, les médias et le tourisme ?

Et quels engagements sommes-nous prêt·es à prendre pour y parvenir ?

Ce sont les questions qui ont guidé nos réflexions afin de mettre sur pied notre manifeste pour une IA responsable.

Une IA responsable commence avec des personnes responsables

Depuis les débuts de Gradiant, nous avons à cœur la transparence, la représentativité et le libre-arbitre. Nous avons aussi individuellement la volonté de voir un monde plus juste, plus écologique, plus inclusif. Et, à cet égard, nous avons toujours considéré les données comme un outil, et non une finalité.

Nous parlons souvent de nous comme des artisan·es de données.

Un·e artisan·e, c'est une personne qui maîtrise certaines techniques permettant de transformer des matériaux afin de créer des objets utilitaires, de haute qualité, souvent personnalisés. On dit aussi qu'elle a une grande passion pour son métier.

Ainsi, en tant qu’artisan·es, nous ne pouvons pas ignorer les dérives qui peuvent accompagner la démocratisation de l’intelligence artificielle, notamment générative, et notre responsabilité à cet égard.

Culture, média, tourisme : des secteurs encore plus vulnérables face à la démocratisation de l'IA

Alors que certains secteurs, comme la santé et la justice, ont déjà commencé à encadrer l’utilisation de l’IA, les secteurs culturel, touristique et médiatique accusent un retard. Face aux nombreux enjeux (notamment de droits d’auteur, d’inclusion, de souveraineté culturelle, d’environnement), il était opportun d’entreprendre des travaux de réflexion sur l’IA responsable pour ces secteurs.

Une matinée de posts-its et de remue-méninges pour créer un manifeste juste

À l’aide d’Anne-Laure Mathieu, qui a imaginé divers exercices ludiques, stimulants et, surtout, révélateurs, nous nous sommes particulièrement questionné·es sur la place qu’occupe l’intelligence artificielle face aux secteurs du tourisme, de la culture et des médias et aux citoyen·es.
Dans ce qu’elle est présentement, ce qu’elle pourrait être, et ce qu’elle devrait être.
Nous avons ainsi dressé la table sur ce qui était souhaitable, et ce qui ne l’était pas. Cartes corporelles, cartes mentales, croquis… Les moyens les plus créatifs ont été employés pour guider nos pratiques vers une IA plus responsable!

Nos engagements au-delà des mots : audacieux mais nécessaires

Saviez-vous que, alors que 8 dirigeant·es sur 10 disent être prêt·es à intégrer une éthique de l’IA, moins d’un quart l’ont en effet mise en place ?* Nous, non, mais nous ne sommes pas surpris·es. Pire encore, moins de 20% seulement disent que leurs actions sont cohérentes avec leurs principes d’IA éthique.
À l’issue de notre matinée, nous avons dressé 5 principes et, face à ce triste constat, avons décidé de les ancrer dans des actions concrètes.

Ainsi, nous nous engageons à :

ÊTRE TRANSPARENT·ES

  • S’assurer que les personnes qui fournissent leurs données sont consentantes et éclairées
  • Informer les parties prenantes des processus utilisés

VISER LA SOBRIÉTÉ

  • Réutiliser ce qui existe déjà plutôt que de toujours faire du développement
  • Favoriser la simplicité en étant créatif, la sobriété est vue comme une contrainte favorisant la créativité
  • Optimiser les volumes de données
  • Accepter que certaines réflexions demandent du temps et donc de la patience

RESTER VIGILANT·ES

  • Assurer un diagnostic de la représentativité des données pour prévenir les biais possibles et proposer des manières de les contrer
  • Prendre en considération le contexte pour éviter les extrapolations dangereuses
  • Nommer clairement qui pourrait être impacté·e et de quelle manière
  • Anticiper des détournements d’utilisation

OUVRIR DES POSSIBLES

  • Activer la créativité pour trouver différentes réponses possibles
  • Inscrire les solutions dans un écosystème
  • Travailler en partenariat, dans le dialogue

FAVORISER L’AUTONOMIE

  • S’assurer que le pouvoir décisionnel reste humain, la responsabilité ne peut être reléguée aux machines
  • Favoriser une participation des parties prenantes active et forte
  • Reconnaître que les données ne répondent pas à tout

Nous sommes heureux·ses d’avoir initié ces réflexions et fier·es de ce premier pas. Nous avons hâte de poursuivre notre chemin en mettant en place les actions supportant ces engagements. En parallèle, nous travaillons à obtenir une certification en IA responsable afin d’ancrer davantage ces principes dans nos pratiques. Pour en savoir plus sur nous, vous pouvez consulter notre page « à propos de nous ».

L’IA responsable vous importe ?