Un lexique pour les professionnels & les curieux.

Algorithme : Séquence de règles opératoires exécutées sur des données et qui permettent l’obtention d’un résultat.

Analyse des mégadonnées : Technique de recherche qui consiste à analyser de gros volumes de données à l’aide d’algorithmes, d’outils informatiques spécialisés ou de systèmes d’intelligence artificielle, dans le but d’obtenir des informations utiles à l’action ou à la prise de décision. L’analyse des mégadonnées permet de mettre en évidence des corrélations et des structures sous-jacentes difficilement décelables parmi une masse de données brutes. Elle fournit des éléments de compréhension.

Apprentissage automatique (Machine Learning) : domaine de l’intelligence artificielle qui se concentre sur le développement de modèles qui peuvent apprendre à partir de données.

Apprentissage en profondeur (Deep Learning) : un sous-domaine de l’apprentissage automatique qui utilise des · réseaux de neurones artificiels avec plusieurs couches pour apprendre des représentations de données hiérarchiques.

Apprentissage fédéré (Federated Learning) : une méthode d’apprentissage automatique distribuée dans laquelle les données sont conservées localement sur les appareils des utilisateurs, plutôt que d’être rassemblées sur un serveur centralisé.

Apprentissage non supervisé : type d’apprentissage automatique dans lequel le modèle est entraîné sur un ensemble de données non étiquetées, c’est-à-dire des données où les résultats attendus ne sont pas connus.

Apprentissage par transfert (Transfer Learning) : une méthode d’apprentissage automatique dans laquelle un modèle pré-entraîné sur une tâche peut être adapté à une autre tâche sans avoir besoin d’un grand ensemble de données.

Apprentissage supervisé : type d’apprentissage automatique dans lequel le modèle est entraîné sur un ensemble de données étiquetées, c’est-à-dire des données où les résultats attendus sont connus.

Apprentissage renforcé (Reinforcement Learning) : un type d’apprentissage automatique dans lequel un modèle apprend à prendre des décisions en interagissant avec un environnement et en recevant des récompenses ou des pénalités pour ses actions.

Autonomie de l’IA : La capacité des systèmes d’IA à prendre des décisions et à agir indépendamment, tout en respectant les normes éthiques et légales.

Base de données : Ensemble structuré d’éléments d’information, généralement sous forme de tables, dans lequel les données sont organisées de manière à permettre leur exploitation. Une base de données peut être composée d’un seul fichier, contenant lui-même plusieurs tables / un terme utilisé pour décrire des ensembles de données volumineux et complexes qui sont difficiles à traiter avec des outils traditionnels.

Base de connaissances : Base de données contenant l’ensemble des informations intégrées dans un système d’intelligence artificielle. La base de connaissances fait généralement partie d’un système à base de connaissances.

Biais de l’IA : L’influence de certaines données ou des choix de conception sur les décisions prises par les systèmes d’IA, qui peuvent conduire à des résultats injustes ou discriminatoires.

Chaîne de valeur : décrit le processus qui consiste à transformer des données brutes en un élément de valeur.

Chatbot : est un programme informatique conçu pour simuler une conversation avec des utilisateurs humains, en utilisant des règles prédéfinies ou de l’intelligence artificielle. Les chatbots peuvent être utilisés pour répondre à des questions fréquentes, aider à résoudre des problèmes courants, ou simplement engager des conversations avec les utilisateurs.

Classification : un algorithme d’apprentissage automatique qui permet de prédire la classe d’un objet à partir de caractéristiques spécifiques.

Dashboards (en français tableau de bord): fait référence à une interface utilisateur graphique qui permet de visualiser et d’analyser des données de manière concise et facilement compréhensible

Découvrabilité : se réfère à la capacité d’un produit, service ou contenu à être trouvé et découvert par les utilisateurs qui en ont besoin ou qui cherchent des informations sur un sujet spécifique. Nous parlons alors de construction de données structurées ouvertes et liées pour que le contenu soit repérable par les moteurs de recherche et lisible par les robots.

Données de masse (big data) : Ensemble de données numériques qui, de par leur volume, dépassent l’intuition et les capacités humaines d’analyse. Sur Internet, nous produisons quelque 2,5 trillions d’octets de données tous les jours : mails, vidéos, informations climatiques, signaux GPS, transactions en ligne, etc. Aucun outil informatique classique de gestion de base de données ne peut traiter ces données de masse : elles ont exigé le développement de nouveaux algorithmes, afin de pouvoir les stocker, les classer et les analyser.

Durabilité de l’IA : La conception et l’utilisation de l’IA de manière responsable pour minimiser son impact environnemental, économique et social à long terme.

Engins de recommandations : Les engins de recommandation (ou systèmes de recommandation) sont des algorithmes informatiques conçus pour suggérer des éléments pertinents (par exemple, des produits, des vidéos ou des articles) à un utilisateur en fonction de ses préférences et de son historique d’utilisation. Ces systèmes se basent généralement sur des données telles que l’historique de navigation, les achats précédents, les évaluations et les préférences déclarées par l’utilisateur pour générer des recommandations personnalisées.

Equité de l’IA : L’objectif d’assurer que les systèmes d’IA ne discriminent pas ou ne privilégient pas certaines personnes ou groupes sur la base de leur race, de leur genre, de leur âge, de leur orientation sexuelle, etc.

Éthique de l’IA : Le domaine de l’IA qui se concentre sur l’identification, la compréhension et l’atténuation des biais et des impacts sociaux négatifs de l’IA.

ETL (extract / transform / Load) : Processus visant à 1. Extraire les données de leur source originale / 2. Transformer les données en les dupliquant, en les combinant et en assurant leur qualité, pour ensuite / 3. Charger les données dans la base de données cible. L’étape de nettoyage et de transformation de données (2) est cruciale car les données ne sont souvent pas initialement collectées dans le but de l’utilisation qu’on veut en faire (pensons par exemple à des données de transactions qui sont d’abord collectées à des fins opérationnelles, et qui pourraient ensuite être utilisées pour prédire des ventes). Cela est d’autant plus vrai aujourd’hui avec le Big Data. Bien qu’apportant peu de valeur, cette étape représente souvent 70% du temps accordé à un travail de valorisation de données.

Évaluation de l’impact de l’IA : L’évaluation des effets de l’IA sur les personnes, les organisations et la société dans son ensemble, afin de minimiser les impacts négatifs et de maximiser les avantages positifs.

Exploration de données : Processus de recherche et d’analyse qui permet de trouver des corrélations cachées ou des informations nouvelles, ou encore, de dégager certaines tendances.

Guide utilisateur : La création d’un guide utilisateur à la fin d’un projet est importante pour que le produit soit pleinement compréhensible pour ses futurs utilisateurs. Il résulte d’une traduction des pratiques scientifiques en pratiques logiques pour faciliter son utilisation.

Intelligence artificielle : Domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine dans le but de créer des systèmes ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci. / le domaine de la science informatique qui se concentre sur le développement de systèmes intelligents capables de percevoir leur environnement, de raisonner et d’agir de manière autonome.

Interprétabilité de l’IA : La capacité de comprendre comment les systèmes d’IA prennent des décisions, afin de pouvoir les expliquer et les améliorer.

Livrable : Cela signifie la finalité du projet. Cette finalité est appelée livrable et, est, le résultat d’une production réelle, appréhendable et mesurable par le client.

Mégadonnées : Ensemble d’une très grande quantité de données, structurées ou non, se présentant sous différents formats et en provenance de sources multiples, qui sont collectées, stockées, traitées et analysées dans de courts délais, et qui sont impossibles à gérer avec des outils classiques de gestion de bases de données ou de gestion de l’information.

Raisonnement : Procédé par lequel un système informatique effectue un enchaînement logique, à partir de propositions de départ et d’une base de connaissances, afin d’arriver à une conclusion.

Régression linéaire : un modèle d’apprentissage automatique qui permet de prédire une variable continue (c’est-à-dire une donnée numéraire) à partir d’autres variables.

Réseau de neurones artificiels (Neural Networks) : un modèle d’apprentissage profond inspiré du fonctionnement du cerveau humain, qui est capable de reconnaître des schémas complexes dans les données. Les réseaux de neurones sont, entre autres, utilisés pour faire de la génération de contenu (images, vidéos, texte, etc.).

Responsabilité de l’IA : Les décisions prises par les systèmes d’IA doivent être explicables, transparentes et responsables.

ROI (return on investment) : Indicateur que l’on calcule pour connaître le rendement relatif au bénéfice par rapport aux capitaux investis. Le ROI d’un projet IA n’est pas seulement financier, nous pouvons inclure une dimension sociale, environnementale, sanitaire, ou encore marketing.

MLOps : Abréviation de machine learning operations, le MLOps a pour objectif de concevoir des modèles d’apprentissage adaptés à leur déploiement en production, puis de les maintenir tout au long de leur cycle de vie.

Mutualisation de données : consiste à combiner ensemble les données et les expertises de plusieurs acteurs. Ce type de collaboration permet de bonifier ses capacités et activités avec la force du groupe constitué.

Packaging : Rendre le produit utilisable, viable afin de la présenter.

Pipeline : une séquence linéaire de modules spécialisés utilisés pour le pipelining.

Assurance quality (QA) :est tout processus systématique visant à déterminer si un produit ou un service répond aux exigences spécifiées. L’AQ établit et maintient des exigences définies pour le développement ou la fabrication de produits fiables.

Scientifique de données : analysent et interprètent des données complexes et les modélisent dans des algorithmes d’IA pour décrire, diagnostiquer et prédire des phénomènes.

Solutionnisme technologique : une tendance à croire que les problèmes sociaux, économiques ou politiques peuvent être résolus principalement, voire exclusivement, par la technologie. Il s’agit d’une croyance en l’efficacité universelle de la technologie pour résoudre les problèmes de l’humanité, qui peut être associée à une vision utopique ou techno-optimiste du monde.

Traitement automatique du langage naturel (Natural Language Processing) : Les langages naturels sont les langages ordinaires que nous utilisons entre êtres humains pour échanger et se comprendre, par opposition aux langages de programmation, par exemple. Il s’agit ici d’un domaine de l’intelligence artificielle qui se concentre sur la compréhension et la génération de ce type de langage.

Vie privée et sécurité de l’IA : La protection des données sensibles des utilisateurs, la prévention des violations de données et la sécurité des systèmes d’IA contre les cyberattaques.

VPS (virtual personal server) : L’utilisation de ce type de serveur permet de travailler sur des données dans un environnement/pays dédié. Cela permet, donc, d’adapter l’hébergement des données aux besoins de l’organisation.