Hugo Baillet - The future is now

Le dictionnaire de l’IA

L’intelligence artificielle (IA) a radicalement transformé notre monde et continue de le faire à un rythme accéléré. De nos interactions quotidiennes avec des assistants numériques personnels à l’automatisation des processus commerciaux complexes, l’IA est omniprésente. Toutefois, comprendre et naviguer dans ce vaste domaine peut être intimidant, surtout lorsque l’on est confronté à un flot de terminologies techniques. L’objectif de cet article est de démystifier certaines de ces termes et de fournir un guide accessible pour comprendre le jargon de l’IA.

Application programming interface (API) 

L’interface de programmation d’application (API) est un moyen d’accéder de manière programmatique à des modèles, des ensembles de données ou d’autres logiciels (généralement externes).

Artificial intelligence (AI)

L’intelligence artificielle (IA) est la capacité d’un logiciel à accomplir des tâches qui nécessitent traditionnellement de l’intelligence humaine.

Artificial neural networks (ANNs) 

Les réseaux de neurones artificiels sont composés de couches interconnectées de calculateurs basés sur des logiciels, appelés « neurones ». Ces réseaux peuvent absorber d’énormes quantités de données en entrée et traiter ces données à travers plusieurs couches qui extraient et apprennent les caractéristiques de ces données.

Deep learning

Le Deep Learning, ou apprentissage profond en Français, est un sous-ensemble du Machine Learning (apprentissage automatique) qui utilise des réseaux neuronaux profonds, qui sont des couches de « neurones » connectés dont les connexions ont des paramètres ou des poids qui peuvent être entraînés. Il est particulièrement efficace pour apprendre à partir de données non structurées comme les images, le texte et l’audio.

Early and late scenarios 

Les scénarios précoces et tardifs sont les scénarios extrêmes de notre modèle d’automatisation du travail. Le scénario précoce ajuste tous les paramètres aux extrêmes des hypothèses plausibles, entraînant un développement et une adoption plus rapides de l’automatisation, et le scénario tardif ajuste tous les paramètres dans la direction opposée. La réalité est probablement quelque part entre les deux.

Fine-tuning 

Le peaufinage est le processus d’adaptation d’un modèle de base pré-entraîné pour qu’il performe mieux dans une tâche spécifique. Cela implique une période relativement courte d’entraînement sur un ensemble de données étiquetées, qui est beaucoup plus petit que l’ensemble de données sur lequel le modèle a été initialement entraîné. Cet entraînement supplémentaire permet au modèle d’apprendre et de s’adapter aux nuances, au vocabulaire et aux motifs spécifiques trouvés dans le plus petit ensemble de données.

Foundation models (FM) 

Les modèles de base sont des modèles d’apprentissage profond formés sur d’énormes quantités de données non structurées et non étiquetées qui peuvent être utilisés pour une large gamme de tâches dès la sortie de la boîte ou adaptés à des tâches spécifiques par le biais du fine-tuning. Des exemples de ces modèles sont GPT-4, PaLM, DALL·E 2, et Stable Diffusion.

Generative AI 

L’IA générative est une IA qui est généralement construite en utilisant des modèles de base et qui a des capacités que l’IA précédente n’avait pas, comme la capacité de générer du contenu. Les modèles de base peuvent également être utilisés à des fins non génératives (par exemple, classer le sentiment d’un utilisateur comme négatif ou positif en fonction des transcriptions d’appels) tout en offrant une amélioration significative par rapport aux modèles précédents. Pour simplifier, lorsque nous parlons d’IA générative dans cet article, nous incluons tous les cas d’utilisation des modèles de base.

Graphics processing units (GPUs) 

Les unités de traitement graphique sont des puces informatiques initialement développées pour la production de graphiques informatiques (comme pour les jeux vidéo) et qui sont également utiles pour les applications d’apprentissage profond. En revanche, l’apprentissage automatique traditionnel et d’autres analyses s’exécutent généralement sur des unités de traitement centrales (CPU), communément appelées le « processeur » d’un ordinateur.

Large language models (LLMs) 

Les grands modèles de langage (LLM) constituent une classe de modèles de base capables de traiter d’énormes quantités de texte non structuré et d’apprendre les relations entre les mots ou les parties de mots, appelées tokens. Cela permet aux LLM de générer du texte en langage naturel, d’accomplir des tâches telles que le résumé ou l’extraction de connaissances. GPT-4 (qui sous-tend ChatGPT) et LaMDA (le modèle derrière Bard de Google) sont des exemples de LLM.

Machine learning (ML) 

Le Machine learning (apprentissage automatique) est un sous-ensemble de l’IA dans lequel un modèle acquiert des capacités après avoir été formé, ou à qui on a montré de nombreux exemples de points de données. Les algorithmes d’apprentissage automatique détectent des motifs et apprennent à faire des prédictions et des recommandations en traitant des données et des expériences, plutôt qu’en recevant une instruction de programmation explicite. Les algorithmes s’adaptent également et peuvent devenir plus efficaces en réponse à de nouvelles données et expériences.

Modality 

La modalité est une catégorie de données de haut niveau telle que les nombres, le texte, les images, la vidéo et l’audio.

Productivity from labor

La productivité du travail est le ratio du PIB aux heures totales travaillées dans l’économie. La croissance de la productivité du travail provient des augmentations de la quantité de capital disponible pour chaque travailleur, de l’éducation et de l’expérience de la main-d’œuvre, et des améliorations technologiques.

Prompt engineering 

L’ingénierie des prompts désigne le processus de conception, de d’affinage et d’optimisation des prompts d’entrée pour guider un modèle d’IA génératif à produire des sorties souhaitées (c’est-à-dire précises).

Self-attention, 

L’auto-attention, parfois appelée intra-attention, est un mécanisme qui vise à imiter l’attention cognitive, en liant différentes positions d’une même séquence pour calculer une représentation de la séquence.

Structured data 

Les données structurées sont des données tabulaires (par exemple, organisées en tables, bases de données ou feuilles de calcul) qui peuvent être utilisées pour entraîner efficacement certains modèles d’apprentissage automatique.

Transformers

Les transformateurs sont une nouvelle architecture de réseau neuronal qui s’appuie sur des mécanismes d’auto-attention pour transformer une séquence d’entrées en une séquence de sorties tout en focalisant son attention sur des parties importantes du contexte entourant les entrées. Les transformateurs ne s’appuient pas sur des convolutions ou des réseaux neuronaux récurrents.

Technical automation potential 

Le potentiel d’automatisation technique fait référence à la part du temps de travail qui pourrait être automatisée. 

Use cases

Les cas d’utilisation sont des applications ciblées à un défi commercial spécifique qui produisent un ou plusieurs résultats mesurables. Par exemple, en marketing, l’IA générative pourrait être utilisée pour générer du contenu créatif comme des courriels personnalisés.

Unstructured data 

Les données non structurées manquent de format ou de structure cohérents (par exemple, le texte, les images, et les fichiers audio) et nécessitent généralement des techniques plus avancées pour extraire des informations.

Ce dictionnaire a été traduit à partir de l’étude McKinsey 2023 « The economic potential of generative AI ».

.

Hugo Baillet
Hugo Baillet
Avec plus de 15 ans d'expérience en marketing et communication, dont 10 ans à des fonctions de direction, je porte aujourd'hui mon regard sur l'intelligence artificielle et son impacte sur la stratégie des entreprises et des nouveaux métiers. The future is now.