Aujourd'hui, lorsqu'un objet est qualifié d'"IA", il peut être difficile de savoir immédiatement ce que cela signifie.
Le cœur du problème réside dans le fait que la frontière de ce qui est considéré comme de l'"IA" est en perpétuel mouvement : à mesure que la technologie mûrit et que le langage évolue, la limite à partir de laquelle nous considérons quelque chose comme de l'intelligence artificielle évolue elle aussi. À l'heure actuelle, ChatGPT est le visage de l'IA, mais il y a quelques décennies, c'était Deep Blue, un ordinateur de jeu d'échecs.
Ce qui brouille également les pistes, c'est le battage médiatique, soutenu par des niveaux records d'investissement dans l'IA. Les entreprises ont désormais tout intérêt à dire qu'elles "font" de l'IA.
C'est pourquoi nous avons voulu partager une perspective transparente sur les différentes formes d'IA et sur la façon dont nous les utilisons : Le point de vue de Pigmentsur tout ce qui relève de l'IA.
Éplucher l'oignon
IA
L'intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines d'imiter les capacités humaines.
De nombreuses techniques et technologies relevant de cette catégorie sont utilisées depuis des décennies - les algorithmes d'apprentissage automatique utilisés dans l'évaluation du crédit en sont un bon exemple.
Apprentissage automatique
L'apprentissage automatique est un sous-ensemble de l'intelligence artificielle (IA) qui vise à enseigner aux ordinateurs et aux machines à reproduire les processus d'apprentissage humain, ce qui leur permet d'améliorer leurs performances au fil du temps. Pour ce faire, ils utilisent des algorithmes et des modèles statistiques pour analyser et comprendre les modèles cachés dans les ensembles de données.
Dans le contexte de la planification d'entreprise, ils peuvent être très utiles pour les prévisions : prédire les valeurs futures sur la base de données historiques et de variables externes.
Contrairement aux techniques de prévision traditionnelles, qui reposent sur des modèles statistiques avec des hypothèses fixes, la prévision ML utilise des algorithmes complexes capables de capturer des modèles cachés, des tendances et des relations non linéaires dans les données.
Elle est particulièrement efficace dans les scénarios comportant de grands ensembles de données, de multiples facteurs d'influence et des environnements dynamiques :
- Prévisions financières (FP&A)
Prévision des recettes, des dépenses, des flux de trésorerie, des cours boursiers et des tendances du marché. - Prévision de la demande (chaîne d'approvisionnement)
Prévoir la demande des consommateurs pour des produits ou des services dans des secteurs tels que la vente au détail, la fabrication et le commerce électronique. - Prévision des ventes (SPM)
Prévision des ventes futures sur la base des performances passées, en tenant éventuellement compte de la saisonnalité.
Réseaux neuronaux et apprentissage profond
Unréseau neuronal se situe à un niveau inférieur de l'apprentissage automatique : il décrit un modèle d'apprentissage automatique qui imite le processus de prise de décision du cerveau humain en simulant la façon dont les neurones biologiques travaillent ensemble pour reconnaître des modèles, évaluer des options et tirer des conclusions.Un réseau neuronal est composé de trois couches de "nœuds" ressemblant à des neurones : la couche d'entrée, la couche cachée et la couche de sortie.
Imaginons que vous souhaitiez utiliser des réseaux neuronaux pour détecter les courriers électroniques non sollicités. Les informations sont introduites dans la couche d'entrée (un courriel), où les nœuds de la couche cachée appliquent des techniques mathématiques pour rechercher dans les données des modèles susceptibles de présenter les signes révélateurs d'un spam, puis soumettent une réponse dans la couche de sortie.
La première fois que cela se produit, le réseau ne sera pas très performant pour produire un résultat correct. Mais en lui fournissant des réponses correctes (exemples confirmés d'e-mails de spam et de non-spam), le modèle peut "s'entraîner" sur ces données et ajuster la façon dont les nœuds de la couche cachée fonctionnent, ce qui lui permet de produire des résultats plus précis au fil du temps. Il s'agit d'une technique de ML connue sous le nom d'apprentissage supervisé, car elle s'appuie sur des données étiquetées.
Une autre technique, l'apprentissage non supervisé, consiste à utiliser un modèle pour trouver des schémas dans les données sans intervention humaine. Cette technique est particulièrement efficace pour la détection des anomalies, qui peut aider à trouver des preuves de fraude financière, par exemple.
Les réseaux neuronaux profonds, que nous utilisons pour l'apprentissage profond, sont des réseaux neuronaux dont la couche cachée contient trois niveaux de nœuds ou plus. Parce qu'il implique davantage de "réflexion", l'apprentissage profond peut entreprendre des tâches beaucoup plus complexes, par exemple la reconnaissance d'images.
IA générative et LLM
L'IA générative est un type d'apprentissage profond qui se concentre sur la création de nouveaux contenus, tels que du texte, des images, de l'audio, de la vidéo ou du code, en apprenant des modèles et des structures à partir de données existantes - par exemple, DALL-E 3 est le modèle le plus connu utilisé pour la création d'images.
Les grands modèles de langage (LLM) sont une forme d'IA générative qui se concentre sur la production de texte. Le modèle le plus répandu est le GPT-4o d'OpenAI, mais il y a aussi Claude d'Anthrophic, Gemini de Google et le nouveau venu chinois DeepSeek.
Tous ces modèles sont formés à l'aide d'une technique appelée apprentissage auto-supervisé, dans laquelle un modèle apprend des modèles à partir de données sans avoir besoin de données étiquetées. Essentiellement, le modèle "cache" un morceau de texte dans une phrase, puis se charge de prédire ce que ce morceau de texte devrait être en fonction du contexte qui l'entoure.
En pratique, cela signifie que des entreprises comme OpenAI et Google sont en mesure d'exploiter des volumes massifs de données textuelles pour entraîner leurs modèles, dont l'étiquetage manuel serait trop laborieux.
Les LLM ont marqué un tournant dans le domaine de l'IA, car ils changent complètement la façon dont les gens interagissent avec la technologie. Ils permettent aux machines de comprendre les êtres humains et d'interagir avec eux en langage naturel. C'est incroyablement puissant.
Nous utilisons notre propre version adaptée de GPT-4o pour permettre à Pigment de comprendre l'intention de l'utilisateur. Cette capacité de base alimente les fonctions d'assistance de la plateforme qui permettent aux clients de d'effectuer des recherches instantanées dans la documentation et d'interroger leurs données en langage naturel.
Nos modèles sont adaptés et formés à l'aide des meilleures pratiques de planification et de la documentation propre à Pigment, afin de garantir qu'ils disposent du contexte nécessaire pour aider nos utilisateurs.
IA agentique
L'IA agentique est un domaine émergent qui s'appuie sur un ensemble de techniques d'IA différentes pour permettre à un "agent" d'accomplir des tâches complexes de manière autonome, sans intervention humaine.
Pour ce faire, il combine le pouvoir de raisonnement d'un LLM avec un ensemble d'outils qu'il peut utiliser pour percevoir et interagir avec son environnement, ainsi qu'avec des techniques de ML telles que l'apprentissage par renforcement.
Les agents représentent la prochaine véritable avancée dans le domaine de l'IA.
Pour en savoir plus, revenez bientôt pour le prochain article de cette série, Pourquoi tout le monde parle des agents d'IA.