May, la plateforme des avantages salariésMagazine
L’IA ? Machine Learning ? ChatGPT ? De quoi parle t’on vraiment ?

L’IA ? Machine Learning ? ChatGPT ? De quoi parle t’on vraiment ?

Cet article ne prétend ni trancher le débat sur l’apocalypse annoncé ni vous donner une baguette magique, mais il vise plutôt à fournir des bases de compréhension sur le sujet, afin que vous puissiez avoir une idée plus claire de ce dont il est question lorsque l’on parle d’IA.

Guide complet : Mieux gérer sa rémunération

Télécharger gratuitement

Obtenez le livre blanc complet sur le futur du travail

Télécharger

Des influenceurs LinkedIn promettant que "10 prompts ChatGPT peuvent vous rapporter 10 000 euros en 6 mois" aux figures comme Elon Musk et Sam Altman prophétisant la fin du monde tout en étant à la tête des "Cavaliers de l'Apocalypse de l'IA", il est facile de se sentir perdu et même inquiet lorsqu'il s'agit d'Intelligence Artificielle (IA), en particulier pour ceux impliqués dans les ressources humaines (RH). 30% des personnes interrogées dans le baromètre impact AI de juin 2023, indiquent avoir une mauvaise image de l’IA et de ce qu’elle peut faire pour nous. Mais comme toujours, il est très facile d’avoir peur de ce qu’on ne connait pas.

Cet article ne prétend ni trancher le débat sur l’apocalypse annoncé ni vous donner une baguette magique, mais il vise plutôt à fournir des bases de compréhension sur les sujets relatifs à l'IA.

Qu’est-ce que l’IA ? Question simple, Réponse compliquée

L'Intelligence Artificielle, telle que l'a définie l'un de ses pionniers, Marvin Lee Minsky, consiste à créer des programmes informatiques capables d'accomplir des tâches qui étaient mieux réalisées par des êtres humains jusqu’à présent. Cette supériorité humaine apparaissait pour les problèmes nécessitant des processus mentaux avancés comme la réflexion critique sur une situation, ou pour les tâches impliquant une perception visuelle ou auditive.

Si on voulait simplifier cela, on pourrait dire que l'IA vise à automatiser des tâches qui ne peuvent pas être aisément réduites à un ensemble limité de règles fixées à l’avance par un informaticien. Cependant, aujourd'hui, le terme "Intelligence Artificielle" est un peu galvaudé, et il n'est pas rare de voir des produits estampillés "IA" qui ne sont en réalité que des calculs heuristiques très simples, comme le fait de toujours choisir le chemin le plus court lorsqu'on marche pour optimiser son temps de trajet.

Lorsqu'il s'agit d'Intelligence Artificielle (IA), on distingue principalement deux domaines d'application : la robotique, qui combine l'informatique avec des concepts de commande, de contrôle et de mécanique, et le logiciel, qui est le sujet de notre intérêt particulier dans cet article. Nous laisserons de côté la partie robotique pour aujourd'hui.

Mais commençons par définir quelques termes que l'on entend souvent

Schéma des différentes formes d'IA existantes

  • Machine Learning ou Apprentissage Automatique : L’apprentissage automatique concerne un ensemble de techniques mêlant les mathématiques et l’informatique qui permettent à un ordinateur d’identifier des schémas, de tirer des conclusions et de prendre des décisions en se basant sur des données. On peut distinguer deux principales approches : l'apprentissage supervisé, où l'ordinateur est entraîné à reproduire une tâche en se basant sur des exemples, comme la prédiction de la fraude, et l'apprentissage non supervisé, qui consiste à découvrir des structures comme avec le clustering.

Ex: Supposons que l’on souhaite embaucher un nouvel employé pour un poste donné et que l’on ne sait pas quel salaire lui donner. Une entreprise qui fait des benchmarks de salaire a collecté des données concernant 10000 personnes notamment le détail de leur CV et leur salaire. L’entreprise va alors utiliser une méthode de machine learning pour voir si en fonction des informations du CV on peut déterminer un salaire adapté.

  • Neural Network ou Réseau de Neurones : Les réseaux de neurones sont des types de modèles d’apprentissage supervisé. Contrairement aux modèles plus classiques qui codent des fonctions plus ou moins complexes, les réseau de neurones découpent le problème en petits sous problèmes chacun traités par des fonctions mathématiques simples et ensuite aggrégées.
  • Deep Learning ou Apprentissage profond : L’apprentissage profond concerne l’apprentissage de réseaux de neurones de très grande tailles, c’est à dire qui contiennent un très grand nombre de couches de neurones. Ces concepts ont été développés dès les années 1980, notamment par des pionniers comme Yann LeCun - qui n’est autre que le chief AI Officer de Meta aujourd’hui - pour résoudre des problèmes telles que la lecture automatique des chèques postaux. Cependant, ces algorithmes ont réellement suscité un intérêt croissant au cours des années 2000-2010, lorsque les ordinateurs ont acquis la puissance de calcul nécessaire pour les rendre efficaces et capables d’être entraînés sur de grands ensembles de données.

Ex : Un exemple concret d'application du deep learning est la reconnaissance d'image dans le domaine médical. Les réseaux de neurones profonds peuvent être formés sur de grands ensembles d'images médicales pour détecter avec précision des anomalies subtiles ou des signes précurseurs de maladies. Cette technologie permet une analyse automatisée des imageries, facilitant ainsi le travail des professionnels de la santé et améliorant la précocité des diagnostics.

Et ChatGPT dans tout ça ?

ChatGPT est un produit qui utilise des outils d'intelligence artificielle appliqués au traitement du langage. Lorsque des figures telles que Sam Altman, ou Elon Musk, prophétisent l'apocalypse, il convient de ne pas oublier qu'ils font aussi marketing et cherchent à éviter la concurrence.

Revenons à la base : qu'est-ce que ChatGPT ?

ChatGPT est un chatbot dont la technologie sous-jacente repose sur une combinaison de règles métier et d'un moteur d'intelligence artificielle appelé GPT, pour Generative Pre Trained Transformer. Sans entrer dans les détails, concentrons-nous sur le concept de "génératif", un terme couramment utilisé aujourd’hui, mais qui a une signification spécifique dans le domaine de l'apprentissage automatique. L'apprentissage automatique génératif diffère de l'apprentissage automatique de modèles discriminatifs que les premiers peuvent créer en ce sens qu'il crée de nouvelles données, tandis que les seconds ne peuvent produire que des étiquettes identiques à celles présentes dans des exemples de la base de données. Bien que l'apprentissage génératif ait été étudié dès les débuts de l’informatique, les performances impressionnantes de génération de texte ou d'image que nous observons en 2023 n'ont été atteintes que ces dernières années en utilisant des modèles de très grandes tailles, faisant partie des méthodes de deep learning.

Bien que GPT ne date pas de 2023, l'apport technologique le plus remarquable de ChatGPT est d'en avoir fait un produit utile, capable de générer un texte cohérent et de répondre aux questions. Il permet ainsi à un large public d'accéder à des technologies récentes mais préexistantes, qui étaient autrefois réservées à quelques data scientists.

Il est aussi bon de rappeler que ChatGPT est la propriété d’OpenAI, une entreprise privée à but lucratif. Aussi, comme le dit l’adage, si c’est gratuit c’est vous le produit, OpenAI utilise les conversations et les informations que vous lui donnez pour améliorer ChatGPT.

Enfin, la capacité principale de GPT est de comprendre et de retranscrire de l’information sous plusieurs formes et registres de langages. C'est ce pour quoi il a été entraîné, et il excelle dans cette tâche. Cela ne signifie cependant pas qu'il peut remplacer tous les autres aspects de l'intelligence artificielle, bien au contraire. ChatGPT ne sera jamais en mesure de conduire une voiture ni de résoudre des problèmes qui, bien que simples en apparence, font appel à des algorithmes mathématiques avancés, comme le calcul des itinéraires les plus rapides dans nos applications de GPS sur smartphone.

L’avenir de l’IA à construire ? Une IA pour les gouverner tous ou une fédération des tâches.

Est-ce que cela signifie que la GenAI, ou l'intelligence artificielle générative qui sous-tend ces grands modèles capables de produire du texte ou des images, n'est pas une révolution ? Au contraire, il s'agit bel et bien d'une révolution, particulièrement du point de vue de l'approche, en offrant à un vaste public l'accès à des outils très avancés qui étaient jusqu'alors hors de portée. Et c’est effectivement un bouleversement, car c’est le première fois que l’on voit se profiler une si grande mutation du monde du travail des cadres et des professions intellectuelles. Une étude de l’université de St Louis, montre que 5 mois après le lancement de ChatGPT, sur une plateforme de freelancing de copywriters et graphistes, le nombre de postes a diminué de 3% et les revenus de 6%.

Cette avancée intensifie également le débat entre l'IA spécialisée, focalisée sur des tâches spécifiques, et l'IA générique, capable de traiter diverses problématiques. Cependant, cette évolution soulève plusieurs problèmes :

  1. Respect de la propriété intellectuelle : Les IA génériques, qu'elles soient utilisées via des API ou des chats en ligne, retiennent interactions avec les utilisateurs. Ces échanges peuvent alors être utilisés par les entreprises qui les exploitent pour enrichir leurs produits ou en créer de nouveaux. Cet enjeu a été souligné par Sam Altman dans sa présentation du 6 novembre.
  2. Respect de la confidentialité : De plus, les données sont transférées vers des serveurs propriétaires de sociétés étrangères, qui les utilisent pour entraîner leurs propres modèles. Ces grands serveurs centralisés vont à l'encontre des principes de sécurité et de souveraineté, qui préconisent de ne jamais partager ses données à l'extérieur notamment lorsqu’elles sont sensibles (appels de services clients, contenus internes).
  3. Sobriété numérique : L'adoption généralisée de modèles comportant un nombre croissant de paramètres, utilisés par un large éventail d'utilisateurs, contredit les principes de sobriété énergétique qui recommanderaient plutôt l'utilisation de modèles plus petits et spécialisés pour accomplir les mêmes tâches.

C'est dans cette perspective qu'une partie de la communauté se concentre sur la diffusion de modèles plus petits, open source et spécialisables, dans le but de remédier aux problèmes évoqués précédemment.

Enfin, face à l’adoption croissante de ces technologies, les régulateurs s'efforcent de mieux encadrer ces pratiques, notamment à travers le AI Act. L'avenir nous dira quelle direction prendra cette régulation et quel impact elle aura sur le développement et l'usage des intelligences artificielles.

Si vous souhaitez découvrir des utilisations concrètes de l'IA aux service des ressources humaines, vous pouvez consulter cet article. 

L’IA ? Machine Learning ? ChatGPT ? De quoi parle t’on vraiment ?
L’IA ? Machine Learning ? ChatGPT ? De quoi parle t’on vraiment ?
Picto Information

Le saviez-vous ?

Le Guide complet : Offrir des avantages salariaux

Télécharger gratuitement
photo de l'auteur de l'articleIcone Linkedin

Christelle Marfaing

Avec 8 ans d'expérience, dont 5 ans en tant que Head of Data chez Lydia, Christelle est en charge de toute la Data chez May. Elle intervient régulièrement dans des médias et des conférences data comme DataGen, Women in Data Science (WiDS) et HymaDay. Elle fait aussi partie de l'équipe fondatrice du"Modern Data Network", une communauté francophone pour parler de Modern Data Stack.
Audit gratuit de vos avantages May

Découvrez tous les changements liés aux avantages salariés en 2024

Télécharger Gratuitement
Audit gratuit de vos avantages May

Audit gratuit de vos avantages May

Découvrez toutes les interview : L'Oréal, Canal+, ANDRH, Le Lab RH...

Télécharger Gratuitement

Articles associés