Trucs et astuces

Data Talks : Tout savoir sur l’IA et la data

Bienvenue dans l’épisode 4 de Data Talks, la série de Splunk dans laquelle des experts de la donnée décryptent pour nous les nouvelles tendances autour de la data. Nous retrouvons aujourd’hui un des spécialistes français de la donnée, Axel Cypel, spécialiste de la gestion de projets en data science

Ingénieur des Mines de Paris exerçant actuellement dans le secteur bancaire, il est l’auteur d’un essai intitulé « Au cœur de l’intelligence artificielle — Des algorithmes à l’IA forte », dans lequel il se propose de démêler le vrai du faux sur l’intelligence artificielle.

SOMMAIRE

  • Les idées fausses sur l’IA
  • Qu’est-ce que la « vraie IA » ?
  • IA, data et Big Data
  • Les approches de l’IA en entreprise
  • Les professions de l’IA
  • La formation dans le domaine de l’IA
  • Cas d’usage pratiques de l’IA en entreprise
  • Les bonnes pratiques en matière d’IA
  • Biais et écueils
  • Les investissements français dans le secteur de l’IA
  • IA et éthique
  • L’avenir de l’intelligence artificielle
  • Axel, si on tentait de définir l’IA, que serait d’abord la « fausse IA » ?

    Si on devait rentrer dans le détail, il nous faudrait certainement plusieurs heures afin de détailler les 42 points qui peuvent définir le terme d’intelligence artificielle, mais pour faire court, on peut déjà mettre de côté la « fausse IA », celle des films de science-fiction ou du monde du marketing. Dans une certaine mesure, l’expression « intelligence artificielle » est en effet très mal choisie, car il s’agit d’un oxymore alliant une caractéristique typiquement humaine, l’intelligence, à une notion « anti-naturelle ». Selon cette définition, l’IA renvoie donc à du NOUS fabriqué par NOUS, soit une forme d’intelligence créée par l’être humain sans le concours des voies naturelles. Elle fait parfois peur, car elle chercherait à nous supplanter, ou elle intrigue par la promesse de nous libérer de toutes sortes de tâches du ressort de l’intellect.

    Pouvez-vous nous parler de la « vraie IA » ?

    On peut caractériser la « vraie IA » comme l’ensemble des processus mathématiques et informatiques permettant de faire réaliser par des machines des tâches pour lesquelles on considère usuellement que l’homme utilise son intelligence. On pourrait reprocher à cette définition de ne pas expliciter le terme d’intelligence, sur lequel il est très difficile de s’entendre, mais l’important dans cette phrase, c’est avant tout l’expression « processus mathématiques et informatiques », dont un des représentants est le mot « algorithmes ».

    Certains commentateurs de la discipline estiment ainsi que le terme d’intelligence artificielle gagnerait à être remplacé par son pendant technique : l’intelligence algorithmique. Cela me semble approprié, car mettant l’accent sur la notion de calcul. Pour expliquer de quoi il s’agit, on compare souvent les algorithmes à des recettes, c’est-à-dire à une suite de processus systématiques parvenant à un résultat en un nombre fini d’étapes.

    On distingue actuellement deux grands types d’algorithmes :

  • Les IA explicites et déterministes qui mettent en œuvre des règles préétablies pour traiter les données selon un schéma informatique classique.
  • Les algorithmes de machine learning permettant aux machines de créer des modèles à partir de données et auxquels sont associées des caractéristiques différentes de la programmation classique, comme l’introduction de l’implicite et d’un rendu probabiliste.

    Est-ce qu’on peut dire que l’IA est indispensable à l’exploitation de la Data, et notamment du Big Data ?

    On considère habituellement, en tout cas, que la data est indispensable à l’IA, mais il est intéressant d’examiner la question sous un autre angle. Tout d’abord, il est important de souligner que la mode actuelle de l’intelligence artificielle a pour moteur l’apprentissage machine, à savoir la modélisation à partir des données. Il faut toutefois garder à l’esprit que le machine learning ne représente pas toute l’IA, mais uniquement la manière principale dont on la pratique aujourd’hui.

    Pour entrer un peu plus dans le détail, il est nécessaire de rappeler ce qu’est l’apprentissage machine : des algorithmes d’optimisation, c’est-à-dire des méthodes informatiques permettant d’extraire de l’information à partir des données fournies en entrée. L’output de ces algorithmes forme un modèle, c’est-à-dire une équation qui résume les corrélations trouvées dans les data et qui peut être appliquée à de nouvelles données afin d’obtenir des prédictions, par exemple.

    L’éclosion récente de ce paradigme, ou plutôt de ses applications, a été possible pour deux raisons : l’augmentation de la puissance de calcul informatique et la massification des données disponibles, que l’on appelle Big Data. En effet, à l’image de nos photos, la plupart de nos échanges et documents quotidiens sont désormais numérisés, représentant ainsi un grand volume de données variées qu’il est nécessaire de traiter avec vitesse, les fameux 3 V du Big Data.

    Dans ce contexte, le premier besoin concerne l’organisation de l’archivage et le traitement de cette masse phénoménale de data. Une fois ces architectures en place, les données peuvent enfin être exploitées grâce à l’IA afin de détecter d’éventuelles corrélations dans les vidéos que les gens regardent, leurs requêtes dans les moteurs de recherche, etc. Donc, pour répondre à la question, ces modèles d’IA, nés des infrastructures de stockage qui ont permis de les entraîner, sont en effet les seuls à pouvoir concrètement traiter ces data.

    Quelles sont les approches de l’IA dans le contexte de l’entreprise ? 

    Avant de parler des diverses manières d’approcher l’IA dans un contexte professionnel, il me semble pertinent d’établir une typologie des entreprises concernées. Pour commencer, on trouve les grandes sociétés du numérique, les GAFAM, acteurs majeurs qui ont largement contribué à l’essor du Big Data.

    Ces entreprises commerciales, faisant un usage constant des technologies d’intelligence artificielle, ont donc tout intérêt à appuyer leur communication autour de l’IA, ce qui les pousse parfois à minimiser leurs errements et à mettre l’accent sur du marketing, comme en 2016, lorsque Lee Sedol, un des plus grands joueurs de Go du monde, a été battu par DeepMind, l’intelligence artificielle de Google. D’un autre côté, les GAFAM contribuent grandement à l’open source et mettent d’importantes librairies à disposition des data scientists. Là où le mécénat rejoint le prosélytisme…

    Les grandes entreprises dont l’IA ne constitue pas le cœur de métier (mais qui peuvent recruter des spécialistes) adoptent, quant à elles, généralement une approche classique permettant de détecter les projets susceptibles de profiter de ce type de technologies. Cette stratégie s’oriente alors souvent sur des tâches pouvant être automatisées, comme l’analyse d’images ou de textes.

    D’un point de vue organisationnel, il me semble intéressant de noter que « faire de l’IA c’est faire rentrer plus d’ingénierie dans l’entreprise ». Cette démarche correspond bien à l’approche traditionnelle des grandes sociétés industrielles, techniques ou technologiques, mais les plus petites structures devraient aussi pouvoir y accéder. On constate, en effet, que le marché se structure autour de solutions plus accessibles, comme les divers produits proposés par les start-ups, les « services cognitifs » accompagnant dorénavant le cloud des GAFAM, ou les conseils évangélistes des cabinets de consulting.

    Quels sont les professionnels de l’IA dans le monde de l’entreprise à l’heure actuelle ?

    Si l’on se concentre sur le monde de l’entreprise, en mettant donc de côté les chercheurs et les théoriciens de la discipline, il suffit finalement de reprendre la chaîne de mise en œuvre d’un projet d’IA pour voir apparaître quatre groupes :

    Comme on le voit, faire entrer plus d’ingénierie dans l’entreprise se traduit donc concrètement par une augmentation du nombre de profils techniques.

    Où en est-on au niveau de la formation en France justement ?

    Ma remarque va peut-être sembler impertinente, mais je me demande s’il est réellement nécessaire de créer de nouvelles formations. L’IA tient en effet plus de l’actualisation de professions déjà bien connues que d’une discipline inédite, et les formations dans le domaine ne font pas défaut. La France a ainsi toujours été considérée comme l’alma mater des matheux, et les écoles d’ingénieurs, ou de commerce, proposent également un grand nombre de cursus spécialisés. Et c’est sans compter sur les formations alternatives, en ligne, qui permettent aux personnes intéressées d’envisager une réorientation.

    Pourtant, comme vous l’avez évoqué, le marché connaît des tensions et le recrutement se révèle souvent compliqué. Toutefois, à mon avis, ce problème ne vient pas du manque d’offre, mais du type de profils recherchés. La plupart du temps, les entreprises veulent en effet recruter du Plug and Play, des seniors immédiatement opérationnels qui, par définition, ne sortent pas de l’école. Quoi qu’il en soit, ces filières me semblent avoir un bel avenir devant elles, à condition d’écouter le marché et d’offrir à leurs élèves l’ouverture en compétences nécessaires pour ne pas se laisser enfermer dans un rôle conjoncturel.

    Est-ce que vous pourriez donner des exemples d’utilisations pratiques de l’IA pour une entreprise qui voudrait commencer à en tirer profit ? 

    Les utilisations pratiques de l’IA sont nombreuses. On peut notamment citer les tâches de classification automatique d’images ou de textes, associées à la détection d’intentions, la reconnaissance d’entités nommées, l’analyse de pièces jointes ou la construction de réponses automatiques, par exemple.

    On peut également parler des outils de personnalisation, utilisés dans les domaines du développement marketing ou du ciblage de contenu publicitaire, des moteurs de recommandation, de l’analyse vidéo, la traduction, la transcription ainsi que la synthèse vocale, la lutte contre la fraude ou la reconnaissance faciale. En bref, toutes les masses de données sur lesquelles peuvent être développés des modèles permettant d’automatiser certaines fonctions de l’entreprise constituent un gisement potentiel d’utilisations pratiques pour l’intelligence artificielle.

    Basé sur votre expérience en la matière, est-ce que vous avez pu constater des bonnes pratiques ?

    Si on met de côté les GAFAM, le développement de l’IA en entreprise est relativement récent, mais les pratiques ont déjà connu une sorte de « sélection naturelle ». Du côté de la technique et de la programmation se sont donc développés un certain nombre de standards, comme celui du DevOps, ou MLOps lorsqu’il est appliqué à l’intelligence artificielle.

    Dans le domaine de la gestion de projets, il est d’usage de citer les approches Agiles, mais il me semble que toutes les approches respectant les fondamentaux et s’inscrivant dans un contexte porteur centré sur les réels besoins métier peuvent être considérées comme des bonnes pratiques.

    Qui dit « bonnes pratiques » dit aussi « écueils ». Que pensez-vous notamment des biais dans l’IA ?

    On devrait être en mesure d’éviter les écueils en restant dans une démarche scientifique et responsable. Toutefois, cette condition est souvent difficile à mettre en œuvre dans la pratique... Pensons à la survente ou aux problèmes liés à la mode, avec des acteurs se lançant dans des projets d’IA sans grande conviction ni préparation, par peur des discours alarmistes les menaçant d’être dépassés par la concurrence. Dans mon essai, je ne parle pas d’écueils, mais plutôt des limitations et des dangers de l’IA, ainsi que des remèdes éventuels pour s’en prémunir.

    Ce qui est à surveiller de près seraient plutôt les dangers pouvant résulter de l’usage de la technologie, afin de s’assurer qu’elle ne se révèlera ni nocive ni incontrôlable, ce qui implique, entre autres, de se pencher sur les biais. Mais qu’est-ce que c’est exactement ? La définition qu’en donne le dictionnaire est relativement complexe, mais pour faire simple, on peut dire qu’une IA peut générer des modèles conduisant à des erreurs de jugement ou de potentielles discriminations. Selon l’objectif de l’algorithme, ces biais ne sont pas forcément dramatiques pour les utilisateurs — je pense notamment au ciblage publicitaire — mais ils peuvent aussi avoir un impact significatif sur leur vie...

    De manière assez schématique, on peut citer trois responsables : les données, la modélisation et la conception. Pour éviter les biais, il est donc essentiel de s’appuyer sur des data non déformées, représentant toute la complexité de l’environnement, et de questionner le champ d’application de l’IA. Mais tout cela s’avère complexe, sans compter que l’anticipation est une science délicate ! 

    Enfin, s’il est bénéfique de combattre les biais, il est également nécessaire de questionner d’autres aspects de la pratique de l’IA. L’explicabilité tient-elle ses promesses ? Et puis peut-on décemment se contenter d’une représentation de science-fiction renvoyant aux Trois lois de la robotique, par ailleurs antiques, d’Asimov ? 

    La France va investir 2,2 milliards d’euros dans l’IA, est-ce une bonne nouvelle selon vous ?

    Cela dépend pour qui ! Pour le secteur dans lequel ces milliards s’investissent, c’est toujours une bonne nouvelle. Mais on peut se demander pourquoi investir autant ici et pas ailleurs ? Ces milliards ne seraient-ils pas plus profitables au secteur de la santé, par exemple ?

    Pour comprendre cette décision, il faut la replacer dans son contexte, car on reproche souvent à l’Europe d’être à la traîne dans ce domaine. La France souhaite sans doute infléchir cette tendance afin de ne pas se retrouver prise en étau entre ses encombrants partenaires américains et chinois et ainsi venir compléter l’arsenal législatif européen avec des réalisations concrètes.

    Faciliter cette création de produits d’IA est plutôt positif à première vue, mais il faut toutefois prêter une grande attention aux usages anticipés de ces futurs développements technologiques. Si on peut se réjouir de voir affluer deux milliards d’euros pour constituer de grandes entreprises françaises ou européennes en mesure de concurrencer les géants du numérique, il serait beaucoup plus inquiétant que ces deniers publics soient utilisés pour mettre sur pieds « Big Brother ».

    Dans votre livre, vous parlez d’une éthique dans l’IA, vous entendez quoi par là exactement ?

    « A-t-on vraiment besoin d’une éthique dans l’IA ? » La question peut en effet étonner, car elle est loin de se poser de manière systématique dans les domaines techniques. Elle sous-entendrait que l’IA pourrait être particulièrement dangereuse et qu’elle aurait donc besoin d’être encadrée. Sans s’engager dans un long développement sur la question du progrès et de l’usage des avancées de la science, on peut constater que le débat sur l’intelligence artificielle s’est en effet focalisé sur la notion d’éthique.

    De nombreuses personnes provenant d’horizons aussi variés que le droit, la politique, la philosophie ou le management n’hésitent donc pas à se prononcer sur cette question délicate (cf. ma longue tribune publiée dans le numéro 5 du magazine ActuIA). Pour ma part, je ne suis pas sûr que la réponse viendra de la proposition de régulation de la Commission européenne. Il me semble plutôt que la solution émergera d’une réflexion collégiale et pluridisciplinaire.

    Comment voyez-vous le futur de l’intelligence artificielle ?

    Il me semble que l’IA se porte plutôt bien et on ne lui prévoit pas de difficulté majeure pour les années à venir. Le public a en effet pris conscience de l’importance de la formation, des financements ont été accordés et tout laisse à penser qu’une course entre nations est engagée dans ce domaine. Elle vient donc allonger la liste des occupations humaines (conquête spatiale, ordinateur quantique, transition énergétique, …).

    Cependant, sur le moyen terme, plusieurs questions se profilent :

    Et il faudra également solutionner les problèmes déjà identifiés. Car si l’IA est parvenue à réaliser de véritables prouesses, il reste à se confronter aux biais, à l’absence d’explicabilité dans les résultats ou encore à la robustesse aux attaques, un point sensible qui nous a fait revenir, selon les experts de la question, 20 ans en arrière en matière de fiabilité logicielle.

    Il y a donc encore du travail !

    Enfin, sur le très long terme, certains fantasment déjà sur l’IA forte, cette intelligence générale, consciente d’elle-même, avec qui l’on pourrait discuter... On peut toutefois s’interroger sur la pertinence d’un tel concept, et je renvoie les lecteurs intéressés par un début de réponse à mon ouvrage.

    ***

    J’espère que cet entretien vous a aidé à mieux comprendre cette discipline fascinante, et on se retrouve très prochainement pour un nouvel épisode de Data Talks. En attendant, n’hésitez pas à vous rendre sur le blog Splunk ou sur notre chaîne YouTube pour en apprendre davantage sur la data.

    Pour aller plus loin :

    « Intelligence artificielle, responsabilité civile et assurances », Cour de Cassation, vidéo (2x10 min vers 8min30 et vers 1h15) : à regarder ici 

    Podcast sur l’essai « Au cœur de l’intelligence artificielle » : à écouter ici 

    « L’IA forte et le  signal faible »,  ActuIA : à lire ici 

    « L’IA : réalités et croyances », tribune pour MindFintech : à lire ici 




Audrey est senior content marketing manager sur les marchés francophones. Elle est responsable de la création et la localisation en français de tout le contenu de Splunk, des réseaux sociaux au blog en passant par les réussites de nos clients ou les livres blancs. Avant Splunk, Audrey a entre autres travaillé chez VMware, Facebook, Neopost, Sanofi ou encore la SNCF. Passionnée par l’écriture, elle tient depuis des années un blog culture, Digression Urbaine.