Data Insider

Intelligence artificielle et machine learning

Quelle est la différence entre intelligence artificielle et machine learning ?

L’intelligence artificielle (IA) désigne la capacité des machines à observer, réfléchir et réagir comme des êtres humains. Elle repose sur l’idée que l’intelligence humaine peut être décomposée en compétences précises qui peuvent ensuite être imitées par des ordinateurs programmés à cette fin. L’IA est un terme qui recouvre un large éventail de concepts et de technologies, dont le machine learning (ML).

L’IA comprend de nombreux sous-domaines qui emploient des techniques pour imiter des comportements spécifiques que nous associons à l’intelligence humaine naturelle. Par exemple, les humains savent parler, écouter, lire et écrire un langage. Ils savent également lui donner un sens. Les technologies de reconnaissance vocale et de traitement du langage naturel (natural language processing) calquent ces facultés humaines en convertissant des signaux sonores en texte, puis en traitant ce texte pour en extraire une information. Les autres sous-domaines consistent à élaborer des systèmes artificiels qui répliquent des comportements humains comme notre capacité à nous déplacer dans notre environnement physique (la géolocalisation), à voir et traiter des informations visuelles (vision 3D) et à identifier et catégoriser des objets.

Les algorithmes d’IA ont des usages et des applications variés dans le monde moderne et d’innombrables travaux de recherche continuent d’explorer de nouvelles utilisations.

Qu’est-ce que le machine learning ?

Le machine learning (aussi appelé apprentissage automatique en français) est le domaine des sciences informatiques qui s’efforce de développer des systèmes capables d'apprendre de façon autonome à partir de l’expérience – notamment en traitant les données qu’ils reçoivent – et d'améliorer l’exécution de tâches précises. De nombreuses comparaisons « machine learning versus intelligence artificielle » seront énumérées dans ce guide, mais il est important de comprendre que le machine learning est un sous-domaine de l’IA.

IA et machine learning : les fondamentaux

Qu’est-ce qu’une IA faible ?

Une IA faible, aussi appelée IA étroite, est utilisée pour produire des réponses similaires à celles des humains en s'appuyant sur des algorithmes de programmation. Les outils d’IA faible n'accomplissent en réalité aucune réflexion, ils en ont juste l'apparence. Même s’ils peuvent passer pour des machines dotées d’une intelligence supérieure, ils n’ont en réalité pas de faculté de compréhension du langage ni ne sont en mesure d’interpréter le sens des mots qu’on leur communique Les assistants personnels activés par la voix tels que Siri (Apple), Cortana (Microsoft) et Alexa (Amazon) sont de bons exemples d’IA faible. Lorsque vous leur posez une question ou que vous leur donnez une instruction, ces outils cherchent des indices sonores dans votre voix puis suivent une série d'étapes programmées pour délivrer la réponse appropriée. Ils ne comprennent pas réellement les mots que vous prononcez et ne sont pas non plus capables d’en déchiffrer le sens. Cette prouesse technique peut paraître extraordinaire pour beaucoup d'utilisateurs, puisque la reconnaissance vocale requiert des efforts technologiques avancés , mais il n’y a pas de phénomène de pensée aboutie par la machine.

Qu’est-ce qu’une IA forte ?

Une IA forte, ou « véritable IA », est un système qui peut penser de façon autonome. Ces systèmes d’IA sont capables de raisonner, d'apprendre, de planifier, de communiquer, d'émettre des jugements et d'avoir un certain degré de conscience de soi. C’est en tout cas ce que des experts préconisent. Selon eux, si nous parvenons à répliquer l'architecture et la fonction du cerveau humain, nous pourrons un jour construire des machines possédant une réelle capacité cognitive. Et la recherche n’attend pas puisque de nombreux scientifiques développent des réseaux similaires aux connexions neuronales pour apprendre aux ordinateurs à être plus autonomes. Cette méthodologie est appelée appelle l’apprentissage profond, un sous-ensemble de l’IA. Mais nous sommes encore loin des IA indépendantes qui peuplent les ouvrages de science-fiction. Si les changements surviennent rapidement, une véritable IA forte reste aujourd’hui plus une philosophie qu’une réalité.

Machine learning et IA sont-ils synonymes ? En quoi le machine learning diffère-t-il de l’intelligence artificielle ?

L’intelligence artificielle et le machine learning sont associés à ce qu’on appelle le big data, cette masse de données numériques résultant de la dématérialisation des processus administratifs et l’avènement du cloud. C’est pourquoi ces deux notions se rejoignent souvent, mais n’ont pour autant pas la même signification.

L’intelligence artificielle est la notion selon laquelle des machines contrôlées de façon numérique peuvent être capables de prendre des décisions et d’exécuter des tâches que l’on qualifierait de complexe ou d’intelligence similaire à celle d’êtres humains.

Le machine learning quant à lui fait référence à l’ensemble des applications qui ont pour fondement l’intelligence artificielle et va intégrer des historiques de données pour ensuite les soumettre à des modèles statistiques afin d’apprendre comment de futurs événements peuvent être anticipés de façon juste. Grâce au machine learning, les ordinateurs sont capables d’exploiter des données en utilisant des modèles statistiques pour améliorer leur capacité de prédiction. Les algorithmes de machine learning sont souvent classés en deux catégories : supervisés et non supervisés.

Résumé de la comparaison IA versus machine learning :

L’intelligence artificielle est un concept plus large d’ensemble de machines intelligentes capable de simuler les capacités cognitives et les comportements d’un être humain tandis que le machine learning est une application ou sous-concept de l’intelligence artificielle qui permet aux machines d’apprendre à partir de données sans recourir à un programme spécifique.

Qu’est-ce que le machine learning supervisé ?

Dans le cas du machine learning supervisé, le data scientist données guide un algorithme d’IA dans le processus d'apprentissage. Le scientifique fournit à l’algorithme des données d’entraînement qui incluent des exemples et des résultats cibles spécifiques pour chacun d’eux. Le scientifique décide ensuite des variables qui doivent être analysées et rend compte de la précision des prédictions de l’ordinateur. Après suffisamment d’entraînement (ou de supervision), l’ordinateur est capable d’utiliser les données d’entraînement pour prédire le résultat des nouvelles données qu’il reçoit.

Qu’est-ce que le machine learning non supervisé ?

Dans le cas du machine learning non supervisé, les algorithmes reçoivent des données d’entraînement mais ils n’ont pas de résultats connus à exploiter pour faire des comparaisons. Au lieu de cela, ils analysent les données pour identifier les motifs précédemment inconnus. Les algorithmes d'apprentissage non supervisé peuvent regrouper des données similaires, détecter les anomalies dans un groupe de données et identifier des motifs partagés par différentes données.

Les algorithmes de machine learning semi-supervisés, comme leur nom l’indique, combinent des données d’entraînement étiquetées et non étiquetées. L’utilisation d'une petite quantité de données d’entraînement étiquetées peut améliorer considérablement la précision de la prédiction, tout en réduisant le temps et le coût associés à l’étiquetage d’un grand volume de données.

Qu’est-ce que l’intelligence artificielle, le machine learning et le deep learning ?

Sous la notion d’intelligence artificielle on retrouve le machine learning et le deep learning, qui nouent une relation complexe. Essayons de nous pencher sur quelques enjeux pour comprendre comment le deep learning se distingue des réseaux de neurones [neural network] plus simple et des autres formes de machine learning.

Le deep learning ou apprentissage profond est une forme d’intelligence artificielle capable d’analyser des concepts à partir de représentations concrètes.

L'apprentissage profond est une branche du machine learning qui imite le cerveau humain aussi fidèlement que possible. Il utilise généralement un modèle fondé sur la structure du cerveau, appelé réseau neuronal profond, pour imiter un système de neurones humains.

Les détails de la discipline sont complexes mais, fondamentalement, les modèles d'apprentissage profond analysent les données de façon itérative et tirent des conclusions proches de celles des êtres humains.

Au même titre qu’un individu est capable d’identifier un chien à partir d’une image, en se basant sur des caractéristiques connues (taille, pelage, museau, disposition des membres, etc.), le deep learning peut identifier ce même animal à partir de la même image. C’est pourquoi il est énormément utilisé dans la conception des logiciels de conduite des véhicules autonomes. Pour qu’une voiture soit capable d’entreprendre une action (freinage, passage de vitesse, changement de voie, etc.) elle doit analyser l’environnement qui l’entoure : elle doit être capable de reconnaître un autre véhicule et le distinguer d’un piéton, d’un passage piéton ou d’une signalétique. En mettant en place des mécanismes d’observation et d’analyse soumis à des éléments extérieurs, grâce à des équipements comme les caméras extérieures et les radars de contrôle, la voiture exécute de façon autonome des commandes de pilotage plus complexes.

Lorsqu’un algorithme de machine learning fait une prédiction incorrecte, un humain doit l’en informer pour qu’il puisse apporter les altérations nécessaires. Cette intervention humaine aide l’algorithme à prédire plus précisément les résultats. À l’opposé, les réseaux neuronaux profonds et les algorithmes d'apprentissage profond sont capables de reconnaître eux-mêmes la précision de leurs prédictions. Pour cette raison, l'apprentissage profond convient mieux aux tâches très complexes que les modèles de machine learning standard.

IA, machine learning et science des données

Pour permettre la création de machines puissantes, on soumet à une solution d’intelligence artificielle de larges volumes de données qu’elle va analyser. Mais ces données sont au préalables collectées, organisées et triées en fonction des observations que l’on souhaite analyser. C’est la science des données ou data science : un champ interdisciplinaire qui consiste à organiser des informations selon leur nature, leur taille ou leur fréquence pour ensuite les intégrer dans des programmes d’exécution.

La science des données a toujours existé, que ce soit dans l’organisation d’articles encyclopédiques ou la classification d’espèces biologiques. Elle a permis de donner un ordre logique souvent accompagné d’une méthodologie de lecture ou d’application. D’abord organisée de façon manuelle, la science des données est désormais orchestrée par des applications numériques. L’une des figures les plus illustres dans le domaine est Katherine Johnson, devenue célèbre depuis sa collaboration chez IBM au calcul des trajectoires des premières navettes spatiales américaines, dont Apollo 11 entre 1950 et 1960. Surnommée « l’ordinateur humain », elle est l’un des personnages principaux du film « Les Figures de l’Ombre » (2017).

mitre-att

Source : Nasa.gov

La science des données permet d’identifier des enjeux liés à des phénomènes variés (économiques, physiques, scientifiques, etc.) et devient le support d’action pour des analyses quantitatives avec le concours de modèles statistiques. Elle requiert l’usage d’un langage de programmation SQL, pour mettre en forme et organiser les données.

Le machine learning s’appuie sur la science des données pour intégrer des informations préalablement triées et organisées pour exécuter des décisions sur la base de modèles statistiques choisis. Il s’en tient donc seulement à la modélisation de données (le tracé d’une courbe de ventes, les prédictions de fluctuations d’une valeur boursière, la prévision d’un réassort de stock de médicament pour un laboratoire, etc.), la modélisation ne représentant qu’une forme d’application de la science des données. Le machine learning requiert la connaissance de langages de programmation autres que SQL, comme Python, R, Java, etc.

Contrairement à la science des données qui identifie de nouveaux problèmes à chaque collecte et organisation d’informations, le machine learning ne porte que sur un seul problème déjà identifié et cherche à le résoudre. Enfin, le machine learning va permettre la découverte de nouveaux résultats de recherche fournis à partir des données exploitées dans un modèle, et ces résultats feront à leur tour partie d’un ensemble intégré à la science des données.

Que sont les systèmes experts ?

Forme précoce d'intelligence artificielle dont la création remonte aux années 1970, les systèmes experts imitent la prise de décision humaine en appliquant une base de connaissances existante à un problème afin de parvenir, au terme d’une suite de mécanismes « si-alors », à une décision experte. Comme ces systèmes ne peuvent pas s'améliorer progressivement en apprenant à partir de données externes, on considère souvent qu’ils ne sont pas de vrais exemples d’IA.

Qu’est-ce que la programmation d’IA ?

La programmation d’IA est une forme de programmation logicielle qui permet aux développeurs d’intégrer des capacités d’IA à une application. Elles peuvent être très simples, pour créer un moteur de recherche plus intelligent par exemple, ou très complexe, comme dans le cas d'une voiture autonome.

Quel langage de programmation est le meilleur pour l’intelligence artificielle ?

Les langages de programmation les plus courants pour l’IA sont Python, Java, C++, LISP et Prolog.

  •  Python : Python est généralement le langage de programmation préféré des développeurs en matière d’IA, du fait de sa souplesse et de la simplicité de sa syntaxe. Il prend en charge les approches orientées objet, fonctionnelles et procédurales de programmation. Il est en outre extrêmement portable et s’exécute aussi bien sur Linux, Windows, MacOS et UNIX avec un minimum de modifications du code. Il s'accompagne aussi de plusieurs bibliothèques très pratiques pour les programmeurs d’IA, comme NLTK et SpaCy pour le traitement du langage naturel, Numpy pour le calcul scientifique, scikit-learn pour le machine learning, et TensorFlow, PyTorch et Apache MXNet, entre autres, pour les applications d'apprentissage profond.  
  •  Java : Java est l’un des langages de développement les plus populaires dans le domaine général, et c’est un grand favori des projets d’IA. Très portable également, il permet de coder facilement des algorithmes - indispensables pour la programmation d’IA – et se débogue aisément. Les bibliothèques Java intéressantes sont CoreNLP pour le traitement du langage naturel, ND4J pour les mathématiques complexes et DL4J pour l’apprentissage profond. 
  •  C++ : C++ est prisé pour sa grande vitesse et est largement considéré comme le langage de programmation le plus rapide, une qualité de poids pour les applications d’IA gourmandes en calcul. Ce n'est pas le langage le plus simple à apprendre et c'est donc rarement le premier choix des développeurs, mais il est souvent recommandé pour les applications impliquant du machine learning et l'élaboration de réseaux neuronaux. 
  •  LISP : mis au point par John McCarthy en 1958, LISP est le plus ancien langage de programmation après Fortran. En dépit de son grand âge, c’est toujours une option populaire du fait de ses excellentes fonctions de prototypage et de son traitement efficace des expressions symboliques. Il n’est plus vraiment unique car on retrouve nombre de ses atouts dans des langages plus récents, mais c’est toujours un choix courant pour les projets de machine learning. 
  •  Prolog : Prolog est un autre langage de programmation « classique » qui n'a toutefois pas le large éventail d'applications de LISP. Ce langage déclaratif fondé sur des règles permet aux développeurs de répondre facilement à une variété de requêtes, ce qui le rend idéal pour les applications d’IA simples de type problème-solution. Prolog prend également en charge le retour sur trace ou backtracking, qui simplifie la gestion des algorithmes. 
  • L’IA et le ML pour les entreprises

    Quelles sont les applications métier de l’IA et du machine learning ?

    Le machine learning est déjà un moteur de nombreuses applications que vous utilisez chaque jour. Facebook utilise le machine learning pour personnaliser les flux d'actualité des utilisateurs, en le garnissant de publications des personnes dont vous avez régulièrement « aimé » les contenus précédents (et, inversement, en réduisant la visibilité des publications des personnes avec qui vous interagissez moins). Votre système de navigation GPS utilise le machine learning pour analyser les données de circulation et prédire les zones d’encombrement sur votre trajet. Même le filtre de courrier indésirable de votre boîte email utilise l’apprentissage automatique pour écarter les messages non voulus de votre boîte de réception.

    Les applications du machine learning sont également très nombreuses en entreprise. Le machine learning peut permettre d’extraire des renseignements d’un grand volume de données client pour fournir des services personnalisés et ciblés sur la base de besoins individuels. Dans les secteurs réglementés tels que la santé et les services financiers, le machine learning renforce la sécurité et la conformité en analysant les registres d'activités pour identifier les comportements suspects, détecter les fraudes et améliorer la gestion des risques. En règle générale, le machine learning et autres techniques d’IA offrent à une organisation une meilleure transparence en temps réel, pour lui permettre de prendre de meilleures décisions.

    Voici quelques exemples de la façon dont les entreprises améliorent tous les aspects de leurs activités avec l’IA :

    IA et machine learning dans la gestion des risques

    Les usages du machine learning ne manquent pas dans le secteur bancaire et financier, et l’impact de l’intelligence artificielle sur le développement de nouveaux processus métier afin d’améliorer la gestion de risques dans les décisions ne fait que commencer. L’usage du machine learning a d’abord permis de limiter le risque de fraude bancaire et de cyberattaque, puis le développement d’algorithmes d’apprentissage automatique a amélioré le niveau de prévision des fluctuations économiques afin de mieux anticiper les risques de crash boursier. Enfin, le déploiement d’intelligence artificielle dans la relation client a optimisé le coût opérationnel de certaines transactions auparavant manuelles.

    L’utilisation d’algorithmes ne suffit pas en soi à comprendre les avancées technologiques observées dans le secteur bancaire. Il convient de rappeler comment ces derniers ont été soumis à d’éventuelles corrections pour prévenir l’influence de biais cognitifs et offrir de meilleurs calibrages dans les prévisions économiques et financières présentées aux investisseurs.

    IA et machine learning dans la santé

    L’intelligence artificielle et le machine learning sont au cœur des enjeux dans le domaine de la santé. Grâce à l’IA, les chercheurs en médecine sont désormais capables d'identifier des pathologies, dresser des diagnostics et prévenir le risque épidémique. L’intelligence artificielle joue aussi un rôle moteur dans la création et le développement d’essais cliniques à travers la multiplication des ressources disponibles de façon numérique sur des travaux de recherche, des protocoles de traitement et des retours sur des essais cliniques.

    Dans le domaine de la santé, l’intelligence artificielle et le machine learning contribuent à des découvertes scientifiques de grande ampleur. C’est le cas dans la prévention de maladies, grâce notamment à la thérapie génique, qui soumet un séquençage ADN d’un individu à une base de données d’une population large pour identifier des marqueurs associés à certaines pathologies. L’IA et le machine learning permettent également d’améliorer la personnalisation des traitements auprès de pathologies plus ou moins lourdes et offre une meilleure administration des prescriptions de médicaments.

    IA et machine learning dans l’industrie automobile

    Conduite autonome, assistance technique, production automatisée, personnalisation des campagnes marketing … Tous les rouages de l’industrie automobile font désormais office de laboratoire pour le déploiement de l’intelligence artificielle.

    Pour preuve, la mise en place de processus d’automatisation des planifications de maintenance mais aussi de commandes et de production des véhicules intelligents pour optimiser les coûts de production, de matières premières et de stockage. La société FTP Software a ainsi développé une intelligence artificielle générée à partir de solutions capables de :

  • calculer automatiquement l’espace libre dans une usine et faire des recommandations        d’optimisation de rangement pour chaque produit dans chaque usine ;
  • exécuter une reconnaissance visuelle cognitive pour aider à enregistrer la référence de chaque produit avant sa mise en stock dans l’usine ;
  • iIdentifier automatiquement le nombre de monte-charges disponibles et les répartir              efficacement dans l’usine.
  • En résumé, les applications métier de l’IA et du machine learning sont donc multiples :

    Service client :

  • Répondre aux questions des clients grâce à des robots de conversation utilisant l’IA.
  • Améliorer la détection des fraudes aux cartes de crédit.
  • Analyser les commentaires des clients et les résultats de sondage.
  • Ventes et marketing :

  • Créer des prédictions plus précises à l’aide de données historiques et économiques.
  • Actualiser les informations de contact des clients, générer de nouvelles pistes de campagnes marketing et en étudier les performances
  • Personnaliser les messages et créer des flux de contenu sélectionnés.
  • Créer des programmes de publicité numérique qui répondent aux désirs des clients.
  • Optimiser des prix en temps réel en fonction de la concurrence et du marché.
  • Opérations :

  • Améliorer la gestion de la chaîne logistique en comparant la demande du marché à l’inventaire.
  • Créer de meilleurs modèles de gestion des risques.
  • Examiner automatiquement les propositions des sous-traitants.
  • Réduire la maintenance de l'équipement en identifiant les comportements anormaux.
  • Améliorer les opérations IT et la sécurité du réseau.
  • Se protéger des cyberattaques en découvrant les bugs logiciels exploitables et les logiciels malveillants
  • Automatiser l’analyse des causes profondes.
  • Quel est l’avenir de l’IA et du machine learning ?

    Avec la croissance des puissances de calculs intégrées dans les super-ordinateurs et le volume colossal de données accessibles pour créer des algorithmes, on peut envisager des scénarios futurs pour l’intelligence artificielle et le machine learning.

    Concernant l’intelligence artificielle, la prochaine évolution porterait sur l’avènement de l’IA généralisée. En effet, il n’existe pas à ce jour de solution d’intelligence artificielle généralisée disponible sur le marché. Ce qui signifierait que l’être humain n’est capable de concevoir et développer qu’une intelligence artificielle limitée. S’il s’agit encore de spéculations, de nombreuses études scientifiques laissent à croire que d’autres formes d’intelligences artificielles plus sophistiquées pourraient bientôt voir le jour. Il n’existe pour le moment pas de démonstration concrète accessible au grand public mais ce n’est peut-être qu’une question de temps.

    Finalement, l’intelligence artificielle générale (aussi appelée intelligence artificielle profonde (Deep AI) ou robuste (Strong AI)) serait capable d’imiter si bien l’intelligence et le comportement de l’être humain qu’il serait quasi impossible de les distinguer.

    Quels sont les risques de l’IA ?

    Certaines personnes craignent que l’IA ne produise des machines intelligentes capables d’occuper les emplois humains. D'autres ont peur qu’en devenant capables d’agir de leur propre chef, sans supervision humaine, les machines prennent des décisions potentiellement néfastes. En s'adressant à l’association des gouverneurs nationaux des États-Unis en 2017, Elon Musk a déclaré : « L’IA est un risque fondamental pour l’existence de la civilisation humaine, et un risque différent des accidents de voiture ou d'avion, des drogues ou d’une mauvaise alimentation. Certes, ceux-ci représentent un danger pour un groupe d’individus au sein de la société, mais ils ne sont pas un danger pour la société dans son ensemble. » Dans une interview donnée en 2014 à la BBC, le scientifique Stephen Hawking, récemment disparu, a déclaré que le « développement d’une intelligence artificielle complète pourrait annoncer la fin de l’espèce humaine. » D’autres prédisent que l’IA va améliorer la vie humaine en automatisant les tâches simples et répétitives, libérant du temps pour des activités plus enrichissantes.

    McKinsey estime que d’ici 2030, 375 millions d’employés (soit 14% de la main d'œuvre globale) devra « changer de catégorie professionnelle » car l’IA les aura remplacés. D'autres études prédisent toutefois que l’IA créera au moins autant d’emplois qu’elle n’en détruira. Selon Gartner, si 1,8 million d’emplois seront éliminés par le développement de la puissance de l’IA d’ici 2020, l ces 1,8 million d’emplois perdus seront compensés par la création de 2,3 millions de nouveaux postes, toujours d’ici 2020, soit un gain de 500 000 emplois. Gartner prédit de la même façon une augmentation nette de 2 millions d’emplois d’ici 2025.

    Comment savoir si vous devez utiliser l’IA et le machine learning ?

    Tout d'abord, demandez-vous si la tâche que vous devez accomplir est suffisamment complexe pour justifier un investissement dans le machine learning. La gamme d'applications de l’IA en entreprise est vaste, et le meilleur moyen de déterminer si vous devez adopter l’IA est de rechercher des cas d’usage comparables dans d'autres sociétés.

    Une fois que vous avez déterminé que le machine learning est un investissement valable, vient le temps d’examiner vos données. Le machine learning nécessite de très grandes quantités de données pour bien fonctionner. Mais leur qualité est plus importante encore que leur quantité. « Il vaut mieux des données propres que des données massives, » se plaisent à répéter les data scientists. Des données non structurées ou désorganisées ne fourniront pas les renseignements métier nécessaires, quel que soit leur nombre.

    Il faut également des données récentes. Étant donné le rythme rapide auquel la plupart des industries évoluent, des masses de données âgées ne serait-ce que de quelques années ne sont plus pertinentes face aux tendances actuelles de votre activité, et n'apporteront sans doute aucune valeur prédictive.

    On recommande généralement aux entreprises débutantes en machine learning de commencer par l'apprentissage supervisé. Du fait de leur processus d’entraînement plus immédiat et guidé, les applications d'apprentissage supervisé permettent souvent de mettre sur pied un projet pilote d’IA plus facilement gérable. Comme on l’a vu, le machine learning exige que les données aient été préalablement étiquetées pour faire des prédictions. Si l’on reprend l’exemple de la fraude bancaire, une banque pourrait utiliser des données étiquetées « fraude » en conjonction avec d'autres données de transaction pour prédire les futures transactions frauduleuses. Sans cet étiquetage pour lancer le processus, l’application de machine learning sera considérablement plus complexe et lente à produire des résultats.

    Enfin, commencez avec une petite quantité de données et limitez le projet dans le temps (2 mois, par exemple). Élaborez la question à laquelle l’IA devra répondre, et qui sera liée à un problème métier spécifique, puis recueillez des commentaires sur les résultats. Cela vous permettra de déterminer la valeur que présente le machine learning pour votre activité et les types de projets à long terme auxquels vous pourriez l’appliquer.

    Bien démarrer avec l’IA et le ML

    Comment prendre un bon départ avec l’IA ?

    La meilleure façon pour une entreprise de prendre un bon départ avec l’intelligence artificielle consiste à utiliser une plateforme d’IA existante. En effet, construire entièrement une intelligence artificielle est un processus incroyablement coûteux et complexe. Ce n’est pas le seul moyen de mettre l’IA au service de votre organisation, ni même le plus recommandé. Pour bien des entreprises, une meilleure option, plus simple, consiste à mettre en œuvre une plateforme d’IA.

    Dans la réalité, vous utilisez déjà quotidiennement des technologies sophistiquées sans jamais penser à ce qui se passe sous le capot. Les clients d’e-mail, les outils de traitement de texte et de feuilles de calcul, les logiciels de gestion de projet et les plateformes cloud, qui forment la colonne vertébrale de vos opérations quotidiennes, reposent tous sur un code source complexe, et vous les utilisez avec aisance sans avoir jamais vu une seule ligne de ce code. On peut aujourd’hui mettre en œuvre l’IA de façon similaire grâce à la prolifération d’outils facilement accessibles.

    C’est ce qu’on appelle la « démocratisation de l’IA » : elle met de puissants outils entre les mains des utilisateurs métier. Ainsi, Gartner a récemment prédit que les utilisateurs d'analyse et de business intelligence en libre-service produiront plus d'analyses que les data scientists en 2019.

    Et il ne s'agit pas que d'analyse. Les principaux fournisseurs de cloud que sont Google, Amazon et Microsoft facilitent considérablement l'accès à l’IA en fournissant des outils qui permettent aux profanes d'élaborer leurs propres modèles de machine learning. Ils apportent notamment des algorithmes prêts à l’emploi et des interfaces faciles à utiliser, grâce auxquels les personnes qui ne possèdent que peu d’expérience en développement peuvent rapidement devenir opérationnels.

    L’IA est-elle faite pour les petites entreprises ?

    Même les petites entreprises peuvent devenir "orientées données" avec l’aide de l’IA. Grâce à la gestion des ressources clients (CRM) fondée sur l’IA, même une entreprise individuelle peut analyser les avis des clients, les publications des réseaux sociaux et les commentaires par e-mail et par écrit, afin d’adapter son offre de produits et de services. Dans une petite entreprise, un utilisateur peut automatiser les tâches répétitives de service client – répondre aux demandes, classer les tickets d'assistance – grâce à une plateforme d’IA comme Digital Genius par exemple. Les petites entreprises peuvent même extraire des données exploitables d’outils existants comme Google Sheets et ZenDesk en les intégrant avec un outil d'IA comme Monkey Learn.

    Comment implémenter l’IA et le machine learning dans votre business

    Avant de démarrer un projet d’intelligence artificielle, il faut définir le problème à résoudre. Ceci déterminera la technologie IA à choisir et permettra d’entraîner le logiciel à partir des données nécessaires. Dès lors, on pourra vérifier la validité des résultats obtenus. Même les outils d’intelligence artificielle les plus performants doivent être maniés avec précaution et constamment réévalués pour assurer leur bon fonctionnement.

    Les bonnes pratiques à suivre :

  • Se familiariser avec le concept d’intelligence artificielle ;
  • identifier les problématiques que vous souhaitez résoudre grâce à l’intelligence artificielle ;
  • organiser les enjeux prioritaires à cerner ;
  • Prendre en compte les contraintes de capacités qu’engage le recours à l’intelligence artificielle ;
  • faire appel à des experts pour mettre en place un projet pilote ;
  • former une équipe métier pour orchestrer et intégrer les données ;
  • faire preuve de pragmatisme et démarrer petit ;
  • tenir compte des nécessités d’espace de stockage dans un plan d’usage d’une intelligence artificielle.
  • Pouvez-vous utiliser l’IA si vous ne disposez pas d’une grande quantité de données ?

    Les petites entreprises peuvent utiliser l’IA même sans avoir beaucoup de données internes. Les données des réseaux sociaux peuvent être collectées directement à partir de leurs sources et analysées à la volée. De même, un système d’IA qui suit et analyse les prix du logement – une application populaire de l’IA dans le secteur de l’immobilier, puise généralement ses données dans des sources publiques.

    En bref : l’heure est venue d'adopter l’IA

    L’intelligence artificielle et le machine learning sont plus que des projets ésotériques de recherche en informatique à Stanford ou au MIT. Les algorithmes d’IA font plus que déstabiliser les champions d’échec ou faire fonctionner des assistants personnels virtuels. L’informatique cognitive transforme la santé et permet le développement des véhicules autonomes. Si vous craignez d’expérimenter l’intelligence artificielle, rassurez-vous. La technologie de l’intelligence artificielle est plus abordable et facile à utiliser que jamais, et ces deux facteurs progressent chaque jour.

    Ressources complémentaires

  • Vous voulez profiter des avantages de l’IA et du machine learning ?
  • Exploiter l’IA et le machine learning pour un impact maximum
  • Attention à la marche ! Comprendre les parcours des clients de bout-en-bout pour délivrer des expériences client exceptionnelles
  • Coup de foudre pour les données. Comment le machine learning pourrait changer la Saint-Valentin.
  • Les nouveautés du Machine Learning Toolkit 4.1 Splunk
  • Les nouveautés du Machine Learning Toolkit 4.0 Splunk (2e partie)
  • Le printemps a fait éclore une nouvelle version : découvrez ses nouvelles capacités d’intelligence artificielle
  • Pour en savoir plus les tendances en matière d’IA et de machine learning et comment mettre à profit leurs usages dans votre organisation, découvrez notre e-Book dédié.

    Et pour plus d’infos sur comment adopter de bonnes pratiques pour transformer votre organisation IT grâce à l’IA, cliquez sur : https://www.splunk.com/fr_fr/form/5-steps-to-transform-your-it-organization-with-ai.html