Retour
Hadrien Diesbecq Le 16 mars 2022

Les 3 indispensables pour opérationnaliser vos projets IA

Opérationnaliser les projets d’intelligence artificielle passe nécessairement par une préparation des données optimale

Selon le cabinet de conseil Gartner, près de la moitié des projets d’intelligence artificielle au sein des entreprises ne dépassent jamais le stade du POC (proof of concept). Pourtant, l’intelligence artificielle n’a jamais autant fait parler d’elle ces dernières années. Désignant l’ensemble des programmes capables de simuler l’intelligence humaine, son essor a surtout été marqué au début des années 2000 avec l’émergence du big data. En exploitant de très gros volumes de données, les algorithmes sont capables de réaliser des tâches d’un niveau de complexité impressionnant et en peu de temps. En témoigne la victoire fulgurante du programme DeepMind développé par Google qui a largement battu en 2017 le sud coréen Ke Jie, le meilleur joueur du monde d’alors.

Depuis, les techniques d’apprentissage machine n’ont cessé de s’améliorer et de nombreux champs d’application se sont ouverts : que ce soit pour traduire automatiquement et en temps réel des discours, pour conduire des voitures autonomes ou pour aider les médecins dans l’analyse de leurs radiographies.

Mais qu’en est-il des entreprises qui souhaitent utiliser la puissance de ces modèles pour améliorer leur performance commerciale ? Les cas d’usage ne manquent pas : détermination des contenus marketing les plus pertinents, prévision de vente, optimisation de la logistique, gestion dynamique des coûts et des prix, etc. Mais c’est un fait, les entreprises ont beaucoup de mal à opérationnaliser de tels projets, dont la durée de mise en production s’élève en moyenne à 9 mois.

Petit tour d’horizon des problèmes rencontrés et des solutions qui existent pour les résoudre.

1er indispensable : rendre l’intégration du projet rapide et facile

La réalisation d’un projet d’intelligence artificielle, par exemple pour automatiser l’analyse de contrats juridiques, passe souvent par la mise en place d’un POC (proof of concept). Il s’agit pour une équipe dédiée de développer un programme capable de réaliser la tâche demandée à petite échelle : ici sur quelques contrats de moindre importance. Si cette première étape a pour but de démontrer la faisabilité d’un projet, elle ne saurait être suffisante. Il faut pouvoir le déployer de manière opérationnelle. La bonne réussite de la mise à l’échelle d’un projet IA dépend alors de :

Sa capacité à s’intégrer facilement au sein de l’écosystème de données de l’entreprise. Des questions se posent : comment le programme accède-t-il aux données (les contrats dans notre exemple), sachant qu’elles peuvent être situées dans diverses architectures de type data lake ou data hub (lire notre article sur le sujet ici) ? Comme délivre-t-il ses résultats ? Sont-ils facilement exploitables par d’autres plateformes de visualisation ou d’analyse ?

Sa capacité à être facilement pris en main par des utilisateurs qui ne sont pas experts. Par exemple, un outil intelligence artificielle d’analyse de contrats est avant tout à destination de juristes. Son ergonomie et sa rapidité d’exécution sont donc des éléments fondamentaux pour qu’il soit pleinement adopté.

Sa capacité à répondre à des exigences de sécurité et de protection des données. Contrôler son accès et adapter son usage aux réglementations en vigueur, de type RGPD, sont essentiels. Pour des contrats juridiques, les données traitées sont très sensibles et l’algorithme qui les traite doit être facilement éditable et sécurisé pour éviter toute fuite ou utilisation malveillante.

Ces 3 dimensions : intégration, facilité d’utilisation et sécurité doivent donc être pris en compte dès la conception du projet. Pour satisfaire toutes ces exigences, une méthodologie existe et consiste à lier développement, déploiement et maintenance d’un projet en favorisant un dialogue permanent entre toutes les équipes y travaillant. Il s’agit de l’ensemble des pratiques ModelOps qui s’inspirent du DevOps, aujourd’hui bien implanté dans le déploiement de logiciels.

 

2ème indispensable : quantifier précisément l’impact commercial du projet

Comme tout projet industriel, la réussite de l’opérationnalisation d’un projet d’intelligence artificielle dépend de sa capacité à générer des revenus pour l’entreprise. Or, étant donné la complexité de son développement qui nécessite la mobilisation de plusieurs experts sur un temps long, sa rentabilité est loin d’être garantie. D’après Gartner, seule 1 entreprise sur 10 parvient à opérationnaliser plus de 75% de ses projets d’IA. Cela est notamment dû à une mauvaise estimation des coûts, des retards de développement ou encore une remise en question de la pertinence stratégique du projet qui entraînent l’abandon de POCs pourtant prometteurs sur le plan technique.

Pour éviter ce type d’écueil, il est alors important pour les entreprises de :

– Systématiquement appliquer une analyse financière sur le projet en quantifiant les facteurs de risque et le retour sur investissement attendu en fonction des coûts de développement et de déploiement.

– Prioriser les projets qui sont au cœur de l’activité commerciale de l’entreprise (dans des domaines tels que le marketing, les ventes ou encore la supply chain) et qui peuvent avoir une influence notable sur des indicateurs de performance clés (croissance, nombre clients, …).

– Déployer une équipe pluridisciplinaire, composée de profils variés, en charge du projet. Les équipes uniquement composées de data scientists ont tendance à échouer pour opérationnaliser leurs POCs. Il est donc indispensable d’intégrer des spécialistes du domaine d’activité de l’entreprise, et ce dès la phase de conception, ainsi que des experts aux spécialités variées (data engineers, développeurs, etc.).

61570a0fab436ed24a39686f_Operationnalisation

3ème indispensable : faire en sorte que les données d’entraînement soient de qualité

Le passage d’un POC à un déploiement opérationnel n’est possible qu’à condition que la justesse et la fiabilité des résultats ne soit pas dégradées. En effet, la performance d’un algorithme d’intelligence artificielle est très corrélée à la qualité des données qui l’alimente.  Or, si un POC peut très bien fonctionner sur un petit ensemble de données rapidement préparées, ses performances ne sont pas garanties lorsqu’il s’agit d’en traiter de gros volumes, d’autant que le nombre d’erreurs y est souvent très conséquent. Parce que manipulées par des opérateurs humains, elles sont souvent très hétérogènes et donc difficilement exploitables, ce qui freine la mise en production des projets IA.

Il est ainsi estimé que data scientists passent jusqu’à 80 % de leur temps à préparer leurs données. De plus, cette tâche peut s’avérer complexe si le secteur d’activité de l’entreprise nécessite une expertise pour les comprendre (par exemple dans le domaine médical). Mal interpréter les données peut alors entraîner des erreurs qui se répercutent sur les résultats des algorithmes.

En particulier, les données textuelles sont parmi les plus problématiques parce qu’elles sont écrites par des êtres humains, avec des capacités d’adaptation cognitive que n’ont pas les machines. Un exemple typique est l’utilisation d’abréviations qui rendent difficile l’identification de champs de texte par un algorithme : « frts » pour « fruits » ou « yt » pour « yaourts » par exemple.

L’enjeu majeur pour les entreprises consiste donc à industrialiser la qualité des données pour disposer d’algorithmes performants et aux résultats fiables (comme nous l’expliquons plus en détail ici) quel que soit le volume de données qu’ils ont à traiter.

La plupart du temps, pour résoudre ce problème, les entreprises sont tentées d’imposer des contraintes aux humains, avec par exemple des champs préremplis qui empêchent l’utilisation d’abréviations. Cette solution n’est cependant pas idéale : elle est très difficile à implémenter en pratique et n’empêche pas des erreurs d’être commises. Une solution consiste à faire appel à un outil qui viendrait automatiquement corriger les erreurs sur les données. C’est ce que nous proposons à YZR.

Exploiter le plein potentiel de l’intelligence artificielle et de l’apprentissage machine est ainsi un enjeu business majeur pour les entreprises. Une phase d’opérationnalisation est néanmoins nécessaire mais peut s’avérer très coûteuse en temps et en ressources. La qualité des données d’entraînement est donc un point d’attention crucial sur lequel les entreprises doivent tout particulièrement se concentrer.

Préparer efficacement vos données avec YZR pour opérationnaliser vos projets IA

YZR est une plateforme d’IA no code 100% dédiée à la normalisation de données textuelles, délivrée grâce à une API. Notre outil no-code dispose d’une interface très simple d’utilisation pour n’importe quel utilisateur désirant améliorer la qualité de ses données.

Notre solution SaaS s’intègre ainsi parfaitement à vos différents outils (Product Information Management, Master Data Management, ERP, etc.), pour vous permettre d’atteindre entre autres :

– Une meilleure connaissance du client.

– Des prévisions de ventes optimisées.

– Une digitalisation accélérée de votre offre.

Autrement dit, avec YZR, vous exploitez le plein potentiel de vos données.

Envie d’en savoir plus ? Vous souhaitez obtenir une démonstration de notre produit ? N’hésitez pas à nous contacter directement sur notre site web ou à l’adresse hadrien@yzr.ai.

Sources

-Partner, Erick Brethenoux, Frances Karamouzis, 5 Steps to Practically Implement AI Techniques, 25 avril 2019, mis à jour le 6 août 2020
-Gartner, Melissa Davis, Accelerating AI Deployments — Paths of Least Resistance, 13 juillet 2020
-Gartner, Whit Andrews, AI-Successful Organizations Have These 4 Habits in Common, 19 janvier 2021

Contenus liés