image representing responsible ai

La promesse de l’IA de prendre de meilleures décisions, plus rapidement, sur la base d’une compréhension approfondie des données, se précise de jour en jour.

Mais dans le secteur de la chaîne d’approvisionnement et de la logistique, même les petites erreurs peuvent engendrer des crises majeures et coûteuses. En tant que directeur technique de project44, je suis absolument convaincu que le développement de l’IA doit aller de pair avec un soucis constant de responsabilité. Nos décisions, ou plutôt celles prises par l’IA en fonction de la façon dont nous la programmons, peuvent affecter des vies et les moyens de subsistance de certains. L’innovation responsable est la seule voie viable pour l’avenir.

Parce que l’innovation responsable est la seule voie possible, notre approche du développement de l’IA, chez project44, se concentre sur deux principes essentiels :

  • Des résultats interprétables : s’assurer que les utilisateurs comprennent les actions basées sur l’IA en renforçant la transparence de l’interface.
  • Une redondance des systèmes : garantir que les actions menées par l’IA s’appuient sur les données et les modèles disponibles les plus précis.

L’instauration de la confiance, à la fois chez les utilisateurs finaux et chez les dirigeants de la chaîne d’approvisionnement, est essentielle pour que l’IA soit adoptée à plus grande échelle et qu’elle génère une plus grande valeur ajoutée. En adhérant à ces principes, nous visons à déployer une IA à la fois puissante et fiable pour les opérations de la chaîne d’approvisionnement mondiale.

Résultats interprétables : la clarté des actions basées sur l’IA

Des résultats interprétables signifie simplement que les utilisateurs sont toujours en mesure de comprendre les actions d’un agent d’IA et les raisons qui les motivent. En pratique, ce principe se traduit par la création de systèmes d’IA dont les décisions et les recommandations peuvent être facilement expliquées en langage humain.

Si une IA suggère de suspendre une expédition dans un centre de distribution ou de rediriger un camion de livraison, nos utilisateurs ne doivent pas avoir à en deviner les raisons. Ils doivent avoir connaissance des facteurs qui ont influencé cette décision immédiatement, qu’il s’agisse d’un retard de circulation, d’un message ping manqué du capteur, d’une alerte météorologique ou de tout autre déclencheur.

En concevant des résultats interprétables, nous nous assurons que notre IA se comporte moins comme une « boîte noire » mystérieuse et plus comme un collègue bien formé qui est capable d’expliquer son raisonnement.

Examinons deux exemples de la façon dont cela se concrétise sur la plateforme project44 :

Des prévisions d’ETA transparentes

Les clients recherchent souvent les informations sur les données que nous utilisons pour nos prévisions d’ETA : les événements que nous prenons en compte et ceux que nous ignorons. Pour résoudre ce problème, nous rendons visibles les « ingrédients » de chaque ETA.

Nous répartissons les principaux facteurs à l’origine d’une ETA en différents groupes : les temps de stationnement, l’état d’avancement des étapes, la qualité des messages ping GPS, les écarts d’itinéraire et même les tendances de circulation selon l’heure de la journée. Notre plateforme suit ces facteurs en temps réel et met en œuvre un délai roulant pour détecter tout écart majeur dans l’ETA, ce qui garantit que les changements importants sont enregistrés et expliqués.

Par exemple, si un arrêt imprévu entraîne un retard, et que l’ETA passe de 14 h à 18 h, l’utilisateur voit la mise à jour et une explication du type : « ETA ajustée en raison d’un arrêt imprévu au centre X. » De plus, nous mettrons en œuvre un délai roulant pour suivre les écarts majeurs, afin de nous assurer que les changements importants dans les estimations de l’ETA sont suivis et signalés. Cela évite à l’utilisateur de recevoir des mises à jour surprises de l’ETA et lui donne une raison spécifique pour ce changement.

En suivant systématiquement ces écarts et en fournissant des explications contextuelles, nous renforçons la confiance en nos prévisions d’ETA : les utilisateurs peuvent prendre des décisions éclairées, car ils comprennent lesraisons qui sont à l’origine des prévisions d’heures d’arrivée.

Des assistants IA explicables

Nous appliquons les mêmes principes de transparence aux assistants numériques basés sur l’IA sur notre plateforme.

MO, par exemple, est notre assistant de la chaîne d’approvisionnement, conçu pour répondre rapidement et précisément à des questions spécifiques sur la chaîne d’approvisionnement (par exemple : la récupération des informations d’expédition). Nous avons créé un module d’explicabilité qui « jette un coup d’œil » dans l’esprit du chatbot, pour ainsi dire, et expose le processus de raisonnement à l’utilisateur. Le module :

  1. Décrit le processus de formulation de la requête SQL,
  1. Affiche les tableaux et les champs de la base de données qui sont consultés, et
  1. Indique la logique appliquée pour l’obtention de la réponse.

Par exemple, si un utilisateur demande : « Quelles sont mes expéditions retardées aujourd’hui ? » MO ne se contente pas de transmettre une réponse en laissant l’utilisateur se demander comment elle a été déterminée. Dans les coulisses, l’assistant d’IA traduit cette question en langage naturel en une requête de base de données. Notre système affichera à l’utilisateur une description en langage clair de cette requête. Dans ce cas, l’assistant peut effectivement rechercher les expéditions dont l’heure d’arrivée réelle est postérieure à l’heure d’arrivée prévue. Le module d’explicabilité affiche ensuite quelque chose qui ressemble à : « Pour déterminer les expéditions retardées, j’ai vérifié dans la base de données des expéditions toutes les expéditions dont l’arrivée_réelle est postérieure à l’arrivée_prévue. »

Ce niveau d’interprétabilité est inestimable dans le contexte de l’entreprise : les utilisateurs acquièrent l’assurance que l’IA ne fait pas un acte de foi, mais suit au contraire les règles de gestion et les données, tout comme le ferait un analyste bien formé.

Redondance du système : une garantie de précision et de fiabilité

Le deuxième pilier de l’IA responsable chez project44 est la redondance du système. Ce principe reconnaît que la qualité de l’IA dépend exclusivement des données et Des systèmes qui la prennent en charge.

Pour minimiser les risques, nous intégrons plusieurs couches de validation et de sauvegarde dans nos flux de travail d’IA. En d’autres termes, nous ne voulons pas d’un seul point de défaillance ou d’une seule source de vérité qui, s’ils se révèlent erronés, pourrait conduire à prendre une mauvaise décision qui passe inaperçue. Chaque action basée sur l’IA doit être fondée sur les informations les plus précises et les plus récentes disponibles. Dans la mesure du possible, ces actions doivent être recoupées avec un autre modèle, ou un autre ensemble de données ou de règles, avant d’affecter le monde physique des expéditions et des stocks.

Profondeur des données et redondance

Notre plateforme intègre une quantité inégalée de données sur la chaîne d’approvisionnement en temps réel. En réalité, project44 dispose du plus grand ensemble de données sur la chaîne d’approvisionnement au monde. Nous exploitons pleinement ces données avant toute action d’un agent d’IA.

Avec plus de 255 millions d’expéditions traitées et deux millions de transporteurs dans notre réseau, project44 dispose du plus grand ensemble de données sur la chaîne d’approvisionnement au monde. Le système de project44 traite environ 3,3 millions de pings de localisation d’expédition routière longue distance par jour en Amérique du Nord et environ 66 millions de mises à jour de position des navires par jour pour le fret maritime mondial. Ces millions de points de données (allant des coordonnées GPS des camions aux événements de départ des ports en passant par les flux météorologiques) constituent une base de données en temps réel et robuste pour notre IA. Avec ce volume et cette diversité d’informations entrantes, nous pouvons constamment comparer les résultats de l’IA à la réalité en temps réel. Si un signal est inexact ou retardé, un autre signal a toutes les chances de le détecter. Cette redondance des données garantit que nos algorithmes basent leurs décisions sur une image cohérente et correcte de l’environnement de la chaîne d’approvisionnement.

Par exemple : si notre modèle prédictif prévoit un retard, nous le vérifions avec des mises à jour réelles provenant du terrain. Y a-t-il réellement un embouteillage signalé sur cet itinéraire ? Le dernier ping du camion a-t-il confirmé qu’il était à l’arrêt ? Nous vérifions ces canaux de données redondants avant que la décision de l’IA (telle que le réacheminement d’une expédition) ne soit acceptée.

Étendue algorithmique et redondance

Nous intégrons également la redondance au niveau algorithmique. Plutôt que de s’appuyer sur les résultats d’un seul modèle, notre architecture implique souvent des approches d’ensemble ou des règles de secours. Si le modèle A signale une anomalie qui déclencherait une action radicale, nous faisons vérifier cette anomalie par le modèle B (ou un ensemble de règles de gestion).

Dans les cas où une action de l’IA pourrait avoir des conséquences considérables (par exemple, le réapprovisionnement automatique des stocks ou le réacheminement de marchandises de grande valeur), nous nous assurons de la mise en place de mesures de protection : il peut s’agir d’un autre modèle validant la décision, ou même d’une approbation humaine pour les décisions les plus importantes. L’objectif est qu’aucune information de l’IA ne soit jamais aveuglément acceptée sans vérification.

Un soucis de qualité des données

Pour renforcer davantage la fiabilité des données (un élément essentiel de la redondance), nous avons introduit des agents de qualité des données basés sur l’IA dans notre plateforme.

Ces agents travaillent en permanence pour identifier et résoudre les problèmes de données afin que notre IA ne fonctionne pas sur des informations défectueuses ou manquantes. Par exemple, si le flux de suivi d’un transporteur particulier devient silencieux ou si des informations d’expédition semblent incohérentes, un agent de qualité des données IA résoudra ce problème de manière autonome, souvent avant même que quiconque ne remarque le problème. Cela a entraîné des améliorations significatives de l’utilité des données de nos clients, ce qui a réduit les lacunes de données jusqu’à 50 % et éliminé de nombreux suivis manuels auprès des transporteurs. En garantissant de manière proactive l’exhaustivité et la précision des données, nous réduisons le risque qu’une IA prenne une mauvaise décision en raison de données incomplètes.

En bref, la redondance des systèmes permet de les renforcer : nous avons plusieurs paires d’« yeux » sur le problème de sorte que, même si un élément du système d’IA est défaillant, un autre élément le remplace, pour que les décisions restent correctes et fiables.

Pourquoi est-il important pour les dirigeants de la chaîne d’approvisionnement de disposer d’une IA transparente et responsable ?

En utilisant les techniques décrites ci-dessus, nous améliorons considérablement les capacités d’explication et la transparence de nos systèmes d’IA, des pannes rapides aux données redondantes. Mais l’IA explicable n’est pas seulement une question académique ; c’est un impératif stratégique pour des secteurs tels que la chaîne d’approvisionnement et la logistique.

Alors que l’IA est de plus en plus intégrée à la prise de décision, les dirigeants doivent s’assurer que ces systèmes sont transparents et responsables. Voici pourquoi :

  • Le développement de la confiance et l’adoption : afin d’adopter pleinement les solutions basées sur l’IA, les organisations doivent leur faire confiance. L’explicabilité renforce cette confiance en mettant en lumière le processus de prise de décision de l’IA. Lorsque les utilisateurs constatent pourquoi une IA a fait une recommandation, ils sont beaucoup plus susceptibles de l’accepter et de l’adopter.
  • La garantie de l’équité et de l’éthique : les modèles d’IA peuvent détecter par inadvertance des biais à partir de données historiques, ce qui peut entraîner des décisions injustes ou sous-optimales (par exemple, favoriser systématiquement un transporteur plutôt qu’un autre pour de mauvaises raisons). Les techniques d’IA explicables aident à détecter et corriger ces biais en nous permettant d’examiner la façon dont l’IA fait ses choix, en accord avec les priorités morales, mais aussi souvent juridiques.
  • La conformité réglementaire : les décideurs, dans le secteur de la logistique, mais aussi en dehors, ont commencé à exiger la transparence dans la prise de décision automatisée. Qu’il s’agisse des dispositions du RGPD sur la transparence des algorithmes en Europe ou de directives spécifiques au secteur, la capacité d’expliquer les décisions prises par l’IA, qui était jusqu’à présent une « bonne chose », est en train de rapidement devenir une nécessité juridique.
  • La gestion des risques et réduction des erreurs : même la meilleure des IA commettra des erreurs ou sera confrontée à de nouvelles situations. L’explicabilité sert de système d’alerte anticipé pour prévenir ces problèmes. La compréhension des faiblesses d’un modèle ou des scénarios dans lesquels il est en difficulté (que nous découvrons souvent en analysant la logique décisionnelle), nous permet d’atténuer les risques de manière préventive. Si l’explication donnée par une IA pour justifier une décision n’a pas de sens, nous sommes alertés et pouvons enquêter plus en détail avant que des dommages ne soient causés. Dans la chaîne d’approvisionnement, cette approche proactive peut permettre d’éviter des erreurs coûteuses, telles que le mauvais acheminement d’un lot de produits et le non-respect d’un délai pour un client.
  • Une innovation et une productivité accrues : lorsque les systèmes d’IA sont transparents, nos équipes de développement de produits et de science des données peuvent les améliorer plus rapidement. L’explicabilité met en lumière les raisons pour lesquelles un modèle a bien ou mal fonctionné, ce qui permet d’améliorer les ajustements et les innovations. Les systèmes d’IA deviennent ainsi plus efficaces, et effectuent leur travail de manière plus efficiente, en réduisant également le temps et les coûts associés au débogage des problèmes d’IA.

En résumé, l’IA explicable renforce la confiance, garantit l’équité, favorise la conformité et accélère l’adoption de solutions d’IA dans la chaîne d’approvisionnement. Elle transforme l’IA d’une boîte magique en un outil que tout le monde peut comprendre et dont chacun peut bénéficier.

Pour les dirigeants supervisant les opérations de la chaîne d’approvisionnement, investir dans l’explicabilité est synonyme d’investir dans le succès et l’acceptation à long terme de l’IA au sein de l’entreprise.

À la pointe de l’IA responsable

Project44 s’engage à donner l’exemple dans le domaine de l’IA pour la logistique. Nous investissons massivement, pas uniquement dans les capacités de l’IA, mais aussi pour nous assurer que nous comprenons ses décisions à chaque étape et disposons de protections lorsqu’elle prend des décisions inattendues.

En mettant l’accent sur les résultats interprétables et la redondance des systèmes dans notre développement de l’IA, nous nous assurons que nos solutions sont également sûres, transparentes et fiables. Nous avons constaté directement que cette approche favorise une plus grande confiance de nos clients et partenaires. Ils peuvent innover plus rapidement avec nous parce qu’ils font confiance aux renseignements que nous fournissons.

Cette stratégie équilibrée et axée sur les risques nous permet de déployer en toute confiance une IA avancée (des analyses prédictives en temps réel aux assistants de la chaîne d’approvisionnement génératifs) dans les opérations critiques telles que la distribution de vaccins, la planification des lignes de production et la logistique de reprise après sinistre.

L’innovation responsable dans le domaine de l’IA n’est pas une réalisation ponctuelle. C’est un processus en constante amélioration. Alors que nous développons des capacités de plus en plus sophistiquées, project44 prévoie de rester à la pointe de la recherche pour concilier progrès de l’IA et responsabilisation. Nous continuerons de partager nos enseignements et nos approches avec le secteur, car le renforcement de la responsabilité de l’IA profite à tous : il rend les chaînes d’approvisionnement mondiales plus efficaces, résilientes et dignes de confiance.