image representing responsible ai

La promesa de la IA de tomar decisiones mejores y más rápidas basadas en una comprensión profunda de los datos es cada vez más clara.

Pero en la cadena de suministro y logística, incluso los pequeños errores pueden convertirse en una crisis importante y costosa. Como CTO de project44, creo firmemente que el avance en la IA debe ir de la mano de un enfoque implacable en la responsabilidad. Nuestras decisiones —más bien, las decisiones que toma la IA en función de cómo la activamos— pueden afectar a las vidas y a los medios de vida; la innovación responsable es el único camino viable.

Dado que la innovación responsable es el único camino viable, nuestro enfoque del desarrollo de IA en project44 se centra en dos principios críticos:

  • Resultados interpretables: garantizar que los usuarios entiendan las acciones impulsadas por la IA mediante la integración de la transparencia en la interfaz.
  • Redundancia del sistema: garantizar que las acciones basadas en IA estén respaldadas por los datos y modelos más precisos disponible.

Generar confianza, tanto en los usuarios finales como en el liderazgo de la cadena de suministro, es fundamental para lograr una adopción más amplia y un mayor valor de la IA. Al adherirnos a estos principios, nuestro objetivo es implementar una IA que no solo sea potente, sino que también sea fiable para las operaciones de la cadena de suministro mundial.

Salida interpretable: claridad en las Acciones basadas en IA

La salida interpretable simplemente significa que los usuarios siempre pueden entender lo que hace un agente de IA y por qué lo hace. En la práctica, este principio se traduce en la creación de sistemas de IA cuyas decisiones y recomendaciones se puedan explicar fácilmente en términos humanos.

Si una IA sugiere detener un envío en un centro de distribución o redirigir un camión de entrega, nuestros usuarios no deben tener que adivinar la razón. Deben ver inmediatamente los factores que influyeron en esa decisión, ya sea un retraso en el tráfico, un ping del sensor perdido, una alerta meteorológica o cualquier otro desencadenante.

Al diseñar un resultado interpretable, nos aseguramos de que nuestra IA se comporte menos como una «caja negra» misteriosa y más como un colega bien entrenado que puede articular su razonamiento.

Veamos dos ejemplos de cómo esto toma forma en la plataforma project44:

Predicciones transparentes de la hora estimada de llegada (ETA)

Los clientes a menudo buscan claridad sobre los datos que utilizamos para las predicciones de la ETA: los eventos que consideramos y los que ignoramos. Para solucionar este problema, hacemos visibles los «ingredientes» de cada ETA.

Categorizamos los factores clave que determinan una ETA en grupos distintivos: tiempos de permanencia en las paradas, estado de finalización de hitos, calidad del ping del GPS, desviaciones de la ruta e incluso patrones de tráfico a la hora del día. Nuestra plataforma realiza un seguimiento de estos factores en tiempo real e implementa un período de tiempo variable para marcar cualquier desviación importante en la ETA, lo que garantiza que se registren y expliquen los cambios significativos.

Por ejemplo, si una parada no programada causa un retraso (digamos, que la ETA pasa de las 14:00 a las 18:00), el usuario verá la actualización y una explicación como: «ETA ajustada debido a una parada no prevista en la Estación X». Además, implementaremos una ventana temporal móvil para realizar un seguimiento de las principales desviaciones, lo que nos permitirá realizar un seguimiento y notificar los cambios significativos en las estimaciones de la ETA. Esto evita al usuario actualizaciones sorpresa de la ETA y le da una razón específica para el cambio.

Mediante el seguimiento sistemático de las desviaciones y el suministro de explicaciones contextuales, aumentamos la confianza en nuestras predicciones de la ETA: los usuarios pueden tomar decisiones fundamentadas porque entienden el motivo de los tiempos de llegada previstos.

Asistentes de IA explicables

Aplicamos el mismo principio de transparencia a los asistentes digitales que funcionan con IA en nuestra plataforma.

Considere a MO, nuestro asistente de cadena de suministro, diseñado para responder a preguntas específicas sobre la cadena de suministro de forma rápida y precisa (por ejemplo, la recuperación de información sobre el envío). Hemos creado un módulo de explicabilidad que, por así decirlo, «echa un vistazo» a la mente del chatbot y expone el proceso de razonamiento al usuario. El módulo:

  1. Desglosa el proceso de formulación de consultas SQL,
  1. Muestra a qué tablas y campos de la base de datos se accede, e
  1. Indica cómo se aplica la lógica para obtener la respuesta.

Por ejemplo: si un usuario pregunta: «¿Cuáles son mis envíos retrasados hoy?» MO no se limita a escupir una respuesta y dejar que el usuario se pregunte cómo se determinó. Entre bastidores, el asistente de IA traduce esa pregunta en lenguaje natural en una consulta a la base de datos, y nuestro sistema mostrará al usuario una descripción de esa consulta en lenguaje sencillo. En este caso, el asistente puede buscar envíos cuya hora de llegada real sea posterior a la hora de llegada prevista. Luego, el módulo de explicabilidad muestra algo como: «Para determinar los envíos retrasados, he consultado la base de datos de envíos que tenga envíos de llegada_real que sean posteriores a la llegada_prevista».

Este nivel de interpretabilidad es invaluable en un contexto empresarial: los usuarios pueden estar seguros de que la IA no hace saltos de fe, sino que sigue las reglas del negocio y los datos como lo haría un analista bien capacitado.

Redundancia del sistema: garantizar la precisión y la fiabilidad

El segundo pilar de la IA responsable en project44 es la Redundancia del sistema. Este principio reconoce que la IA solo es tan buena como los datos y los sistemas en los que se basa.

Para minimizar el riesgo, incorporamos múltiples capas de validación y copias de seguridad en nuestros flujos de trabajo de IA. En otras palabras, nunca queremos un único punto de fallo o una única fuente verdadera que, si es incorrecta, pueda llevar a una mala decisión que pase desapercibida. Cada acción impulsada por la IA debe basarse en la información más precisa y actualizada disponible. Siempre que sea posible, debe cotejarse con otro modelo, conjunto de datos o conjunto de reglas antes de que afecte al mundo físico de los envíos y el inventario.

Profundidad y redundancia de los datos

Nuestra plataforma integra una amplitud sin precedentes de datos de la cadena de suministros en tiempo real. No, de verdad, project44 tiene el mayor conjunto de datos de la cadena de suministros del mundo, que aprovechamos al máximo antes de que un agente de IA actúe.

Con más de 255 millones de envíos gestionados y dos millones de transportistas en nuestra red, project44 tiene el mayor conjunto de datos de cadena de suministro del mundo. El sistema de project44 procesa alrededor de 3,3 millones de pings de ubicación de envíos por carretera por día en América del Norte y aproximadamente 66 millones de actualizaciones de la posición de los buques por día para la carga del transporte marítimo mundial. Estos millones de puntos de datos (desde las coordenadas de GPS del camión hasta los eventos de salida del puerto o los flujos de datos meteorológicos) sirven como base de datos sólidos y en vivo para nuestra IA. Con este volumen y diversidad de información entrante, podemos verificar constantemente los resultados de la IA con la realidad en tiempo real. Si una señal es inexacta o se retrasa, es probable que otra señal la detecte. Esta redundancia de datos garantiza que nuestros algoritmos basan sus decisiones en una imagen coherente y correcta del entorno de la cadena de suministros.

Por ejemplo: si nuestro modelo predictivo pronostica un retraso, lo corroboramos con actualizaciones del mundo real sobre el terreno. ¿Hay realmente un atasco de tráfico en esa ruta? ¿El último ping del camión confirmó que está detenido? Verificamos a través de estos canales de datos redundantes antes de que se pueda confiar plenamente en la decisión de la IA (como el redireccionamiento de un envío).

Amplitud algorítmica y redundancia

También integramos redundancia en el nivel algorítmico. En lugar de basarse en los resultados de un único modelo, nuestra arquitectura a menudo utiliza enfoques de conjunto o reglas alternativas. Si el Modelo A indica una anomalía que podría desencadenar una acción drástica, hacemos que el Modelo B (o un conjunto de reglas operativas) verifique automáticamente esa anomalía.

En los escenarios en los que una acción de IA pueda tener graves consecuencias (por ejemplo, la reordenación automática del inventario o el redireccionamiento de mercancías de alto valor), nos aseguramos de que haya una salvaguardia: podría tratarse de otro modelo que valide la decisión, o incluso de una aprobación humana en el proceso para las decisiones más críticas. El objetivo es que nunca se confíe ciegamente en las interpretaciones de IA sin verificación.

Un ojo para la calidad de los datos

Para fortalecer aún más la fiabilidad de los datos (una parte fundamental de la redundancia), hemos introducido agentes de calidad de datos basados en IA en nuestra plataforma.

Estos agentes trabajan continuamente para identificar y solucionar problemas con los datos para que nuestra IA no funcione con información defectuosa o que falte. Por ejemplo, si el seguimiento de un transportista en particular se detiene o si la información de un envío parece incoherente, un agente de calidad de datos de IA resolverá esa brecha de forma autónoma, a menudo antes de que alguien se dé cuenta del problema. Esto ha permitido mejorar significativamente la utilidad de los datos de nuestros clientes, lo que ha reducido las lagunas de datos en hasta un 50 % y ha eliminado muchas tareas de seguimiento manual a los transportistas. Al garantizar de forma proactiva la integridad y la precisión de los datos, reducimos el riesgo de que la IA tome una decisión errónea debido a datos incompletos.

En resumen, la redundancia del sistema consiste en garantizar la robustez: tener varios «ojos» en el problema para que, incluso si falla un elemento del sistema de IA, otro lo compense y las decisiones sean correctas y fiables.

Por qué la IA transparente y responsable es importante para los líderes de la cadena de suministros

Al emplear las técnicas mencionadas anteriormente, mejoramos en gran medida la explicabilidad y la transparencia de nuestros sistemas de IA, desde el análisis de los prompts hasta los datos redundantes. Pero la IA explicable no es solo una sutileza académica; es un imperativo estratégico para sectores como la cadena de suministros y la logística.

A medida que la IA está cada vez más integrada en la toma de decisiones, los jefes deben asegurarse de que estos sistemas sean transparentes y responsables. Estas son algunas de las razones por las que:

  • Generar confianza y adopción: para adoptar completamente las soluciones basadas en IA, las organizaciones deben confiar en ellas. La explicabilidad genera confianza al aclarar el proceso de toma de decisiones de la IA. Cuando los usuarios ven por qué una IA hace una recomendación, es mucho más probable que la acepten y la adopten.
  • Garantizar la justicia y la ética: los modelos de IA pueden adquirir sesgos de los datos históricos de manera inadvertida, lo que podría llevar a la toma de decisiones injustas o subóptimas (por ejemplo, favorecer sistemáticamente a un transportista sobre otro por razones incorrectas). Las técnicas de IA explicables ayudan a detectar y corregir estos sesgos, ya que nos permiten examinar cómo la IA toma sus decisiones, en línea con las prioridades morales, pero a menudo también con las legales.
  • Cumplimiento normativo: los responsables políticos, tanto del sector de la logística como de otros, han comenzado a exigir transparencia en la toma de decisiones automatizada. Ya se trate de las disposiciones del RGPD sobre la transparencia algorítmica en Europa o de las pautas específicas del sector, poder explicar las decisiones de IA está pasando rápidamente de ser algo «deseable» a ser una necesidad legal.
  • Gestión de riesgos y reducción de errores: incluso la mejor IA cometerá errores o se enfrentará a situaciones nuevas. La explicabilidad es como un sistema de alerta temprana para estos problemas. Si comprendemos las debilidades de un modelo o los escenarios en los que le resulta difícil (algo que a menudo descubrimos analizando su lógica de decisión), podemos mitigar los riesgos de forma preventiva. Si la explicación de una decisión de IA no tiene sentido, nos alerta para que investiguemos más antes de que se haga daño. En la cadena de suministro, este enfoque proactivo puede evitar errores costosos, como el desvío de un lote de productos y el incumplimiento de una fecha límite de un cliente.
  • Mejor innovación y productividad: cuando los sistemas de IA son transparentes, nuestros equipos de desarrollo de productos y ciencia de datos pueden realizar iteraciones y mejorarlos más rápido. La explicabilidad arroja luz sobre por qué un modelo tuvo un buen o mal rendimiento, lo que permite realizar mejores ajustes e innovaciones. Esto conduce a sistemas de IA más eficientes que realizan su trabajo de manera más eficaz, lo que reduce el tiempo y el coste asociados a la depuración de problemas de IA en el camino.

En resumen, la IA explicable aumenta la confianza, garantiza la justicia, apoya el cumplimiento y acelera la adopción de soluciones de IA en toda la cadena de suministros. Transforma la IA de una caja mágica a una herramienta que todos pueden entender y beneficiarse.

Para los jefes ejecutivos que supervisan las operaciones de la cadena de suministros, invertir en la explicabilidad es invertir en el éxito a largo plazo y en la aceptación de la IA en la organización.

Liderando el camino en IA responsable

Project44 se compromete a dar ejemplo en el ámbito de la IA para la logística. Invertimos mucho no solo en lo que la IA puede hacer, sino también en asegurarnos de que entendemos lo que hace en cada paso y de que contamos con salvaguardias cuando decide hacer algo inesperado.

Al hacer hincapié en la Salida interpretable y en la Redundancia del sistema en nuestro desarrollo de IA, nos aseguramos de que nuestras soluciones también sean seguras, transparentes y fiables. Hemos visto de primera mano que este enfoque fomenta una mayor confianza con nuestros clientes y socios: pueden innovar más rápido con nosotros porque confían en la inteligencia que proporcionamos.

Esta estrategia equilibrada y consciente del riesgo nos permite implementar IA avanzada (desde análisis predictivos en tiempo real hasta asistentes de la cadena de suministro generativos) en operaciones de misión crítica, como la distribución de vacunas, la programación de líneas de producción y la logística de recuperación de desastres.

La innovación responsable en la IA no es un logro singular, sino que es un proceso de mejora continua. A medida que desarrollamos capacidades cada vez más sofisticadas, se puede esperar que project44 se mantenga a la vanguardia en la combinación del avance de la IA con la rendición de cuentas. Seguiremos compartiendo nuestros aprendizajes y enfoques con la industria, porque elevar el listón de la IA responsable beneficia a todos, ya que hace que las cadenas de suministros mundiales sean más eficientes, resistentes y fiables.