El gigante de los artículos de lujo LVMH opera 75 filiales, llamadas Maisons, en aproximadamente una docena de sectores en 190 países. La compañía emplea a 200.000 personas. Hace poco, emitió una carta para el uso responsable de la IA (RAI) dentro de la empresa, que subraya principios de alto nivel como la explicabilidad, la equidad y la privacidad. Pero ¿qué ocurre cuando estos principios fundacionales se extienden a una red tan extensa y fragmentada? “Esta es una pregunta central: ¿Cómo interpretan y ejecutan los principios estas Maisons y hasta qué punto existe coherencia en una organización tan diversa?”, preguntó Kiana Jafari, investigadora postdoctoral del Laboratorio de Sistemas Inteligentes de Stanford. “¿Existen marcos que no solo respondan al reto de hacerlo de forma coherente, sino que también puedan ayudar a las empresas a ser más productivas?” Jafari y otros investigadores de Stanford colaboraron con LVMH, una filial del Instituto Stanford de IA Centrada en el Ser Humano, para evaluar el proceso de difusión y puesta en práctica de los principios en diversas Maisons. El trabajo, que duró un año, culminó con el desarrollo del marco de Gobernanza Adaptativa de la IA (ARGO) , una herramienta estructurada pero flexible diseñada para equilibrar la coordinación centralizada con la autonomía local. El trabajo se presentó recientemente en la Conferencia de la ACM sobre Equidad, Responsabilidad y Transparencia . El proyecto comenzó con una combinación de más de 50 entrevistas presenciales y escritas, junto con una exhaustiva revisión documental para comprender cómo las políticas de RAI en cada Maison se alineaban con la carta general. Este trabajo preliminar reveló una variación significativa en la forma en que las unidades de negocio interpretaban y aplicaban los principios y herramientas de RAI, en parte debido a que las normas y regulaciones variaban en los distintos sectores y en las distintas regiones del mundo. El marco ARGO surgió en respuesta a esta variabilidad, diseñado para evitar los cuellos de botella de la centralización total, manteniendo al mismo tiempo la consistencia de la que carecen los enfoques descentralizados. Define tres capas operativas interdependientes en una empresa que, trabajando juntas, coordinan esfuerzos en torno a la RAI: 1. Fundación compartida Esta capa, según los siguientes fundamentos, define un conjunto mínimo de expectativas en toda la organización y reconoce que la implementación local variará: Una carta o documento compartido que describe los principios de la RAI; Plantillas estándar para documentar modelos y casos de uso; Una lista de verificación o herramienta de clasificación que identifica cualquier aplicación de alto riesgo; Orientación legal y regulatoria de base: si bien las regulaciones varían según la jurisdicción, se pueden establecer algunos estándares en el nivel superior, incluido el establecimiento de la ley de privacidad de datos de la Unión Europea (GDPR) como el estándar mínimo de privacidad a nivel mundial, incluso en jurisdicciones con requisitos menos estrictos; Una definición clara de los roles y responsabilidades necesarios para la supervisión de RAI tanto a nivel de grupo como de unidad de negocio. 2. Capa de asesoramiento y herramientas Este nivel, que es un grupo centralizado que interactúa con las filiales, establece requisitos mínimos y procesos de retroalimentación proporcionando: Kits de herramientas RAI para aplicaciones como paneles de control de explicabilidad o bibliotecas de métricas de equidad; Programas de capacitación y manuales para unidades de negocio; Herramientas de informes ligeros, como registros de incidentes estandarizados y paneles de uso de IA mensuales; Centralización de activos comunes de IA, incluidas las mejores prácticas de RAI que pueden servir como modelos para la implementación; Canales de retroalimentación para que las unidades de negocio informen si los activos están funcionando particularmente bien o resultan particularmente problemáticos. 3. Implementación y supervisión local A nivel de equipos individuales y unidades de negocio, esta capa designa explícitamente las responsabilidades locales mediante: Aplicar herramientas y procesos a su contexto; Monitoreo del comportamiento del modelo y riesgos; Realizar revisiones internas o autoevaluaciones; Reportar incidencias o desviaciones. Jafari señaló que implementar estas recomendaciones requiere diversas inversiones. Si una empresa aún no cuenta con un agente de RAI dedicado, probablemente será necesario contratar uno. Esto puede ser costoso. “Pero también hay muchas cosas que se pueden lograr rápidamente y sin grandes gastos”, dijo. “Por ejemplo, las empresas pueden organizar reuniones o foros periódicos donde los responsables de IA y los expertos en seguridad y gobernanza de datos puedan reunirse e intercambiar ideas. Hay muchas maneras fáciles de mejorar estos procesos”. Junto con una descripción de las tres capas anteriores, los investigadores y LVMH proporcionaron algunas recomendaciones para implementar el marco ARGO, incluidas las siguientes: Definir un conjunto básico de prácticas mínimas que todas las unidades deben seguir, independientemente del nivel de riesgo. Ejemplos de estos principios son la revisión obligatoria con intervención humana para las decisiones de IA orientadas al cliente, declaraciones documentadas del propósito del modelo para todas las implementaciones y auditorías trimestrales de sesgo para los sistemas de recomendación. Invierta en herramientas compartidas y reutilizables que faciliten la implementación de las estrategias de RAI en diferentes contextos. Estas herramientas deben ser flexibles para que los equipos descentralizados puedan seleccionar componentes según su caso de uso, madurez y perfil de riesgo, como módulos prediseñados de pruebas de equidad que se puedan adaptar a diferentes categorías de productos. Crear mecanismos livianos de retroalimentación y escalamiento para sacar a la luz incidentes, cuasi accidentes, comportamientos inesperados del modelo o problemas con activos a nivel de grupo que surjan a nivel de unidad de negocios; Priorizar la visibilidad sobre el control, garantizando que la organización sepa dónde se utiliza la IA, cómo se evalúa y quién la evalúa, evitando al mismo tiempo una supervisión estrictamente prescriptiva; Fomentar el aprendizaje compartido, como revisiones entre pares entre unidades o comunidades de práctica, para evitar la duplicación de esfuerzos y acelerar la innovación ética. “Nuestra investigación demuestra que la implementación práctica suele ser más importante que la articulación de políticas”, afirmó Mykel Kochenderfer , profesor asociado de Stanford y uno de los investigadores principales del proyecto. “Esperamos que este marco ARGO contribuya a cerrar la brecha entre los principios y la práctica de la RAI”. Esta investigación fue apoyada por el programa HAI Industrial Affiliates , del cual LVMH es miembro.