Por Avery Forman Es la peor pesadilla de cualquier ejecutivo: un producto infringe las leyes de privacidad, provocando la ira de los reguladores y desatando un escándalo mediático. Y cuando la IA contribuye al error, recuperar la confianza del público puede resultar aún más difícil para la empresa. Eso fue lo que le sucedió a Kentaro Mori, quien dirigió la gestión de riesgos en 2019 en Recruit Holdings, la empresa japonesa de tecnología de recursos humanos propietaria de los populares sitios web de búsqueda de empleo Indeed y Glassdoor. Se despertó el día de su cumpleaños esperando felicitaciones y, en cambio, escuchó sonar su teléfono celular por una filial acusada de procesar los datos de los estudiantes mediante un algoritmo —sin su consentimiento— para predecir si aceptarían un trabajo, y luego compartir esas predicciones con las empresas que los contrataban. Se puede ofender profundamente al público utilizando la IA de una manera que no sea de su agrado. En los inicios de la adopción de la IA, este error de juicio causó gran revuelo. Los estudiantes se indignaron, la comisión de privacidad de Japón amonestó a la empresa y el público protestó enérgicamente, alegando que el algoritmo de Recruit excluía injustamente a los candidatos para los puestos. “Se puede ofender profundamente al público utilizando la IA de una manera que no aprueben”, explica Sandra Sucher, profesora de la Escuela de Negocios de Harvard. “Una buena respuesta nunca será: ‘La IA me obligó a hacerlo’”. Sucher estudia cómo las empresas pueden generar confianza, incluso mediante el uso responsable de la IA, y encuentra una hoja de ruta clara en la forma en que Recruit reconoció su error, se disculpó y, finalmente, se recuperó del desliz. Narra la trayectoria de la empresa a través de un estudio de caso y un suplemento de HBS, « Recruit Holdings Co. Ltd.: Gestión de la innovación y la confianza en la era de la IA » y B , que plantean cuestiones importantes a medida que las empresas incorporan la IA a sus operaciones. “¿Qué tipo de decisiones se sienten cómodos las personas dejando que un algoritmo tome en nombre de la empresa? ¿Y qué tipo de decisiones deberían tomar las empresas por sí mismas para rendir cuentas por sus acciones?”, pregunta Sucher, profesor de Práctica de Gestión de la promoción de 1966 del MBA. “Estas son preguntas recurrentes, pero la IA las ha amplificado debido a la cantidad de decisiones en las que puede ayudar y a la actual prisa por adoptarla. Las empresas parecen estar delegando la responsabilidad de decisiones por las que, sin embargo, siguen siendo responsables”. Sucher describe seis preguntas clave que los ejecutivos deberían hacerse para asegurarse de que el uso de la IA por parte de sus empresas genere y mantenga la confianza pública. 1. ¿Está usted teniendo en cuenta los intereses del público? En la década de 1980, los líderes de Recruit se vieron involucrados en un esquema de intercambio de acciones por favores que empañó su reputación, y Sucher utilizó el escándalo como ejemplo en su libro El poder de la confianza: cómo las empresas la construyen, la pierden y la recuperan para mostrar cómo las empresas pueden mejorar su cultura. Según el caso, «Recruit se recuperó gracias a un proceso de décadas que consistió en construir una cultura centrada en la misión de aportar valor a la sociedad», empoderando a los empleados para satisfacer las necesidades de los clientes. Este cambio ayudó a alejar a la empresa de la percepción de avaricia y a forjar una identidad basada en el servicio y la responsabilidad social. «La clave para ser digno de confianza reside en tener en cuenta los intereses de la otra persona», afirma Sucher. Finalmente, amplió la descripción del escándalo de la IA que aparece en el libro con el caso de HBS y un suplemento, que escribió junto con Marilyn Morgan Westner y Bethelehem Y. Araya, investigadoras asociadas de HBS. 2. ¿Está la IA tomando decisiones equivocadas? Para 2019, las empresas de recursos humanos se sentían cada vez más cómodas utilizando la IA para ayudar a los empleadores a automatizar tareas repetitivas, como la selección de candidatos para puestos de trabajo. Rikunabi, filial de Recruit y plataforma de búsqueda de empleo con 30 000 empresas y 800 000 estudiantes, se enfrentó al reto de gestionar el delicado momento en que los jóvenes adultos se incorporan a su primer trabajo, una etapa especialmente tensa en Japón debido a la cultura del empleo de por vida. Rikunabi escuchó de empleadores que los estudiantes aceptaban ofertas solo para rechazarlas después, un problema costoso y que consumía mucho tiempo para las empresas. Diseñó un algoritmo —y luego lo lanzó como programa piloto con 38 empresas— para ayudar a determinar si era probable que los estudiantes rechazaran una oferta, basándose en sus patrones de navegación, incluidas las páginas de las empresas que visitaban con más frecuencia. Esta es la mejor práctica para los problemas de confianza: lo aprovecharon como una oportunidad para mejorar. Se suponía que las empresas no debían basar sus decisiones de contratación en las predicciones, pero aun así, el uso de la IA no convenció a muchos. Un usuario de Twitter escribió: «Sería insoportable que algo así determinara automáticamente que la tasa de rechazo de las ofertas de trabajo es alta y que, como consecuencia, la persona fuera rechazada». “Se consideraba que los estudiantes eran muy vulnerables, y a la gente le parecía fundamentalmente injusto que fuera un algoritmo, en lugar de la empresa, quien tomara la decisión”, explica Sucher. 3. ¿Asumes la responsabilidad cuando las cosas salen mal? Recruit cerró rápidamente el programa. El público pidió un chivo expiatorio, y un usuario de Twitter escribió: "Creo que la persona a cargo de Rikunabi DMP Follow de Recruit Career necesita reflexionar seriamente...". Pero en lugar de buscar culpables, Sucher elogia a los líderes de Recruit por apoyar al equipo detrás del controvertido producto. «Muy a menudo, cuando hay un escándalo de este tipo, la gente se distancia de la persona "descubierta". Y en este caso, consideraron que su trabajo era ayudar a esa persona a sobrellevar el escándalo», afirma. Según Sucher, Recruit hizo todo lo posible por apoyar a los estudiantes afectados. Se pusieron en contacto directamente con las empresas que utilizaban el servicio para asegurarse de que se eliminaran los datos de los estudiantes, se disculparon individualmente con cada uno de los 7983 estudiantes por compartir datos sin su consentimiento y crearon un sitio web para que los estudiantes pudieran determinar si sus datos habían sido utilizados. 4. ¿Estás aprendiendo de tus errores? Según Sucher, a medida que los ejecutivos de Recruit aprendían más sobre privacidad e inteligencia artificial, se dieron cuenta de que tenían mucho trabajo por delante. En sus 300 productos, existían 1800 políticas de privacidad diferentes. Recruit reconoció la falta de un sistema único para consolidar dichas políticas y decidió que incluso los productos experimentales en fase de prueba estarían sujetos a los mismos estándares. “Esta es la mejor práctica para los problemas de confianza: lo aprovecharon como una oportunidad para mejorar”, dice Sucher. “Organizaron un equipo y un proceso para crear, en esencia, una sola política”. 5. ¿Cuentas con las medidas de seguridad adecuadas para los experimentos? Tras el escándalo de los años 80, Recruit reconstruyó parcialmente la confianza con una cultura de experimentación desde la base, según Sucher. Los críticos atribuyeron la falta de supervisión a esa mentalidad desenfadada; al fin y al cabo, Rikunabi DMP Follow era un servicio piloto. En respuesta a las peticiones de una supervisión más centralizada, Recruit consolidó siete de sus empresas gestionadas de forma independiente en una sola. Pero la empresa no abandonó su cultura de experimentación. En una entrevista durante su jubilación, Daizo Kobayashi, entonces presidente de la división Recruit Career que supervisaba el sitio web de Rikunabi, afirmó que los ejecutivos habían discutido el tema extensamente y habían decidido que las pruebas y los proyectos piloto debían seguir surgiendo desde la base. “Seguimos fomentando el surgimiento de ideas y desafíos”, afirmó, pero “debemos asegurarnos de contar con las normas adecuadas”. Sucher elogia la forma en que Recruit “reforzó su cultura de innovación y empoderamiento, combinándola con una mejor gobernanza que permite que la innovación se lleve a cabo de manera más segura”. 6. ¿Están los altos directivos elaborando una estrategia sólida de IA? Según Sucher, las empresas que incorporan la IA de forma responsable no la dejan únicamente en manos del departamento de tecnología, pero muchas cometen el error de hacer precisamente eso. «Quienes toman estas decisiones suelen ser directores de tecnología, más que altos directivos de la empresa», afirma. «Si los altos directivos no participan en estas decisiones, deberían hacerlo, ya que se trata de decisiones estratégicas que impactan en la empresa». Elevar la IA a la categoría de responsabilidad de la alta dirección reconoce que su uso conlleva implicaciones éticas, y que los clientes esperan que las empresas lo hagan bien. Sucher concluye: “El mayor problema que veo actualmente en el ámbito de la IA en general es que las empresas no parecen plantearse: '¿Cuál es el mejor uso que se le puede dar a esto en mi empresa?'. La IA no debe ni puede gobernarse a sí misma. Las empresas necesitan tener una visión clara sobre los usos que le dan y deben contar con políticas que garanticen que eso es lo que se está haciendo en la empresa”. Investigadores: Sandra J. Sucher, Profesor de Práctica de Gestión, promoción de MBA de 1966 Marilyn Morgan Westner, Investigador asociado Belén Y. Araya, Investigador asociado