Por Anjana Susarla Profesor de Sistemas de Información, Universidad Estatal de Michigan El conjunto completo, e incluso amplio, de directrices para la inteligencia artificial que la Casa Blanca dio a conocer en una orden ejecutiva el 30 de octubre de 2023 muestra que el gobierno de Estados Unidos está intentando abordar los riesgos que plantea la IA. Como investigador de sistemas de información e IA responsable , creo que la orden ejecutiva representa un paso importante en la construcción de una IA responsable y confiable . Sin embargo, la orden es sólo un paso y deja sin resolver la cuestión de una legislación integral sobre privacidad de datos. Sin tales leyes, las personas corren un mayor riesgo de que los sistemas de inteligencia artificial revelen información sensible o confidencial . Comprender los riesgos de la IA La tecnología generalmente se evalúa por su desempeño, costo y calidad , pero a menudo no por su equidad, equidad y transparencia. En respuesta, los investigadores y profesionales de la IA responsable han estado abogando por: auditoría de algoritmos informes estándar sobre modelos de IA credenciales para sistemas de IA que de otro modo serían opacos prácticas integrales de mitigación de riesgos IA que son transparentes para el público un reconocimiento de los daños causados por las IA que hacen predicciones sobre las personas El Instituto Nacional de Estándares y Tecnología (NIST) emitió un marco integral de gestión de riesgos de IA en enero de 2023 que tiene como objetivo abordar muchos de estos problemas. El marco sirve como base para gran parte de la orden ejecutiva de la administración Biden. La orden ejecutiva también faculta al Departamento de Comercio , sede del NIST en el gobierno federal, para desempeñar un papel clave en la implementación de las directivas propuestas. Los investigadores de la ética de la IA han advertido durante mucho tiempo que se necesita una auditoría más estricta de los sistemas de IA para evitar dar la apariencia de un escrutinio sin una rendición de cuentas genuina . Tal como están las cosas, un estudio reciente que analizó las divulgaciones públicas de las empresas encontró que las afirmaciones sobre prácticas éticas de IA superan las iniciativas éticas de IA reales . La orden ejecutiva podría ayudar al especificar vías para hacer cumplir la rendición de cuentas. Otra iniciativa importante descrita en la orden ejecutiva es investigar las vulnerabilidades de modelos de IA de propósito general a muy gran escala entrenados en cantidades masivas de datos, como los modelos que impulsan ChatGPT o DALL-E de OpenAI. La orden exige que las empresas que construyen grandes sistemas de inteligencia artificial con potencial para afectar la seguridad nacional, la salud pública o la economía realicen equipos rojos e informen los resultados al gobierno. El equipo rojo utiliza métodos manuales o automatizados para intentar forzar a un modelo de IA a producir resultados dañinos ; por ejemplo, hacer declaraciones ofensivas o peligrosas, como consejos sobre cómo vender drogas. Informar al gobierno es importante dado que un estudio reciente encontró que la mayoría de las empresas que fabrican estos sistemas de inteligencia artificial a gran escala carecen de transparencia. De manera similar, el público corre el riesgo de ser engañado por el contenido generado por IA. Para abordar esto, la orden ejecutiva ordena al Departamento de Comercio que desarrolle una guía para etiquetar el contenido generado por IA . Se exigirá a las agencias federales que utilicen marcas de agua con IA (tecnología que marca el contenido como generado por IA para reducir el fraude y la desinformación), aunque no es un requisito para el sector privado. La orden ejecutiva también reconoce que los sistemas de inteligencia artificial pueden plantear riesgos inaceptables de daño a los derechos civiles y humanos y al bienestar de las personas: “Los sistemas de inteligencia artificial desplegados de manera irresponsable han reproducido e intensificado las desigualdades existentes, han causado nuevos tipos de discriminación dañina y han exacerbado las desigualdades en línea. y daños físicos”. Lo que no hace la orden ejecutiva Un desafío clave para la regulación de la IA es la ausencia de una legislación federal integral de protección de datos y privacidad. La orden ejecutiva sólo pide al Congreso que adopte legislación sobre privacidad, pero no proporciona un marco legislativo. Queda por ver cómo interpretarán los tribunales las directivas de la orden ejecutiva a la luz de los estatutos existentes sobre privacidad del consumidor y derechos de datos. Sin leyes estrictas de privacidad de datos en Estados Unidos, como las tienen otros países, la orden ejecutiva podría tener un efecto mínimo para lograr que las empresas de inteligencia artificial impulsen la privacidad de los datos. En general, es difícil medir el impacto que tienen los sistemas de IA para la toma de decisiones en la privacidad y las libertades de los datos . También vale la pena señalar que la transparencia algorítmica no es una panacea. Por ejemplo, la legislación del Reglamento General de Protección de Datos de la Unión Europea exige “ información significativa sobre la lógica involucrada ” en las decisiones automatizadas. Esto sugiere un derecho a una explicación de los criterios que utilizan los algoritmos en su toma de decisiones. El mandato trata el proceso de toma de decisiones algorítmica como algo parecido a un libro de recetas, lo que significa que supone que si las personas entienden cómo funciona la toma de decisiones algorítmica, pueden entender cómo les afecta el sistema . Pero saber cómo funciona un sistema de IA no necesariamente indica por qué tomó una decisión particular . Con la toma de decisiones algorítmica cada vez más generalizada, la orden ejecutiva de la Casa Blanca y la cumbre internacional sobre la seguridad de la IA destacan que los legisladores están empezando a comprender la importancia de la regulación de la IA, incluso si falta una legislación integral.