Donde la IA generativa se encuentra con los derechos humanos

foto-resumen

Por Dylan Walsh En noviembre de 2022, OpenAI lanzó ChatGPT. Menos de 18 meses después, el tema de la IA generativa domina casi todas las esferas de la vida, pública y privada. Los formuladores de políticas hablan de ello; los economistas hablan de ello; Los científicos sociales, los padres, los profesores y los inversores hablan de ello. Volker Türk, el Alto Comisionado de las Naciones Unidas para los Derechos Humanos, también habla de ello. “Un gran número de personas ya están sintiendo los impactos incomparables sobre los derechos humanos de la IA avanzada, incluida la IA generativa”, dijo en un debate reciente sobre el tema. Para garantizar que los beneficios de la IA lleguen a todos, “las personas deben estar en el centro de la tecnología”. Türk ofreció estos comentarios como orador principal en Human Rights Dimensions of Generative AI , un evento del 14 de febrero organizado por el Centro de Derechos Humanos y Justicia Internacional y copatrocinado por el Instituto Stanford para la IA centrada en el ser humano (HAI) y otros. Tras los comentarios de Türk, un panel de expertos que representan a los sectores público y privado y al mundo académico discutieron las implicaciones de la IA generativa para los derechos humanos, la función democrática y la cohesión social general. El grupo incluía: Eileen Donahoe, enviada especial y coordinadora para la libertad digital en la Oficina de Ciberespacio y Política Digital del Departamento de Estado de EE. UU.; Alex Walden, director global de Derechos Humanos de Google; Peggy Hicks, Directora de la División de Participación Temática, Procedimientos Especiales y Derecho al Desarrollo de la Oficina de Derechos Humanos de la ONU; Nate Persily , codirector del Centro de Política Cibernética de Stanford y profesor de Derecho James B. McClatchy en la Facultad de Derecho de Stanford; y Raffi Krikorian, director de tecnología de Emerson Collective. A continuación se presentan algunos aspectos destacados de la conversación. Por qué la IA es diferente Aunque algunas de las preocupaciones sobre la IA son convencionales (puede promover la desinformación o invadir la privacidad), hay varias formas en que los desafíos que presenta son desconocidos para el mundo político. Por un lado, la IA es lo que Persily llama una tecnología clave. "Se está volviendo fundamental para todas las demás tecnologías, lo que la hace diferente", afirmó. “Ya está en todas partes y seguirá estando en todas partes. Está regulando todo el futuro de nuestra economía y nuestras relaciones sociales”. También es más opaca que otras tecnologías y sus aplicaciones son mucho más difíciles de prever. Como ejemplo, Persily dijo que el equipo de OpenAI, cuando lanzó ChatGPT, no imaginó su uso en codificación. "Más de la mitad de los usos son ahora para codificación", dijo. Walden, de Google, destacó la novedosa velocidad y escala a la que funciona la IA, así como su capacidad para aprender y adaptarse. Aunque plataformas como Google llevan mucho tiempo conversando con los responsables políticos sobre cómo regular el contenido, dijo, "la IA hace que todo esto sea mucho más complicado". Por último, muchos de los algoritmos fundamentales de la IA son de código abierto. Esto es fundamental para que las herramientas sean accesibles más allá de la propiedad intelectual corporativa, pero también es problemático. Durante el primer año del lanzamiento de ChatGPT, por ejemplo, hubo una explosión de pornografía infantil generada por IA, como resultado del hecho de que estas herramientas estaban disponibles gratuitamente. "En cierto modo, el aspecto más democrático de esta tecnología también plantea el mayor riesgo", dijo Persily. Algunas preocupaciones graves Todos los panelistas expresaron su preocupación sobre cómo se utilizará (y ya se utiliza) la IA; tres de estas preocupaciones resonaron a lo largo de la conversación. En primer lugar, tanto Krikorian como Donahoe observaron cómo la rápida evolución de las diferentes herramientas de IA hace prácticamente imposible que el público o los responsables de las políticas sigan el ritmo. "Existe una gran discrepancia entre el desarrollo y la absorción de esta tecnología", afirmó Krikorian. "En muchos sentidos, esto simplemente significa que estamos echando gasolina a todos los demás problemas". Antes de que logremos abordar el creciente problema de la desinformación en línea, por ejemplo, la IA está acelerando su difusión. En segundo lugar, Hicks señaló que, aunque la ONU ha pedido una pausa en el uso de la IA en áreas donde es más probable que ocurran violaciones de derechos humanos, estos son precisamente los ámbitos donde los avances parecen avanzar más rápido. Se están creando excepciones legales para sectores como la seguridad nacional y la aplicación de la ley, donde los profesionales de los derechos humanos han centrado sus energías durante mucho tiempo, a menudo sin éxito. "Hemos estado expresando estas preocupaciones desde mucho antes de la IA generativa", dijo Hicks. "Y todavía tenemos que avanzar en ese frente". Finalmente, Persily sugirió que el creciente problema de la desinformación podría llevar a la gente no sólo a creer en falsedades sino, lo que es más preocupante, a no creer en lo que es verdad. "La omnipresencia del contenido artificial da credibilidad a todos aquellos que quieren dividir la realidad", afirmó. "Cuanto más desconfiamos de la evidencia que tenemos ante nuestros ojos, mayor será el poder de los mentirosos para decir lo que es verdad y lo que no". Pensamientos sobre la regulación La discusión sobre cómo regular de manera efectiva y justa la IA generativa giró en torno a algunos puntos centrales: La ONU, a través de su iniciativa B-Tech , ha creado un marco mediante el cual las empresas de tecnología pueden incorporar consideraciones de derechos humanos en el trabajo que realizan. Esta iniciativa ha retomado recientemente el caso específico de la IA generativa. “El único conjunto de leyes transversales que tenemos para abordar estos colosales desafíos”, dijo Türk, “es el marco internacional de derechos humanos”. Una solución regulatoria debe basarse en una amplia participación. "Una de las grandes preocupaciones que tenemos es que estas conversaciones parecen estar teniendo lugar con demasiada atención en el Norte global y los entornos de habla inglesa", dijo Hicks. Los problemas potenciales, apoyó Donahoe, son inherentemente transnacionales y, como tales, las soluciones deben diseñarse de manera inclusiva. Se debe incorporar la mayor transparencia posible a estas herramientas. Quizás nunca sea posible comprender completamente la función de un modelo (por qué sus resultados son los que son), pero ciertas comprobaciones podrían delinear las capacidades del modelo de antemano. El debate sobre políticas y regulaciones debe abarcar matices. Hicks sugirió que la mayor parte del debate actual sobre la IA está muy polarizado: un producto es bueno o malo; destruirá el mundo o lo salvará; el sector privado es el problema o el gobierno es el problema. "Tenemos que encontrar formas de participar en ambas conversaciones al mismo tiempo", afirmó. Cuando la discusión llegó a su fin, Donahoe pidió a cada uno de los cuatro panelistas que respondieran si eran, en general, más optimistas o pesimistas sobre un futuro con IA generativa. Los panelistas estaban universalmente esperanzados, pero, se podría decir, de manera reservada. “Soy optimista acerca de la tecnología, pero debo decir que soy pesimista acerca de la sociedad en este momento”, así lo expresó Persily, cuestionando nuestra capacidad para alcanzar efectivamente un consenso sobre cómo gobernar las numerosas amenazas que se avecinan en el horizonte. "Si tan solo la IA hubiera tenido este momento hace 30 años o si pudiéramos abordarlo después de haber abordado primero nuestras divisiones sociales".