Por David Clark Lo más interesante de cualquier tecnología es cómo afecta a los humanos: cómo nos hace más o menos colaborativos, cómo acelera el descubrimiento y la comunicación, o cómo nos distrae y frustra. Vimos esto en la década de 1990. A medida que internet se volvió más omnipresente, los investigadores comenzaron a experimentar con herramientas de escritura colaborativa que permitían a varios autores trabajar simultáneamente en un mismo documento, independientemente de su ubicación física. Algunos de los primeros ejemplos fueron los Colaboratorios, lanzados por investigadores a mediados de la década de 1990 en la Universidad de Michigan. Estas plataformas permitieron la coautoría, la anotación y el debate en tiempo real, agilizando el proceso de investigación y fomentando colaboraciones internacionales que habrían sido inimaginables tan solo unos años antes. La mayoría de la gente, aunque no todos, estaría de acuerdo en que internet ha beneficiado la investigación y la vida laboral de los investigadores. Pero ¿podemos estar tan seguros del papel de las nuevas tecnologías hoy en día y, más inmediatamente, de la IA generativa? Cualquier persona interesada en la investigación (investigadores, sociedades y editoriales, por nombrar solo algunos) debería considerar un futuro basado en la IA y su papel en él. Como la mayor editorial de investigación sin fines de lucro, OUP está comenzando a definir los principios con los que colaboramos con empresas que crean Modelos de Lenguaje Largo (LLM). Escribí sobre esto con más detalle en el Times Higher Education , pero entre las consideraciones importantes para nosotros se incluyen: el respeto por la propiedad intelectual, la comprensión de la importancia de la tecnología para apoyar la pedagogía y la investigación, una compensación adecuada y vías de atribución para los autores, y vías de escalamiento sólidas con los desarrolladores para abordar errores o problemas. En última instancia, queremos entender lo que los investigadores consideran importante en la decisión de trabajar con IA generativa: qué les entusiasma o les preocupa, cómo utilizan o imaginan utilizar las herramientas de IA y el papel que creen que pueden desempeñar los editores (entre otras partes interesadas institucionales) para apoyar y proteger sus investigaciones publicadas. Recientemente, realizamos una encuesta global a investigadores para explorar su opinión sobre todos los aspectos de la IA. Escuchamos a miles de investigadores de diferentes geografías, disciplinas y etapas profesionales. Los resultados son reveladores en muchos aspectos importantes, y pronto compartiremos estos hallazgos con más detalle. Sin embargo, lo que me impactó de inmediato fue que muchos investigadores buscan orientación de sus instituciones, sociedades académicas y editoriales sobre cómo aprovechar al máximo la IA. Editoriales como OUP se encuentran en una posición privilegiada para defender la protección de los investigadores y su investigación en los programas de maestría en derecho (LLM). Y estamos empezando a hacerlo de forma significativa, ya que los proveedores de Gen AI y LLM buscan datos académicos imparciales y de alta calidad para entrenar sus modelos, y los proveedores más responsables entienden que solicitar permisos (y pagar por ellos) es la forma más sostenible de construir modelos que superen a la competencia. Los LLM no se construyen con la intención de reemplazar a los investigadores, ni deberían hacerlo. Sin embargo, estas herramientas deberían beneficiarse del uso de literatura académica de alta calidad, además de gran parte de la que se encuentra en la web pública. Y dado que la editorial y otras editoriales utilizarán las tecnologías de Gen AI para mejorar y hacer más usables sus propios productos y servicios, queremos que los LLM sean lo más neutrales e imparciales posible. Al iniciar conversaciones con proveedores de LLM, tenemos consideraciones importantes que nos guían. Por ejemplo, necesitamos garantías de que no se pretenden derechos de reproducción literal ni citación en relación con la exhibición (esto incluye no mostrar el contenido en sí); que el contenido no se utilizará para la creación de contenido sustancialmente similar, incluida la ingeniería inversa; y que no se crearán servicios ni productos con el único propósito de generar investigación original. El tema central que guía todas estas conversaciones y posibles acuerdos es proteger a los autores de investigaciones contra el plagio en cualquiera de sus formas. Sabemos que este es un reto complejo, sobre todo considerando la cantidad de contenido de investigación que ya se ha incorporado a los LLM gracias a la interacción de los usuarios con estas herramientas de IA conversacional. Sin embargo, editoriales como OUP están bien posicionadas para asumirlo, y creo que podemos marcar la diferencia a medida que estas herramientas evolucionan. Con este enfoque, esperamos garantizar que los investigadores puedan empezar o seguir utilizando las mejores herramientas de IA para mejorar los resultados de sus investigaciones. ***David Clark , Director General de la División Académica de Oxford University Press