Por Arleth Delgadillo y Carlos González El investigador del Hub de Inteligencia Artificial del Tec, Juan Alberto Amézquita, enumeró 5 aspectos a considerar y que pueden convertirse en riesgos desde la perspectiva ética al usar ChatGPT, ya sea para labores educativas o profesionales. “Me di a la tarea de entender cómo funciona ChatGPT y la Inteligencia Artificial generativa y cuáles son las principales problemáticas éticas”, explicó el profesor del Tec Guadalajara. El investigador aseguró que la Inteligencia Artificial (IA) y ChatGPT deben ser entendidos como una herramienta básica para potenciar la docencia, investigación o el aprendizaje. Declaró que, desde una perspectiva ética, el uso de la IA puede representar un dilema debido a las implicaciones sociales y ambientales. Además de eso, dijo, existen diversos mitos alrededor de su uso. No obstante, aseguró que debe seguir el proceso de desmitificación en lo que respecta al incorporar la IA en tareas empresariales o educativas, por lo que es importante continuar en la labor de educar a profesores, estudiantes y profesionales. Perspectiva ética El investigador del Hub de IA del Tec señaló que las investigaciones futuras sobre la IA deben centrarse en saber cómo utilizar bien los recursos para obtener resultados provechosos, pero siempre con un enfoque ético. Estos son los 5 aspectos a considerar desde la perspectiva ética al usar ChatGPT enumerados por el docente: 1. Alucinación y entrenamiento manual ChatGPT está entrenado para dar respuestas. Cuando no las sepa, las inventa. A eso se le llama técnicamente alucinación. “Hay que saber que ese es un riesgo al usarlo. Hay que contrastar con otras fuentes”, señaló. Agregó que ChatGPT no tiene la capacidad de referenciar de dónde obtiene la información. No se le pueden pedir fuentes. Por eso, sugiere usar la herramienta para generar una lluvia de ideas, ayudar a organizar el material. "Al hacer uso de este chatbot siempre está de fondo la infracción de los derechos de autor". A la vez, expresó, uno de los problemas que resalta es que ChatGPT fue programado por personas de África, América Latina e India, quienes etiquetaron manualmente la información que proporciona. “Al etiquetar se trataron temas delicados y así las personas tuvieron que exponerse a contenido que tiene un alto impacto emocional, aunado a que se les pagó muy poco por la labor”, destacó. Esto, según Amézquita, genera un dilema, pues se podría exigir regulación a los proveedores de estos servicios. Sin embargo, es una oportunidad para que otras instituciones propongan posteriormente opciones para superar estas limitaciones. 2. Infracción de derechos de autor Detalló que el laboratorio de investigación de Inteligencia Artificial, OpenAI, entrenó a ChatGPT a partir de una base de datos de más de 3 mil millones de palabras. Sin embargo, añadió que no se tiene registro del pago de derechos de autor por dicho banco de palabras. De esta forma, “al hacer uso de este chatbot siempre está de fondo la infracción de los derechos de autor”. 3. Presencia de sesgos El académico subrayó que “la información de ChatGPT puede tener sesgos, por lo que siempre hay que estar atentos a los mismos”. Asimismo, comentó que otro sesgo es que el chat únicamente cuenta con una manera correcta de formular las respuestas, lo que provoca una falta de representación de distintas voces y formas de pensar. “Son sesgos políticos, porque las respuestas no representan voces que no sean occidentales o dominantes. Hace poco tiempo se logró establecer que ChatGPT tiene una tendencia claramente liberal”, indicó. 4. Impacto Ambiental “El uso de ChatGPT tiene serios impactos ambientales, sobre todo en el tema de los servidores que requieren de mucha energía eléctrica que casi nunca proviene de fuentes renovables. “Además, para enfriar dichos servidores se utiliza agua, cantidades significativas de agua”, describió Amézquita. 5. Escasez de talento en empresas Según Amézquita, el remplazo de personal en las empresas para aparentemente delegar funciones a herramientas de IA como ChatGPT es otro de los peligros con implicaciones a considerar. Puede ser un riesgo de reputación y legal para las propias marcas u organizaciones que aplican esa supuesta estrategia. A futuro, afirmó, dicha práctica únicamente llevará a la escasez de talento, en especial en puestos que requieren análisis, procesos de integración de información o creatividad. “Es irresponsable que las empresas estén utilizando herramientas de IA para sustituir gente, cuando la verdad es que no pueden hacer ciertas tareas mejor que las personas”, argumentó. Ir más allá y aprender Con base en lo anterior, el especialista consideró que “son herramientas muy importantes que pueden ayudarnos y no podemos dejar de utilizarlas”. En cambio, destacó que “hay que educar al público y a las empresas para que tengan consciente el hecho de que no deberían confiar ciegamente en estas herramientas de IA por las limitaciones que tienen y porque tienen la posibilidad de arrojar resultados negativos”. Resaltó también que no es inteligente sustituir empleados con herramientas de IA. “Siempre hay que tener a una persona con suficiente capacidad para supervisar las decisiones y suplir las deficiencias”. “Los modelos de IA solamente responden a cómo han sido entrenados y con las bases de datos que tienen. Los humanos siempre tenemos la posibilidad de ir más allá y aprender”, concluyó. “La información de ChatGPT puede tener sesgos, por lo que siempre hay que estar atentos a los mismos”.