Yuval Noah Harari pinta un panorama sombrío en la era de la IA y los controles de seguridad

foto-resumen

La inteligencia artificial está revolucionando el mundo. Si bien los experimentos y la investigación en este subcampo de la informática se han llevado a cabo durante décadas, el reciente lanzamiento del poderoso chatbot ChatGPT de OpenAI parece ser un punto fundamental en la línea de tiempo de las tecnologías de IA. Las asombrosas capacidades del chatbot han llevado a muchas empresas a intentar desarrollar sus propios chatbots o incluso integrar inteligencia artificial similar en sus productos y servicios. Desde tiempos inmemoriales, las nuevas tecnologías o innovaciones han sido testigos de miedo y asombro antes de que fueran adoptadas por la humanidad. La mayoría de los nuevos inventos han sido recibidos con conmoción y aprensión, y muchos los elogiaron o los condenaron rotundamente. La actual ola de IA no es diferente. Si bien muchos lo han elogiado, hay escepticismo en igual medida. Yuval Noah Harari, conocido por el aclamado libro de no ficción Sapiens: una breve historia de la humanidad, en su último artículo en The Economist, ha dicho que la inteligencia artificial ha “hackeado” el sistema operativo de la civilización humana. El intelectual público israelí es conocido por sus comentarios sobre las oportunidades y amenazas de la IA en los últimos tiempos. La raíz del miedo En su último artículo, sostiene que el miedo a la IA ha perseguido a la humanidad desde el comienzo de la era de las computadoras. Sin embargo, dijo que las herramientas de IA recientemente aparecidas en los últimos años podrían amenazar la supervivencia de la civilización humana desde una “dirección inesperada”. Demostró cómo la IA podría impactar la cultura al hablar sobre el lenguaje, que es parte integral de la cultura humana. “El lenguaje es el material del que está hecha casi toda la cultura humana. Los derechos humanos, por ejemplo, no están inscritos en nuestro ADN. Más bien, son artefactos culturales que creamos al contar historias y escribir leyes. Los dioses no son realidades físicas. Más bien, son artefactos culturales que creamos inventando mitos y escribiendo escrituras”, escribió Harari. Oferta festiva Afirmó que la democracia también es un lenguaje que se basa en conversaciones significativas, y cuando la IA piratea el lenguaje también podría destruir la democracia. El autor dijo que el auge de la IA está teniendo un profundo impacto en la sociedad y afecta varios aspectos de la economía, la política, la cultura y la psicología. El hombre de 47 años escribió que el mayor desafío de la era de la IA no era la creación de herramientas inteligentes, sino lograr la colaboración entre humanos y máquinas. Para resaltar hasta qué punto la desinformación impulsada por la IA puede cambiar el curso de los acontecimientos, Harari se refirió a la secta QAnon, un movimiento político afiliado a la extrema derecha en Estados Unidos. QAnon difundió información errónea a través de “Q drop” que sus seguidores consideraban sagradas. La IA y el poder de la intimidad Harari también arrojó luz sobre cómo la IA podría establecer relaciones íntimas con las personas e influir en sus decisiones. "A través de su dominio del lenguaje, la IA podría incluso establecer relaciones íntimas con las personas y utilizar el poder de la intimidad para cambiar nuestras opiniones y visiones del mundo", escribió. Para demostrarlo, citó el ejemplo de Blake Lemoine, un ingeniero de Google que perdió su trabajo después de afirmar públicamente que el chatbot de IA LaMDA se había vuelto sensible. Según el historiador, la controvertida afirmación le costó el puesto a Lemoine. Preguntó si la IA puede influir en las personas para que arriesguen sus puestos de trabajo, ¿qué más podría inducirlas a hacer? Harari también dijo que la intimidad era un arma eficaz en la batalla política de mentes y corazones. Dijo que en los últimos años, las redes sociales se han convertido en un campo de batalla para controlar la atención humana, y la nueva generación de IA puede convencer a la gente de votar por un político en particular o comprar un determinado producto. El autor trazó paralelismos entre la IA actual y las nociones del mundo de las ilusiones del filósofo René Descartes del siglo XVII y la idea de Maya de los sabios budistas e hindúes. Harari destacó la necesidad de regulaciones y citó el ejemplo de la energía nuclear, afirmando que si bien podría producir energía barata, también podría destruir la civilización humana. Sin embargo, a lo largo de los años, hemos reformado el orden internacional para garantizar que la tecnología nuclear se utilice para el bien colectivo. La regulación es clave En su intento por llamar la atención sobre la necesidad de regular la tecnología de IA, Harari dijo que la primera regulación debería ser obligar a la IA a revelar que es una IA. Dijo que era importante poner fin al "despliegue irresponsable" de herramientas de inteligencia artificial en el dominio público y regularlo antes de que nos regule a nosotros. El autor también arrojó luz sobre el hecho de que los sistemas sociales y políticos actuales son incapaces de hacer frente a los desafíos que plantea la IA. Harari enfatizó la necesidad de contar con un marco ético para responder a los desafíos que plantea la IA. El autor ha compartido en numerosas ocasiones sus pensamientos sobre los rápidos avances en la IA. En marzo, Harari escribió un artículo de opinión en The New York Times analizando el rápido progreso y las implicaciones de los chatbots tipo GPT y el futuro de las interacciones humanas. Sostuvo que, si bien GPT-3 había logrado avances notables, estaba lejos de reemplazar las interacciones humanas. También sugirió que la IA podría conducir a una mayor desigualdad, algo a lo que el multimillonario Bill Gates había aludido en su blog. (Por Tech Desk, Editado por Bijin Jose).