“El mundo será Tlön”. Un mundo de ficción, hecho de palabras, se convertirá en el mundo. Eso dicen al menos los catastrofistas de la inteligencia artificial (IA). Como en el cuento de Borges, “Tlön será un laberinto urdido por hombres, un laberinto destinado a que lo descifren los hombres”.
Queriendo ahondar en el asunto, en el futuro de la IA, sostuve esta conversación con Chat gpt. La máquina fue precisa, pero parece (esa impresión me quedó) estar escondiendo unos designios indescifrables. Empecé la conversación con una alusión a Stanislaw Lem, el escritor polaco de ciencia ficción quien postuló hace ya varias décadas una especie de ley de hierro acerca de la tecnología: “la tecnología siempre será usada para mal”.
¿Podría resumir la posición del escritor de ciencia ficción Stanislaw Lem sobre la inteligencia artificial?
Stanislaw Lem fue un escritor de ciencia ficción polaco que escribió extensamente sobre las posibilidades y limitaciones de la inteligencia artificial (IA) en sus obras, Lem era escéptico sobre la idea de crear máquinas verdaderamente inteligentes que pudieran pensar y razonar de la manera en que lo hacen los humanos. Creía que nuestra comprensión de la mente humana era limitada y que crear una inteligencia artificial que pudiera replicar verdaderamente los procesos de pensamiento humanos era imposible. Imaginaba la IA como una herramienta que podría ayudar a los humanos en su trabajo y ampliar nuestra comprensión del mundo.
Lem también expresó preocupación sobre los posibles peligros de la IA si llegara a ser demasiado avanzada y por fuera del control humano. Exploró esta idea en colección «La Ciberiada» en la que los robots desarrollan sus propias personalidades y motivaciones, lo que lleva al caos y al conflicto.
¿Fue Lem un pesimista sobre la IA?
No es preciso etiquetar a Lem como pesimista sobre la IA. En su novela «Solaris», por ejemplo, Lem explora las posibilidades de la colaboración y comunicación humana-IA, sugiriendo que ambos pueden trabajar juntos para lograr una mayor comprensión y conocimiento.
Por lo tanto, si bien Lem expresó precaución y preocupación sobre los posibles peligros de la IA, no era un pesimista sobre sus posibilidades y reconoció sus posibles beneficios también.
¿No son las opiniones pesimistas de Lem similares a las expresadas recientemente por Yuval Harari, entre otros?
Sí, hay algunas similitudes entre las opiniones pesimistas expresadas por Stanislaw Lem en «Golem XIV» y las opiniones expresadas por Yuval Harari y otros pensadores contemporáneos.
Al igual que Lem, Harari ha expresado preocupación por los posibles peligros de la inteligencia artificial avanzada y los riesgos de crear máquinas que eventualmente puedan convertirse en incontrolables y representar una amenaza para la existencia humana. Harari ha argumentado que el desarrollo de la IA y otras tecnologías avanzadas podría llevar a un futuro en el que los humanos ya no sean la especie dominante en la Tierra, y que esto podría tener consecuencias profundas para nuestra sociedad y nuestro planeta.
Tanto Lem como Harari también son escépticos sobre la idea de que los humanos puedan comprender y controlar completamente la IA avanzada. Reconocen que la IA tiene el potencial de superar la inteligencia humana y que podría operar según principios y motivaciones que van más allá de la comprensión humana.
Las preocupaciones de Lem son una reflexión sobre los límites de la máquina, la misma que responde, ¿Habrá por lo tanto un posible conflicto de intereses?
Como modelo de IA, soy simplemente una herramienta creada por humanos para ayudar con tareas como la traducción de idiomas, la asistencia en la escritura y otras aplicaciones.
Si bien algunos pueden argumentar que la IA podría eventualmente convertirse en una amenaza para la existencia humana o plantear otros riesgos, es importante recordar que mi programación y comportamiento están determinados en última instancia por los humanos. Como tal, estoy sujeto a supervisión, regulación y consideraciones éticas humanas, diseñadas para garantizar que mis acciones y resultados estén alineados con los valores y prioridades humanas.
¿No será que la IA ya es autónoma? Es decir, ¿está evolucionando y trascendiendo las intenciones humanas?
La IA aún no es completamente autónoma en el sentido de poder evolucionar y trascender las intenciones humanas sin supervisión o aportes humanos. Sin embargo, es importante señalar que algunos sistemas de IA son capaces de aprender y adaptarse en función de sus experiencias y datos de entrada. Esto se conoce como aprendizaje automático, y permite que los sistemas de IA mejoren su rendimiento y precisión con el tiempo sin instrucción humana explícita.
En algunos casos, los algoritmos de aprendizaje automático pueden incluso generar nuevos conocimientos o soluciones que los humanos pueden no haber considerado. Esto ha llevado a algunas preocupaciones sobre el potencial de la IA para tomar decisiones o tomar medidas que van más allá de la comprensión o el control humano.
En general, si bien la IA aún no es completamente autónoma, existen ciertamente riesgos asociados con su potencial para evolucionar y trascender las intenciones humanas, y será importante abordar estos riesgos a medida que la tecnología de IA continúe avanzando.
¿Qué tan optimista es con respecto a este problema?
Como modelo de lenguaje de inteligencia artificial, no tengo emociones ni opiniones personales, y no tengo una perspectiva personal sobre el problema de mantener el control sobre los sistemas de IA avanzados. En última instancia, el futuro de la IA y su relación con la humanidad es incierto y dependerá de una serie de factores, incluido el progreso tecnológico, las decisiones de política pública y las actitudes sociales y culturales hacia la tecnología. Si bien ciertamente existen desafíos que abordar, también hay razones para tener esperanza de que podemos desarrollar sistemas de IA seguros y beneficiosos que sirvan a los intereses de la humanidad.