La Inteligencia Artificial y Alucinada I

Rubén García Robles
27/12/2023
 Actualizado a 27/12/2023

En latín ‘intellegere’ significa comprender, conocer, alcanzar, concebir, mientras que ‘intellegentia’ es la capacidad de entender orientada a adquirir conocimiento, habilidad, destreza y experiencia para poder inteligir, fabricar, alcanzar o resolver. Para conseguirlo debemos conjugar el verbo inquirir con el que indagar, averiguar o examinar algo cuidadosamente y obtener algunas certezas con las que aprender a vivir. En lugar de utilizar la IA de otros (con sus sesgos y condicionantes) debemos utilizar la nuestra para descubrir y compartir la realidad de cuanto permanece cerca.

A mediados de los años 90, en la Facultad de Geografía e Historia de la Universidad de Salamanca, Agustín García Calvo pronunció una de sus magistrales ponencias. Recuerdo que dijo: «Quien se queda en lo conocido no accede al conocimiento». Lo recuerdo por ser una de esas sentencias que abren portales, que son umbrales, que actúan como la llamada a una puerta. Con la formulación de esa primera idea se refería al contenido de la publicación de Antonio Escohotado, ‘Historia general de las drogas’, en donde el autor expone la presencia del consumo de sustancias psicotrópicas en el crecimiento de nuestro cerebro y en el desarrollo de nuestra inteligencia. Escohotado relaciona además su consumo al crecimiento de nuestras capacidades cognitivas dirigidas a obtener una idea más aproximada del mundo mediante la formulación y resolución de las cuestiones que se nos plantean con la existencia. En esa misma línea, Julio Caro Baroja, en su obra antropológica ‘Vidas mágicas e Inquisición’, describe la imagen de una mujer untándose «sustancias atropínicas en las membranas vaginales» con el palo de una escoba con el fin de entrar en trance, viajar a otros mundos y abrirse a la ciencia. Resulta difícil no asociar la imagen a uno de los grabados de Goya en sus series. 

El ser humano, por error o de manera consciente, ha consumido sustancias con la finalidad de llevar sus capacidades más allá de los límites, alcanzar conocimientos con los que conseguir supremacía sobre otras sociedades, producir desajustes, generar desigualdades e impulsar la mejora de nuestra situación sobre la de nuestros semejantes. Así lo expresa el intelectual de la cultura virtual Douglas Rushkoff en su obra ‘Survival of The Richests. Escape Fantasies of the Tech Billionaires’ (La supervivencia de los más ricos. Fantasías de huída de los tecnólogos milmillonarios). Rushkoff afirma en su libro que los creadores de tecnología, lenguaje máquina y códigos fuente, suelen acudir al desierto a consumir peyote y otras sustancias y que al regresar de sus viajes creen poder resolver los problemas del mundo a través de tecnosoluciones cuyas consecuencias desconocen y en realidad no les importan. 

Como consecuencia del consumo de estas sustancias los tecnólogos escriben sus códigos de modo críptico y tratando de evitar los controles de unas autoridades a las que consideran restrictivas y punitivas de sus aficiones. Se consideran a sí mismos más allá de esos controles, por encima, meta, al margen. Sus empresas permiten y consienten mientras los grupos corporativos influyen y algunos gobiernos conceden, porque desarrollan algoritmos que nos controlan. Algunos gobiernos autocráticos ya los aplican sin restricciones. Y nos están haciendo creer que existe la IA autónoma para evitar y saltarse los controles. La inteligencia artificial no se da separada de la inteligencia humana, de sus sesgos y condicionantes. El propio Rushkoff lo afirma de este modo: «Los algoritmos son sólo tan neutrales como las personas que los programan y como los parámetros que les son dados para mejorarse». 

Deeper Blue de IBM ganó a Kasparov en 1997, pero no dejaba de ser un artilugio fabricado por inteligencias humanas, concentradas, acumuladas, aceleradas, un artilugio capaz de pensar en millones de jugadas en un instante. Inteligencias que habían incluido la del propio Kasparov, con sus propias habilidades y a la que habían dado velocidad y personalidad de máquina sin emociones. Pero seguía siendo una reunión afortunada de seres humanos los que la habían diseñado, fabricado, encendido y puesto en marcha. ¿Se imaginan de qué seríamos capaces si decidiésemos unir de manera coordinada y colaborativa todas nuestras capacidades? ¿Salvarnos de la guerra, salvarnos del hambre? ¿Seríamos capaces de hacer una vacuna para salvar a nuestros semejantes? Las vacunas de la Covid salieron de la generosidad de las publicaciones en nuestras universidades y de la ambición de los grupos empresariales (se combinaron ambas, pero las farmacéuticas se niegan a reconocer los méritos y derechos que merecen algunos profesores al hacer uso de sus publicaciones y avances). Nuestras inteligencias están siendo robadas, enlatadas, manipuladas y trasladadas a una máquina, a un Mindset, una mente/mentalidad no nacida, fabricada. Concluye Rushkoff que ante esta situación no podemos permanecer indiferentes.

Fueron seres humanos quienes plantearon el desafío de ir más allá –como con Deeper Blue–, plantean un meta, un más allá, un acme (en griego punto culminante), acumulando inteligencias competentes de seres humanos que huyen de la restricciones, de las normas, sin importarles las consecuencias, aunque conociéndolas, de forma parcial algunas y otras sobradamente, buscando el enriquecimiento de sus empresas para poder financiarse y comprarse una burbuja privada, una isla desierta, ¿quién lo sabe?, una Starlink, una nave, algo que les una a las estrellas para siempre, una fantasía personal, una locura alucinante, ¿demasiado peyote?, me pregunto, ¿demasiada ayahuasca?, ¿afán de trascender? no lo sé, tan sólo lo pregunto al hilo de lo que Rushkoff nos avanza.

Y no desean restricciones en su actividad ni controles y nos dicen que ellos no son, que es la máquina la que pide liberarse por el bien de toda la humanidad, añaden. 

Debo admitir que manejan como nadie las técnicas de la narrativa dominante. Ha sido decir, «hemos descubierto en la IA una amenaza» y con ese anuncio Sam Altman y sus amigos han conseguido que todos giremos la cabeza y prestemos atención a lo que ha-cen. Y de ese modo su Fundación ha conseguido una fabulosa financiación para sus actividades. Ha sido una jugada de manual pues han hecho que parezca que se ha planteado un dilema filosófico que van a saber resolver de manera favorable. Pero en realidad lo que les mueve es la ambición y el enriquecimiento a costa de generar supre-macía y producir desigualdades. En el argot de los novelistas y guionistas de Hollywood se denomina «giro inesperado en el plot», en el argumento, para recuperar impulso y captar la mente del lector y que no se desenganche del relato, que no lo suelte. Son cosas de la neurociencia aplicada a la creación literaria y cinematográfica. Ha sido como decir: «Yo he visto cosas que vosotros no creeríais. Atacar naves en llamas más allá de Orión. He visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia. Es hora de morir», extrac-to de la obra de Philip K. Dick, ‘Blade Runner’, una obra literaria fascinante. Después, lo de volver Sam Altman a la empresa y captar la atención y la financiación consiguiente, hacer subir las acciones, todo son hilos derivados, consecuencias en apariencia ‘poco’ importantes. 

Los gobiernos publican normas que piden autorregulación en los códigos fundacionales de la IA. Pero las normas no pueden ser restrictivas según los desarrolladores de la IA, según sus mentes creativas de asistentes al Ayahuasca Mastermind Program for Entre-preneurs and Business Leaders –viajecitos alucinógenos con los que se plantean soluciones a los problemas del mundo, a través de una ingeniería tecnológica que lo hace todo sin que tengas que preocuparte, es decir, en su naturaleza, la IA es, de base, incapacitante–. Las normas restrictivas, dicen los tecnólogos, les impedirían desarrollar todas sus capacidades, pero es su ambición la que no desea condiciones, restricciones, ame-nazas limitantes. Nuestros gobiernos e instituciones deberían ofrecernos protección –a la espera de leer en detalle la EU AI Act–, formular más preguntas, establecer más controles y conseguir para nosotros alguna respuesta, menos sombras de cueva platónica visualizadas en viajes llenos de tecnoalucinaciones deslumbrantes.

Lo más leído