La conferencia infinita
Instalación con redes de generación de texto – 2024
Cada día, durante un mes, un modelo de inteligencia artificial entrenado con el contenido del archivo del CCCB escribe compulsivamente una conferencia a lo largo de once horas ininterrumpidas. La instalación se activa cada mañana a partir de un título sugerido por una pensadora, una científica o una creadora.
«La conferencia infinita» funciona a partir de una red de generación de texto entrenada con unos 2.300 vídeos y audios del archivo de debates y conferencias del CCCB. La instalación utiliza este repositorio textual para plantear un experimento sobre la IA y sus usos. ¿Qué valor le damos? ¿Cómo tenemos que entenderla? ¿Qué posibilidades ofrece? ¿Podemos darle veracidad? ¿Qué hace la IA con lo que fagocita? El experimento quiere subrayar las potencias y limitaciones de la escritura estadística para explorar archivos singulares.
«Actos reflejos. Las herramientas de la IA generativa y el archivo» texto de acompañamiento del proyecto publicado en CCCBLab. Investigación e innovación en cultura
Primera fotografía: Alice Brazzit
Descripción de la instalación en el web del CCCB:
Una instalación artística del colectivo Estampa que juega con las posibilidades de la inteligencia artificial. Cada día, durante un mes, un modelo de inteligencia artificial entrenado con el contenido del archivo del CCCB escribe compulsivamente una conferencia a lo largo de once horas ininterrumpidas.
La instalación puede seguirse en el web del CCCB y desde el Patio de les Dones en una pantalla de 32 metros de largo que reproduce en directo el texto que genera el modelo de inteligencia artificial. Se activa cada mañana a partir del título sugerido por un pensador, un científico o un creador bajo la consigna de suscitar una reflexión sobre las cuestiones que nos preocuparán durante los próximos 30 años.
«La conferencia infinita» funciona a partir de una red de generación de texto entrenada con unos 2.300 vídeos y audios del archivo de debates y conferencias del CCCB. A lo largo de treinta años, las conferencias del CCCB han tratado múltiples cuestiones con todo tipo de voces y han acabado conformando una extensa cartografía de las reflexiones, las preocupaciones y los descubrimientos de la contemporaneidad.
La instalación del colectivo artístico Estampa utiliza este repositorio textual para plantear un experimento sobre la IA y sus usos. ¿Qué valor le damos? ¿Cómo tenemos que entenderla? ¿Qué posibilidades ofrece? ¿Podemos darle veracidad? ¿Qué hace la IA con lo que fagocita? El experimento quiere subrayar las potencias y limitaciones de la escritura estadística para explorar archivos singulares.
«La conferencia infinita» está activa durante un mes. Cada día la IA escribe compulsivamente y sin pausa una conferencia que genera a partir de los temas y enunciados propuestos por 30 autores e intentando imitar el archivo del CCCB.
¿Cómo se ha creado «La conferencia infinita»?
Para poner en marcha «La conferencia infinita», el colectivo artístico Estampa ha entrenado una red de generación de texto con la transcripción de las conferencias del archivo del CCCB. Estas redes son sistemas de imitación estadística que, ante un conjunto de ejemplos, buscan soluciones probables para generar otros que se les parezcan. En lo que genera un modelo, siempre trasluce el conjunto de datos de entrenamiento. Temas, motivos, semánticas, expresiones…, todo se mezcla en una herramienta combinatoria que solidifica los datos de entrenamiento, pero que también puede ofrecer resultados inesperados.
A diferencia de los grandes modelos de IA que se están desarrollando actualmente, como ChatGPT, el proyecto de Estampa se plantea como un modelo específico y concreto —la imitación del archivo del centro— y se ha llevado a cabo con un hardware de alto rendimiento, pero disponible a nivel de usuario. Este modo de trabajar responde a la reflexión sobre la necesidad de un uso acotado de estas herramientas, no solo para valorar qué queremos hacer con ellas, sino también, de buen principio, por la huella ecológica. También proviene de un interés por los resultados de estos modelos menores: entrenados con corpus pequeños, son más propensos a las combinaciones improbables. Los grandes modelos imitan la media, producen el resultado estándar; los modelos pequeños fuerzan la combinatoria y, cuando tenemos suerte, aparecen nuevas ideas.