Memoria Sináptica

[ES] [EN]

Abstract

‘Memoria Sináptica’ es un proyecto de creación y producción de una instalación inmersiva, propia del ámbito de los Nuevos Medios, que se ubica en una intersección entre el Arte Interactivo, el Arte Sonoro y las Artes Mediales, y se plantea en una relación con el conocimiento científico a partir de un uso reflexivo y estético de las nuevas tecnologías, con intensión crítica y experimental. Partiendo de una idea germinal, borradores y maquetas, se busca desarrollar un proceso creativo más profundo, que involucra una conceptualización detallada en términos teóricos y también prácticos. Para su materialización es necesario realizar etapas de diseño, preparación, construcción y programación, para las cuales se requiere dedicar tiempo a la investigación y experimentación.

 

 fig 1

 

El objeto físico central -hardware- de ‘Memoria Sináptica’ es un sensor de proximidad de 6 u 8 canales, con forma de disco, de diámetro aproximado de 20 cm, y 10 cm de alto, diseñado para ser construido con placas Arduino (al centro, en rojo, figura 1).  Este objeto opera como radar, es decir, detecta y ubica en el espacio los objetos dispuestos a su alrededor. El artefacto, de alimentación eléctrica independiente, está pensado para ser ubicado al centro de una mesa de altura común -idealmente circular, puesta al centro de una sala vacía (figura 2)-, desde donde se comunica mediante Wi-Fi con un ordenador, fuera de “escena”. A su alrededor se disponen 6 u 8 objetos físicos a ser manipulados por el visitante, siendo la función de estos objetos intervenir en la medición de proximidad de cada uno de los sensores, interactuando de este modo el visitante con la instalación (objetos representados por circunferencias de colores en figura 1).

 

 fig 2. Sketch 3D

Este flujo de datos de proximidad es recibido y procesado en tiempo real en el ordenador mediante Max/Msp, donde se realizan diversos tipos de síntesis de audio -aditiva, sustractiva, en anillo, granular, etc.-, y se gatillan otro tipo de eventos sonoros. Luego, ya como audio, se reenvía la señal por 4 canales hacia las 4 esquinas de la sala. Por otra parte, los mismos datos de los sensores de proximidad, sumados a la data raw de audio, ahora en Gitter, son utilizados para realizar procesos sobre colores, formas, imágenes sintéticas y pregrabadas, y reenviados como imagen hacia un proyector que interviene e ilumina la escena desde arriba, al centro. 

Tanto el sonido como la imagen, que envuelven al visitante, resultan depender entonces del modo o los modos en que el mismo visitante mueva los objetos sobre la mesa, actuando en tiempo real sobre el resultado audiovisual en el que está inmerso.

fig 3. Prototipo 2020