Las posibilidades de la inteligencia artificial y su universo. La adaptación del hombre al poder de las máquinas inteligentes y sus numerosas formas de ayuda y de expansión. Sobre todo ello versa la muestra ‘Más allá de 2001: Odiseas de la inteligencia’, en Espacio hasta el 17 de febrero, que para generar una reflexión más profunda entre los visitantes cuenta con diferentes instalaciones interactivas. Entre ellas se encuentra DATA| ergo sum, una apuesta por sorprender al visitante en 20 segundos. Los necesarios para recoger 20.000 datos sobre él.
DATA| ergo sum significa “soy datos, luego existo” y a través de ella y de manera muy breve, el espectador que visite ‘Más allá de 2001’ va a poder comprobar cómo le ven las máquinas de computación y qué pueden medir.
El planteamiento que recorre la instalación, según palabras de sus propios creadores, “es visibilizar la cantidad de datos que se pueden extraer por una máquina de visión que nos observa y la consiguiente aplicación utilizando tecnologías de inteligencia artificial”. Hablamos con Ana Marcos y Alfonso Villanueva, del colectivo 3Dinteractivo, para conocer más acerca de esta interesante obra.
¿Cómo funciona exactamente DATA| ergo sum?
Funciona a través de un ojo panóptico. La instalación observa y graba el comportamiento de los espectadores sin que ellos sean conscientes de que están proporcionando una cantidad abrumadora de datos; alrededor de 20.000 en tan solo 20 segundos. Este bigdata personal es tratado por algoritmos de IA que interpretan la información en bruto añadiendo capas de valor como las seis emociones que el psicólogo Paul Ekman definió como básicas en su estudio sobre expresiones faciales.
¿Cómo habéis desarrollado esta instalación?
El proyecto ha sido una evolución de trabajos previos. Llevamos trabajando en IA para computación emocional desde 2012. Los retos han estado en la parte visual y en la complejidad de grabar hasta cuatro espectadores de manera simultánea a la vez que se recopilan todos los datos.
«Actualmente los algoritmos de inteligencia artificial no son lo suficientemente hábiles como para tener acceso a nuestra personalidad, pero se van acercando»
¿Cuáles son sus principales objetivos? Es decir, ¿qué busca provocar en el usuario?
En una primera aproximación, la instalación DATA | ergo sum puede provocar alarma al comprender que estamos siendo observados y, por tanto, controlados por sistemas que no sabemos qué hacen con esos datos. Sin embargo, podemos intuir también que se pueden hacer muchísimas cosas que no siempre tienen por qué ser sospechosas o negativas. Para empezar puede estimular nuestra propia experiencia al vernos rodeados de nuestros datos en una representación artística.
¿Somos conscientes de la cantidad de datos que puede generar solo nuestra presencia?
No. Es un campo desconocido por el público en general y tenemos que empezar a ser conscientes y cuidadosos. Actualmente los algoritmos de inteligencia artificial no son lo suficientemente hábiles como para tener acceso a nuestra personalidad, pero se van acercando y tenemos que pensar qué queremos hacer con estas habilidades que las máquinas van a tener en el futuro.
¿A qué podemos llamar bigdata personal? ¿E identidad digital?
La identidad digital se define en la actualidad por la huella que dejamos en todos los sistemas informáticos sean redes sociales, foros, etc.
Para un artista, la identidad digital se puede extender a otros conceptos más abstractos: por ejemplo, nuestra instalación THE FLY muestra la coreografía que el ratón del ordenador deja al ser manejado navegando por internet. Este baile de alguna manera también nos retrata, forma parte de nuestra identidad. Además, esta información es muy valiosa; se usa para diseñar y colocar publicidad e información en las aplicaciones (a más posibilidades de clic, más valor).
El bigdata personal es un término que nos hemos inventado para dar una idea de la proporción y cantidad de datos que podemos aportar y que ya leen las máquinas sobre nuestro comportamiento. En nuestra instalación, mostramos este hecho mediante un planteamiento estético.
La investigación en inteligencia artificial se está desarrollando en varias direcciones. Una de ellas es justo la mejora de la deducción de emociones y la incorporación del lenguaje corporal. ¿Llegarán las máquinas a simular emociones humanas?
De momento ya han aprendido a identificarlas con un alto nivel de exactitud. La computación afectiva, que es como se llama a este campo, está desarrollándose actualmente para aplicaciones de asistencia personal, en robótica, etc. No sabemos hasta dónde se va a llegar. El grado de simulación va a ser tan alto que nos preguntaremos si podemos seguir asumiendo que las emociones solo son humanas.
Los músculos o las facciones de la cara muchas veces pueden no expresar sentimientos reales. ¿Deben las máquinas saber cuándo los humanos fingen? ¿Existe un vacío en ese sentido?
Lo que los estudios de P. Ekman mostraron es que cuando actuamos de forma espontánea, las expresiones faciales son un espejo preciso de las emociones que experimentamos. Por supuesto es posible fingir, y hay personas especialmente hábiles ocultando sus emociones y alterando de manera consciente sus expresiones (por ejemplo, los actores profesionales están acostumbrados a hacerlo). Pero, por muy entrenado que se esté en fingir, es imposible evitar las micro-expresiones faciales, cambios muy rápidos que pueden durar solo unos milisegundos, ya que actúan a nivel subconsciente. Los sistemas IA deducen las emociones analizando imágenes de la cara y no ven nuestro interior (cómo nos sentimos realmente), por lo que es posible engañarles, pero son muy buenos detectando las micro-expresiones, que pueden pasar desapercibidas para el ojo humano, y sacar conclusiones.
Estos sistemas IA están aprendiendo rápido, ya que son alimentados con millones de imágenes de caras mostrando emoción. Cada vez son mejores detectando cambios sutiles de expresión y deduciendo las emociones subyacentes, pero a pesar de todo ningún sistema digital es infalible. Siempre hay errores de interpretación.
«La palabra artificial es un término cuyo origen es “ars facere”, que significa hacer arte, por lo que podemos sugerir: “IA, Inteligencia que hace Arte»
Esta instalación es también una reflexión sobre la unión entre creatividad y arte con inteligencia artificial. ¿Qué es exactamente AIA?
No olvidemos que la palabra artificial es un término cuyo origen es “ars facere”, que significa hacer arte, por lo que podemos sugerir: “IA, inteligencia que hace arte”
AIA es, por tanto, Artista con Inteligencia Artificial. Ya tenemos artistas que son computadores, y no nos cabe duda de que tendremos artistas virtuales que competirán con los artistas humanos. Este hecho merece una reflexión y es posible que los artistas tengamos que evolucionar.
Puede parecer que el artista pierde peso a favor de la ciencia en este tipo de proyectos, ¿es así?
[Ana] Me considero artista antes que ingeniero. Tanto Iury Lech – el artista sonoro que ha compuesto y diseñado el espacio sonoro de la instalación- como nosotros llevamos muchos años en el mundo de los new media. Alfonso es el más ingeniero de todos y esto nos da una buena combinación. Independientemente de nuestros perfiles, estamos todos de acuerdo en que la IA es una tecnología que hay que poner bajo el foco de la disciplina del arte.
Entonces el arte, ¿encuentra hoy en la tecnología (IA) una nueva herramienta para ir más allá?
El arte siempre se abre paso en el pensamiento y por ello también en la tecnología. Sea una herramienta o disciplina, es -y va a ser- un tema de trabajo para los artistas. No es común porque se necesitan conocimientos muy especializados y quienes tienen este perfil están en el sector tecnológico, pero siempre hay personas que se aproximan al mundo del arte porque encuentran un espacio de libertad para hacer lo que quieren sin pensar en productos, solo en ideas.
*Instalación audiovisual interactiva
Año: 2018
Disposición espacial en dos salas.
Banda sonora: DATA [ Vox ergo sum]. 30 min.
Colectivo 3Dinteractivo
(Ana Marcos, Alfonso Villanueva y Iury Lech)
Por Ylenia Álvarez