#Sonar+D2017N2 (¿realidad?)

#Sonar+DN2: de creativos, inteligencia artificial y realidad virtual.

 

Ya hace mucho que la figura del copywriter ha trascendido. Ya no está todo hecho explicando el producto, hay que fusionarse con el consumidor. Personalizar “su” experiencia. Para ello, conseguir datos de su rutina es básico, pero también experimentar con ellos, proyectar su significado. Y encontrar el producto que satisfaga al cliente. Y es que “los millennials ya no están interesados en una marca, sino en las interfaces, en las experiencias”, explican Ilia Uvarov y Lucio Rufo de R/GA. Lo están en lo que les haga sentir identificados con su “yo”, con la imagen que desean proyectar.

Por eso, la agencia habla de la evolución de su trabajo. De cómo se han convertido en una agencia de creatividad, no ya de publicidad. De cómo se han convertido en partners de sus empresas cliente, investigando junto a ellas cómo llegar de forma más eficiente a las emociones de sus consumidores. Hablan del proyecto, en fase de testeo en Alemania, de Nike On Demand: una aplicación que permite enviar whatsapps personalizados al deportista, dándole información sobre rutas que le permitan conseguir su objetivo diario, animándole a superarse y, en definitiva, convirtiéndose en un aliado más que un programa. Otro ejemplo: cómo consiguieron la identificación de la comunidad con los auriculares Beats, a partir de potenciar su uso por parte de los atletas en los Juegos Olímpicos de Londres en 2012, identificando la marca, y el producto, con un estilo de vida.

Productos y comportamientos. Pero… ¿cómo estudiar los comportamientos de la forma más individualizada posible para encontrar soluciones a las demandas de una comunidad global?

Con Inteligencia Artificial.

Los de R/GA lo tienen claro: la inteligencia artificial no es una amenaza para los diseñadores creativos, es una potente herramienta. “La gente quiere el toque humano (…). Los robots serán storytellers, pero de un tipo específico. Se automatizarán ciertas tareas como las adaptaciones de banners, etc., pero se necesitarán personas pensando… porque una máquina no podrá combinar el talento, con las ganas de superación”.

Pero, tras la charla de representantes de distintos proyectos de Google (Magenta – Douglas Eck y Adam Roberts; AMI – Kenric McDowell; Arts&Culture Lab – Freya Murray)… no estamos tan seguros de ello.

Deep Dream es un algoritmo de Google para procesar imágenes que demuestra que arte y tecnología no sólo están conectados, sino que la tecnología es ya una extensión de nuestro propio yo. El complejo sistema, explicado de forma muy muy simplificada, se creó para ayudar a científicos e ingenieros a conocer cuáles son los procesos neuronales que se activan para reconocer una imagen, y de esta forma, además, ponerles en contacto con artistas para hacer evolucionar el programa en base a las necesidades de esta comunidad.

 

 

El sistema traduce la imagen que recibe en vectores, que luego transforma en la información que acaba devolviendo a la persona (o máquina) con la que está interactuando). La propuesta, en colaboración con artistas residentes en el laboratorio de investigación de Google Arts&Culture como Memo Akten, puede ofrecer resultados tan inspiradores como el proyecto X Degrees of Separation:

El artista llegó a preguntarse si el sistema podría encontrar un patrón que relacionase obras de arte dispares (pintura, escultura, etc.) indicando un origen y un final. El objetivo es loable: no únicamente es un interesante experimento (¿cuántos grados de separación pueden establecerse entre obras procedentes de distintas culturas y edades?), sino que puede dar a conocer a una persona obras que de las que nunca hubiese oído hablar de otra forma, y que seguro le resultan interesantes. Ahí el trabajo de Google Arts&Culture también es básico, ya que gracias a su casi ilimitada indexación dispone de un catálogo universal que puede proporcionar todo tipo de información acerca de la ubicación, artista, época, etc. de las obras relacionadas, sin salir de casa.

 

 

“Si vas a un museo hay lucha cultura de la q no has oído hablar. Este mecanismo permite conocer imágenes en medio que nunca había conocido”, comenta entusiasmado Memo Akten, a la vez que confiesa que está aprendiendo cómo aprende la máquina y, más importante… “quiero que la máquina genere nuevas cosas”. Interesante que el propio artista demande esto, ya que enlaza completamente con la pregunta que se hizo Google Research:

¿Pueden las máquinas ser creativas?

La respuesta a la que llega la que suscribe este texto es que sí. Y, de hecho… que pueden ser originales. Con suficiente información.

¿Parece una contradicción?

El ser humano está rodeado de inputs. Imágenes de la naturaleza, del día a día… los artistas beben de esta información y acaban creando piezas únicas, ¿verdad? Pero parten de un entorno concreto, de una información también vivida y procesada. Como hace la máquina con Deep Dream.

Entonces…

Si la máquina es capaz de aprender con este algoritmo, de interpretar un patrón, es muy posible que, habiendo sido nutrida con millones y millones de obras de arte, acabe por generar algo completamente único.

Neurografía para inteligencia artificial.

Memo Akten argumentaba que “la máquina genera, pero siempre será el ser humano el que deba decidir si lo creado le parece interesante”. Correcto… si le quitamos el “siempre”.

¿No llegará un momento que sea otra máquina la que pueda juzgar?

En cualquier caso, esa creación ya ha llegado… por ahora al servicio, sí, del ser humano. El artista presentaba también el proyecto #MyArtificalMuse: si a la máquina se la hace trabajar al revés, es decir, que nos devuelva una imagen a partir de lo procesado… ¿es arte lo que se obtiene? Rotundamente sí, luego comentaremos cómo pero, a bote pronto, ese “arte” que devuelve lo utiliza Akten com inspiración: insertando varias imágenes de poses de mujeres, al máquina devuelve su particular visión… que puede convertirse en una irreal, pero magnífica, musa:

 

 

Con todo esto, una de las preguntas del público se convierte en fundamental: ¿qué pasa con los datos que no tiene almacenados el sistema? ¿qué pasa con la “inteligencia” que no está en bases de datos?

Quizá sea la “baza” que nos acabaremos guardando por miedo a que el robot nos acabe relevando.

Pero esa baza acabará siendo superada, y con creces, si las máquinas aprenden al ritmo conseguido con los proyectos de AMI (Artists and Machine Intelligence Program).

“Las herramientas cambian el cerebro”. Así comienza Kenric McDowell su interesante conferencia, y detalla cómo funciona Deep Dream y las “alucinaciones” que devuelve la máquina ya que, por ejemplo, “la imagen a partir de la máquina no es un pájaro, porque la máquina no lee [ni interpreta] como nosotros”.

Pero lo que puede llegar a devolver es magnífico.

 

 

No únicamente es posible trabajar con imágenes, también con escritos. El “Al Poetry Hits the Road” demuestra que la máquina, al procesar la información de su entorno, es capaz de crear poemas increíbles:

 

 

Y de los escritos, cómo no, a la música. El proyecto Magenta proporciona programas para artistas en los que la máquina propone sonidos que mezclan el resultado de notas de distintos instrumentos combinados, generando propuestas inimaginables que sirven de inspiración, y base, a grupos. El sistema transforma en sonidos las interpretaciones que realiza sobre la información introducida, que pueden ser imágenes, o símbolos:

 

 

Para terminar con las herramientas de inteligencia artificial, nada mejor que las reflexiones del artista Darius Kazemi, que lanzó mensajes tan contundentes como que “en un cultura digital es necesario un dios digital”. Defendiendo que los artistas deben encontrar un objetivo en la interpretación del arte actual, acabó sentenciando, en referencia a la llegada de la inteligencia artificial y a los robots, que “estamos proyectando nuestros propios miedos, porque nosotros, los humanos, hemos sido siempre depredadores”.

Pensamos que nuestra creación va a imitarnos, a convertirse también en un depredador capaz de destruirnos. ¿Nada más lejos de la realidad?

Pero, ¿qué realidad?

Entramos en los avances de la Realidad Virtual.

Realidad virtual… ¿sólo para jugar?

Jessica Brillhart habla de “mundos y visitantes” cuando se refiere a la complejidad de comprender el funcionamiento de los films en realidad virtual (RV).

La base de la RV, como en cualquier film, es el frame, el marco, el encuadre. Pero aquí, el encuadre no es rectangular, sino circular. De esta forma, el espectador se convierte en visitante de un mundo alternativo que, como el “real”, se mueve en 360º y, por tanto, es muy importante considerar que en cualquier momento el visitante debe ser capaz, también, de encontrar cosas interesantes que ocurran detrás de él y, además, es importante ofrecer (y por tanto, pensar) ideas más allá de lo que usualmente se encuentra. Por ejemplo: en un espacio en el que el visitante está en una montaña nevada, es importante saber en qué punto se va a colocar la única otra persona con la que va a interactuar, a la que va a descubrir tras estar rodeado de rocas y nieve. El objeto importante es la otra persona, pero no debe ser descubierta desde el inicio. Por otro lado, cuando el encuadre está lleno de cosas interesantes (por ejemplo, se sitúa al visitante en el interior de un funicular lleno de gente y ventanas), es importante tener en cuenta todos los puntos en los que puede fijarse y, por qué no, conectarlo con otro mundo irreal.

¿Qué pasa si se queda mirando por una de las ventanas al infinito nevado? ¿Por qué no llevarle a una cuadra de caballos?

La idea es sorprendente, y brillante. Utilizar la RV no únicamente para situarnos en un entorno que no es el espacio “real”, sino que el film se convierta en una ficción que haga volar nuestra imaginación.

Un mundo irreal dentro de otro mundo “irreal”.

Y, finalmente, otro ejemplo interesante: el trabajo de Gabo Arora.

El director de cine y director creativo de Naciones Unidas Gabo Arora ha llevado a cabo múltiples proyectos en realidad virtual, y su trabajo destaca por alejarse de lo que actualmente relacionamos con esta tecnología: el entretenimiento puro deja paso a la necesidad de utilizar esta tecnología para hacer vivir al “visitante” experiencias reales, que marquen sus convicciones y visión del mundo. Porque… ¿es posible que un proyecto de realidad virtual nos haga conscientes, de una vez, del horros de la guerra? Según comenta, la guerra de Vietnam fue la primera retransmitida por televisión. Desde entonces estamos siendo informados en streaming, a través de youtube… nos hemos acostumbrado tanto a “ver” dolor y atrocidades que estamos inmunizados. Entonces, ¿por qué no probar con “vivir” la guerra, o sus consecuencias?

Entre los proyectos de Arora se encuentran propuestas tan interesantes como My Mother’s Wing (Íd., 2014), sobre Gaza, o The Last Goodbye (Íd., 2017), un documento imprescindible para preservar la memoria sobre el Holocausto.

 

 

Apasionada del cine y en especial del subgénero de viajes en el tiempo, estudia un Máster en crítica cinematográfica (2008-2009) y se convierte en redactora en El Espectador Imaginario hasta 2011, año en el que cofunda Cine Divergente. Redactora en Miradas de cine desde 2013 y cocoordinadora de su sección de Actualidad desde 2016, además de ser miembro de la ACCEC (Asociación de Catalana de Críticos y Escritores Cinematográficos) desde 2014, en los últimos años ha publicado críticas y ensayos cinematográficos, cubierto festivales, participado en programas radiofónicos especializados y colaborado en el libro Steampunk Cinema (Ed. Tyrannosaurus Books, 2013). Ahora, con La Realidad No Existe, quiere demostrar que "la" realidad no existe y es producto de nuestra imaginación.

Un comentario en “#Sonar+D2017N2 (¿realidad?)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *