El futuro ya está aquí. Ya es posible conocer qué sentimos ante determinados estimulos. El Instituto Fraunhofer de Circuitos Integrados ha conseguido descifrar el intrincado misterio de las emociones humanas, todo ello gracias a una app de las populares "Google Glass".
Los responsables de tamaño avance hacían mención a sus posibilidades. Éstas pueden ir desde la seguridad vial, con la capacidad para detectar somnolencia en el conductor, hasta para ayudar a personas con discapacidad, e incluso contribuir a la socialización de los autistas.
Conseguir leer la mente humana, y reconocer qué sentimos y pensamos son objetivos que cautivan sobremanera a los científicos. Unos conocimientos cuya aplicación es inimaginable.
Hace tan solo unos meses, nos aventurábamos a conjeturar acerca de la posibilidad de que las propias Google Glass fueran capaces de analizar nuestras emociones y cómo se podría extrapolar a la publicidad y estrategias de ventas.
Así, hablábamos de las posibilidades que tendría utilizar la información aportada por nuestras emociones, percepciones y perfil personal, para que las marcas pudieran presentarnos mensajes orientados a nuestras características específicas.
Todo ello unido a la geolocalización, nuestro histórico de comportamiento y de navegación. ¿Se imaginan ustedes que, mientras vamos caminando tranquilamente por la calle, una cadena de restaurantes nos presentara una oferta para comer a mediodía, para disfrutar justo a la vuelta de la esquina? ¿o que servicios de música online, Spotify cambiara automáticamente de Playlist, en función de si te sintieras triste o eufórico?
Tengamos en cuenta que prácticamente entre el 70 y el 80 por ciento de nuestras decisiones son impulsos debidos a estímulos sensoriales. Por ello, las propuestas aportadas en función de nuestro deambular por una galería comercial sería todo un espectáculo para los sentidos.