Asistentes de Voz para la Exploración Accesible de Exposiciones

Asistentes de Voz para la Exploración Accesible de Exposiciones

 

Piensa en tu última visita a un museo. Podría haber sido un museo de arte, de historia natural o de ciencia. Si bien es posible que tengas otros recuerdos sensoriales de tu exploración de los espacios de exposición del museo, gran parte de la información que asimilaste probablemente era de naturaleza visual. Podrías haber estado, por ejemplo,  recorriendo los espacios públicos del museo, observando los objetos dentro de las vitrinas y siendo consciente de su configuración espacial. Probablemente, los objetos estaban dispuestos de una manera visualmente atractiva, quizás incluso retadora, pero completamente inaccesibles al tacto. La gráfica plana de la exposición, o una audioguía, podrían haber proporcionado un conjunto limitado de detalles adicionales sobre los orígenes del objeto, del creador o de su importancia cultural, pero es fácil que no te proporcionara la suficiente información sobre el contenido de la exposición como para poder generar un mapa o modelo conceptual adecuado sin el uso de tu visión.

Un aspecto crítico de la visita al museo es la capacidad de poder explorar libremente sus espacios de exposiciones de acuerdo con los propios intereses, estableciendo conexiones entre las experiencias personales vividas y el contexto histórico y / o estético de las colecciones. A pesar de los muchos intentos por lograr que los museos de todo tipo sean más accesibles para los visitantes, todavía hay relativamente pocas soluciones que se centren en el problema de estandarizar el lenguaje espacial para múltiples niveles de descripciones de contextos, necesarios para un entorno de museo. La navegación interior y la exploración de los museos presentan desafíos únicos para los usuarios por varias razones:

  • Los museos son ambientes interiores dinámicos: sus espacios están diseñados para ser reconfigurados regularmente ya que los objetos de las galerías cambian constantemente.
  • Los museos requieren que los visitantes exploren espacios para construir significados: la independencia de movimiento a través del entorno de un museo es la mejor manera de que los visitantes conecten con las exposiciones del museo para desarrollar conexiones personales entre éstas y los objetos.
  • Se necesitarían múltiples capas de descripciones espaciales para la exploración no visual del entorno de un museo: los visitantes requerirían diferentes niveles de detalle para obtener información en lenguaje natural sobre el recorrido, la galería y los objetos de la exposición.
  • Las bases de datos de las colecciones de museos no están diseñadas para vincular directamente la información del espacio de la galería a la de los objetos de exhibición: la mayoría de los museos se basan en sistemas de bases de datos relacionales estandarizados diseñados para almacenar información para la publicación web, la conservación de objetos y la gestión de activos digitales. Sin embargo, esa información aparece desconectada de la ubicación y configuración espacial de dichos objetos en el espacio físico. Estos sistemas de información de museos existentes no están diseñados para integrar datos de seguimiento, navegación, consultas y comandos de «interfaz de asistente de voz en lenguaje natural».

Los desafíos adicionales para la creación de aplicaciones de tecnología de asistentes de voz giran en torno a diferentes factores:

  1. Recopilar, almacenar y representar los niveles espaciales del interior y los objetos que se hallan dentro.
  2. La necesidad de rastrear al visitante dentro del espacio interior para proporcionar información geolocalizada.
  3. Un conjunto estandarizado de descripciones no visuales que representan diferentes escalas y dimensiones espaciales; la complejidad del sistema variará según la naturaleza de los propios museos, como edificios con espacios públicos y privados diseñados con diversas funciones, recorridos y reglas sobre las interacciones de los visitantes con las galerías dinámicas y los objetos cambiantes dentro de ellas.

A menudo, son precisamente las características únicas de los museos las que los hacen espacios poco atractivos o inaccesibles para los visitantes que quieran explorar sus exposiciones, pero so conscientes de que no pueden hacerlo sin contar con importantes apoyos adicionales. En algunos casos, los costos que suponen proporcionar este tipo de asistencia están más allá del alcance de sus modestos presuestos, a pesar del deseo de su personal para crear espacios accesibles para todo el público visitante, sin excepción.

La creación de nuevas tecnologías de acceso a la información está permitiendo la exploración de entornos interiores, como aeropuertos, centros comerciales y hospitales. Los avances en la tecnología de posicionamiento de ubicación en interiores han mejorado significativamente en los últimos cinco años, debido al desarrollo de sistemas híbridos que utilizan dispositivos inteligentes para recibir y enviar señales de una combinación de fuentes como wifi, beacons y códigos QR. Estos sistemas proporcionan un mecanismo para que el individuo sea rastreado dentro del ambiente interior a nivel del edificio y de la sala, mientras recibe direcciones de ruta no visuales para navegar y explorar el espacio interior.

Sin embargo, dentro de un entorno de museo, este tipo de información rara vez está disponible y, si es así, probablemente requiera apoyo adicional de una persona en tiempo real que ayude a recorrer y describir el espacio y los objetos. Estos sistemas de apoyo basados ​​en el audio, si bien son útiles, disminuyen la independencia y conllevan costos de suscripción tanto para el usuario como para el museo; por ello, resultan relativamente raros y no realistas para su implementación en la mayoría de los museos de tamaño mediano y pequeño. Como ejemplo, unos investigadores llevaron a cabo un estudio a gran escala de las características de accesibilidad en 28 museos, ubicados en varias ciudades europeas importantes. Los resultados se visualizaron en una matriz para demostrar qué tipos de estrategias de accesibilidad se utilizaron en los museos en base a 35 posibles estrategias de accesibilidad. Los investigadores encontraron que menos de la mitad de los museos sometidos a estudio tenían algún soporte de accesibilidad no visual disponible. Tres cuartas partes contaban con soportes de asistencia con más probabilidades de implementar características de accesibilidad no visual para navegar solo por el edificio del museo, en lugar de acceder a información sobre los espacios de exposiciones reales y sus colecciones. Los museos informaron de su intención de evitar la implementación de representaciones táctiles debido a los costos y de que, en general, utilizaban un nivel mínimo de información descriptiva en sus audioguías que reproducían el mismo audio para los visitantes invidentes que para los que no lo eran. Esta información replicada se creó para un público vidente que podía hacer referencia visual a los exhibido mientras leían la placa o escuchaban la audioguía.

Hay esfuerzos renovados para involucrar mejor a los visitantes que requieren información de objetos y ubicación en lenguaje natural aumentado. Un enfoque ha sido asociarse con visitantes como co-diseñadores de exposiciones con el fin de generar nuevos conocimientos sobre las soluciones de accesibilidad de los museos. En un estudio reciente, los autores preguntaron a los participantes de los grupos focales sobre el tipo de apoyo que creían necesario para explorar de forma independiente el entorno de un museo. En algunos casos, indicaron que nunca habían visitado un museo de forma independiente, debido a la incapacidad de saber dónde navegar dentro del mismo sin tener que depender de otra persona para obtener ayuda. Aquellos que habían visitado museos anteriormente, manifestaron haber experimentado dos barreras de accesibilidad principales:

  1. Problemas de navegación en interiores.
  2. Información inaccesible sobre los objetos de la exposición.

Los participantes también declararon que, aunque muchos museos proporcionan libros de exhibición en Braille o información de audioguías sobre los objetos de la exposición, sin descripciones espaciales detalladas sobre los espacios de la galería o de los objetos, no pudieron formarse un modelo conceptual adecuado con la información mínima que aparecía en las descripciones de la placa.

Asimismo, reconocieron estar más interesados ​​en tener cierto control sobre su experiencia de visita al museo y sobre los diferentes tipos de información referente al espacio a los que podían acceder. Concretamente, los participantes indicaron su deseo de contar con una aplicación accesible que pudieran usar en su tiempo libre, con información de navegación interior y con descripciones detalladas de los objetos y sus ubicaciones dentro de los espacios de la galería. Las entrevistas realizadas para el proyecto descrito respaldan estas ideas de los usuarios y sugerencias de requisitos del sistema. Otros estudios exploraron asociaciones de co-creación entre musicólogos/as y miembros de la comunidad para crear entornos intelectuales más inclusivos y atractivos. Como resultado, se desarrolló un conjunto de pautas para ayudar a los museos en la implementación de exposiciones co-diseñadas, con el fin de aumentar la accesibilidad en sus salas.

La gran cantidad de bibliografía sobre navegación en recorridos y descripción de escenas proporciona orientación adicional para el diseño de soportes de museos, que demuestra que los individuos construimos representaciones espaciales que reflejan necesidades, capacidades sensoriales y objetivos individualizados. El procesamiento cognitivo del espacio se utiliza para una variedad de tareas cotidianas, como la búsqueda de caminos y la navegación, la interpretación de representaciones simbólicas visuales (p. Ej., Mapas), el uso de lenguaje espacial no icónico (p. Ej., Direcciones de ruta verbales) y la formación de modelos mentales cognitivos. Las descripciones de escenas interiores están diseñadas específicamente para comunicar información espacial sobre entidades que se hallan en entornos interiores. La anotación automatizada de información sobre estos entornos ha sido impulsada por innovaciones como las descripciones de escenas para su uso en automatización robótica, aplicaciones de navegación interior y servicios basados ​​en la ubicación para espacios públicos interiores. Comprender cómo las personas conceptualizan y comunican las relaciones de objetos en tipos específicos de espacios interiores (aeropuertos, hospitales, centros comerciales y museos), sigue siendo un problema difícil para estos sistemas y algoritmos automatizados, debido a la importancia del contexto para las señales espaciales y la determinación del mismo. Las complejidades del lenguaje espacial en interiores se ponen de manifiesto en estudios de la formación de vocabularios estructurados para describir escenas interiores, los roles que juegan los objetos de estructura física (por ejemplo, paredes, ventanas, puertas, etc.) en las descripciones de escenas interiores, y la percepción y comunicación de las relaciones espaciales en el espacio.

Recientemente ha aparecido un movimiento para mejorar el acceso a la información en línea de las colecciones de los museos, a través de descripciones de texto sobre los objetos de las exposiciones. En algunos casos, esas descripciones verbales mejoradas en línea de objetos individuales dentro de la colección brindan información que se encuentra en la mayoría de las cartelas (artista, procedencia, título, medio artístico, dimensiones espaciales, propietario del objeto, etc.). Sin embargo, además de la información habitual sobre la cartela, suele haber una descripción más larga que ayuda a orientar al observador hacia las características del objeto. Generalmente, utiliza un lenguaje vívido y específico que describe los conceptos visuales con otras analogías sensoriales y proporciona información contextual sobre el significado histórico y social de la obra. Una de las soluciones aportadas es la aplicación de Talking Museum, que recurre a tecnología wifi y Bluetooth para detectar una aplicación en el dispositivo inteligente del visitante, lo que permite comunicar una historia descriptiva automatizada sobre los objetos dentro del espacio de la galería mientras el usuario explora libremente el museo. Este sistema se centra más bien en la tarea automatizada de detectar al visitante en las proximidades del objeto de arte para activar la descripción, y menos en la calidad o el tipo de descripciones y características de accesibilidad para los usuarios de la aplicación. El prototipo InSite más avanzado ofrece:

  1. Las pautas para las descripciones de objetos mejoradas en línea.
  2. Un modelo de base de datos de gráficos flexible.
  3. La ubicación de los visitantes a través de un sistema de seguimiento interior en tiempo real dentro del espacio del museo.

El prototipo de InSite tiene distintas ventajas sobre muchas tecnologías de asistencia actuales creadas para los visitantes de nuestros museos, como la navegación interactiva, múltiples niveles de información de configuración espacial de galería / objeto y la elección del usuario en la recuperación de información de descripción en escena de objetos. Sin embargo, igual que sucede con cualquier prototipo, existen algunas limitaciones asociadas al uso de una plataforma patentada (por ejemplo, AWS) que limita la capacidad del sistema para integrar otras tecnologías que no son de AWS al nivel de bajo costo o sin costo. Actualmente, los asistentes de voz (tipo Alexa o Siri) no permiten interacciones Bluetooth bidireccionales, lo que dificulta que las consultas se escuchen con claridad en un espacio abarrotado. La latencia de reacción del usuario también suele ser demasiado larga, lo que causa problemas con la configuración de suspensión predeterminada de los asistentes de voz, que se activan tras 16 segundos de inactividad. Para los usuarios novatos, a menudo se requiere más tiempo del que permiten los asistentes de voz para aprender a decir las palabras de «activación» y las frases de comando en el orden correcto. Además, la base de datos de gráficos InSite se creó utilizando una plataforma Neo4j de código abierto. Actualmente, el modelo AWS no permite la interoperabilidad sin costo con otras aplicaciones de desarrollo de bases de datos. Por ello, se creó una base de datos compatible con AWS paralela para reflejar la información contenida en la base de datos original de Neo4j. Se trata de una solución temporal para el prototipo hasta que se pueda desarrollar otro modelo de asistente de voz de código abierto más adecuado para aplicaciones de accesibilidad y que cumpla con los requisitos del proyecto de componentes de diseño sin costo o de bajo costo. Las versiones posteriores mejorarán la integración de la navegación y las direcciones de ruta del museo, tanto con la aplicación en teléfonos inteligentes como con la interfaz de voz.

Pronto se producirán soluciones futuras que permitan a los usuarios hablar directa y discretamente a través de un auricular Bluetooth para comunicarse con el asistente de voz e interactuar con la base de datos de gráficos del museo, realizar una consulta del sistema, solicitar información de navegación para moverse por las salas,  salir de la galería o explorar el resto del museo, incluso en el exterior. Las aportaciones de los visitantes continuarán siendo valiosas y gestionadas, todo con el fin de diseñar futuras versiones de un sistema capaz de generar descripciones de las escenas automatizadas sugeridas, y que puedan ser revisadas por los museólogos/as y por los propios visitantes.

Consultas: info@evemuseos.com

Recursos bibliográficos:

Imad Afyouni, Cyril Ray y Christophe Claramunt (2012): Spatial models for context-aware indoor navigation systems: Journal of Spatial Information Science, (4):85–123.

Flora Amato, Angelo Chianese, Antonino Mazzeo, Vincenzo Moscato, Antonio Picariello y Francesco Piccialli (2013): The talking museum project. Procedia Computer Science, 21:114–121.

Saki Asakawa, João Guerreiro, Dragan Ahmetovic, Kris M Kitani y Chieko Asakawa (2018): The present and future of museum accessibility for people with visual impairments. En: 20th International ACM SIGACCESS Conference on Computers and Accessibility, pages 382–384. ACM.

Elisabeth Salzhauer Axel y Nina Sobol Levent (2003): Art beyond sight: a resource guide to art, creativity, and visual impairment. American Foundation for the Blind.

Sina Bahram y Anna Chiaretta Lavatelli (2018): Using coyote to describe the world. In Museums and the Web 2018. Museums and the Web.

Hao Chen, Maria Vasardani, Stephan Winter y Martin Tomko (2018): A graph database model for knowledge extracted from place descriptions. ISPRS International Journal of Geo-Information, 7(6):221.

Anne Chick (2018): Improving intellectual access in temporary exhibitions for sight loss visitors through co-creation and co-assessment. The Design Journal, 21(4):561–582.

Mauro DiManzo, Giovanni Adorni y Fausto Giunchiglia (1986): Reasoning about scene descriptions. IEEE, 74(7):1013–1025.

Stacy Anne Doore (2017): Spatial Relations and Natural-Language Semantics for Indoor Scenes. PhD thesis, University of Maine, Estados Unidos.

Nicholas A Giudice, Maryann R Betty y Jack M Loomis (2011): Functional equivalence of spatial images from touch and vision: Evidence from spatial updating in blind and sighted individuals. Journal of Experimental Psychology: Learning, Memory, and Cognition, 37(3):621.

Nicholas A Giudice, William E Whalen, Timothy H Riehle, Shane M Anderson y Stacy A Doore (2019): Evaluation of an accessible, real-time, and infrastructure-free indoor navigation system by users who are blind in the mall of america. Journal of Visual Impairment & Blindness, 113(2):140–155.

João Guerreiro, Dragan Ahmetovic, Daisuke Sato, Kris Kitani y Chieko Asakawa (2019): Airport accessibility and navigation assistance for people with visual impairments. En: 2019 CHI Conference on Human Factors in Computing Systems (CHI’19).

Katrine Hesseldahl, Chris McGinley y Georgia Monk (2018): Using design thinking to develop new methods of inclusive exhibition making. Studies in health technology and informatics, 256:151–160.

Dahua Lin, Chen Kong, Sanja Fidler y Raquel Urtasun (2015): Generating multi-sentence lingual descriptions of indoor scenes. arXiv preprint arXiv:1503.00064.

Alan M MacEachren (1992): Application of environmental learning theory to spatial knowledge acquisition from maps. Annals of the Association of American Geographers, 82(2):245–274.

Susana Mesquita y Maria João Carneiro (2016): Accessibility of european museums to visitors with visual impairments. Disability & Society, 31(3):373–388.

Daniel R Montello (1993): Scale and multiple psychologies of space. In European conference on spatial information theory, pages 312–321. Springer.

Paymon Rafian y Gordon E. Legge (2017): Remote sighted assistants for indoor location sensing of visually impaired pedestrians. ACM Transactions on Applied Perception (TAP), 14(3):19.

Timothy H Riehle, P Lichter y Nicholas A Giudice (2008): An indoor navigation system to support the visually impaired. In 2008 30th Annual International Conference of the IEEE Engineering in Medicine and Biology Society, pages 4435–4438. IEEE.

Barbara Tversky y Herbert H Clark (1993): Prepositions aren’t places. Behavioral and Brain Sciences, 16(2):252–253.

Andrea Tyler y Vyvyan Evans (2003): The semantics of English prepositions: Spatial scenes, embodied meaning, and cognition. Cambridge University Press.

Maria Vasardani, Sabine Timpf, Stephan Winter y Martin Tomko (2013): From descriptions to depictions: A conceptual framework. En: International Conference on Spatial Information Theory, pages 299–319. Springer.

Steffen Werner y Kristine Schmidt (1999): Environmental reference systems for large-scale spaces. Spatial cognition and computation, 1(4):447–473.

Stacy A. Doore, Anais C. Sarrazin y Nicholas A. Giudice (2019): Natural-Language Scene Descriptions for Accessible Non-Visual Museum Exhibit Exploration and Engagement. En Speaking of Location 2019: Communicating about Space, Regensburg, Alemania.


Si quieres recibir nuestro newsletter, y/o la bibliografía y recursos asociados al artículo de hoy, pídenoslo en el boletín adjunto, dejando claro que solicitáis la bibliografía y los recursos asociados al artículo, por favor. Si quieres recibir los artículos por correo electrónico completa el campo correspondiente en el formulario de inscripción que encontrarás en la cabecera de esta página. Tu dirección de correo electrónico será utilizada exclusivamente para enviarte nuestros newsletters, pudiendo darte de baja en el momento que quieras.

Tus comentarios son muy importantes para nosotros

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.