stringtranslate.com

Interfaz de usuario tangible

Reactable , un instrumento musical electrónico, ejemplo de interfaz de usuario tangible
Dispositivo SandScape instalado en el Museo de Creatividad Infantil de San Francisco

Una interfaz de usuario tangible ( TUI ) es una interfaz de usuario en la que una persona interactúa con información digital a través del entorno físico. El nombre inicial era Interfaz de usuario tangible, que ya no se utiliza. El propósito del desarrollo de TUI es potenciar la colaboración, el aprendizaje y el diseño al dar formas físicas a la información digital, aprovechando así la capacidad humana de agarrar y manipular objetos y materiales físicos. [1]

Este lenguaje fue concebido por primera vez por Radia Perlman como un nuevo lenguaje de programación que enseñaría a niños mucho más pequeños de manera similar a Logo, pero utilizando "teclados" especiales y dispositivos de entrada. Otro pionero en interfaces de usuario tangibles es Hiroshi Ishii , un profesor del MIT que dirige el Tangible Media Group en el MIT Media Lab . Su visión particular para las IU tangibles, llamadas Tangible Bits , es dar forma física a la información digital, haciendo que los bits sean directamente manipulables y perceptibles. Los bits tangibles persiguen el acoplamiento perfecto entre objetos físicos y datos virtuales.

Características

Existen varios marcos que describen las características clave de las interfaces de usuario tangibles. Brygg Ullmer y Hiroshi Ishii describen seis características relacionadas con la representación y el control: [2]

  1. Las representaciones físicas están acopladas computacionalmente a la información digital subyacente.
  2. Las representaciones físicas incorporan mecanismos de control interactivo.
  3. Las representaciones físicas están acopladas perceptualmente a representaciones digitales mediadas activamente.
  4. El estado físico de los tangibles encarna aspectos clave del estado digital de un sistema

Eva Hornecker y Jacob Buur describen un marco estructurado con cuatro temas: [3]

  1. Manipulación tangible: representaciones materiales con cualidades táctiles distintivas, que normalmente se manipulan físicamente. Un ejemplo típico es la manipulación háptica directa: ¿puede el usuario agarrar, sentir y mover elementos importantes en la interfaz?
  2. Interacción espacial: la interacción tangible está inserta en el espacio real; la interacción se produce como movimiento en este espacio. Un ejemplo es la interacción de cuerpo completo: ¿puede el usuario utilizar todo su cuerpo?
  3. Facilitación corporizada: la configuración de los objetos materiales y del espacio afecta la forma en que los usuarios interactúan conjuntamente con la interfaz de usuario tangible. Algunos ejemplos incluyen múltiples puntos de acceso: ¿pueden todos los usuarios en el espacio ver lo que está sucediendo e interactuar con los elementos centrales de la interfaz?
  4. Representación expresiva: expresividad y legibilidad de las representaciones materiales y digitales empleadas por los sistemas de interacción tangible. Un ejemplo es la significación representacional: ¿tienen las representaciones físicas y digitales la misma fuerza y ​​relevancia?

Según Mi Jeong Kim y Mary Lou Maher, las cinco propiedades básicas que definen las interfaces de usuario tangibles son las siguientes: [4]

  1. Multiplexación espacial tanto de entrada como de salida.
  2. Acceso concurrente y manipulación de componentes de la interfaz.
  3. Dispositivos específicos potentes.
  4. Dispositivos computacionales con conciencia espacial.
  5. Reconfigurabilidad espacial de dispositivos.

Comparación con interfaces gráficas de usuario

Una interfaz de usuario tangible debe diferenciarse de una interfaz gráfica de usuario (GUI). Una GUI existe solo en el mundo digital, mientras que una TUI conecta el mundo digital con el mundo físico. Por ejemplo, una pantalla muestra la información digital, mientras que un mouse nos permite interactuar directamente con esta información digital. [5] Una interfaz de usuario tangible representa la entrada directamente en el mundo físico y hace que la información digital sea directamente comprensible. [6]

Por lo general, las interfaces de usuario tangibles se construyen para un grupo objetivo específico, debido a la escasa variedad de posibles áreas de aplicación. Por lo tanto, el diseño de la interfaz debe desarrollarse junto con el grupo objetivo para garantizar una buena experiencia de usuario. [7]

En comparación con una interfaz de usuario de interfaz de usuario (TUI), una interfaz gráfica de usuario tiene una amplia gama de usos en una sola interfaz, por lo que está dirigida a un gran grupo de posibles usuarios. [7]

Una ventaja de la TUI es la experiencia de usuario, ya que se produce una interacción física entre el usuario y la propia interfaz (p. ej.: SandScape: Construye tu propio paisaje con arena). Otra ventaja es la usabilidad, ya que el usuario sabe intuitivamente cómo utilizar la interfaz al conocer la función del objeto físico. Por lo tanto, el usuario no necesita aprender la funcionalidad. Por eso, la interfaz de usuario tangible se utiliza a menudo para hacer que la tecnología sea más accesible para las personas mayores. [6]

[7]

Ejemplos

Un ejemplo sencillo de interfaz de usuario tangible es el ratón de ordenador: al arrastrar el ratón sobre una superficie plana, se mueve un puntero en la pantalla en consecuencia. Existe una relación muy clara entre los comportamientos que muestra un sistema y los movimientos del ratón. Otros ejemplos son:

Se han llevado a cabo varios enfoques para establecer un middleware genérico para las TUI. Estos tienen como objetivo la independencia de los dominios de aplicación, así como la flexibilidad en términos de la tecnología de sensores implementada. Por ejemplo, Siftables proporciona una plataforma de aplicación en la que pequeñas pantallas sensibles a los gestos actúan juntas para formar una interfaz hombre-computadora.

Para respaldar la colaboración, las TUI deben permitir la distribución espacial, las actividades asincrónicas y la modificación dinámica de la infraestructura de la TUI, por nombrar las más importantes. Este enfoque presenta un marco basado en el concepto de espacio de tuplas de LINDA para cumplir con estos requisitos. El marco TUIpist implementado implementa tecnología de sensores arbitraria para cualquier tipo de aplicación y actuadores en entornos distribuidos. [11]

Lo último

El interés por las interfaces de usuario tangibles (TUI) ha crecido de forma constante desde los años 90 y, año tras año, aparecen más sistemas tangibles. Un informe técnico de 2017 describe la evolución de las TUI para las experiencias de mesa táctil y plantea nuevas posibilidades de experimentación y desarrollo. [12]

En 1999, Gary Zalewski patentó un sistema de bloques móviles para niños que contienen sensores y pantallas para enseñar ortografía y composición de oraciones. [13]

Tangible Engine es una aplicación de creación propia que se utiliza para crear interfaces de reconocimiento de objetos para mesas táctiles capacitivas proyectadas. Tangible Engine Media Creator permite a los usuarios con poca o ninguna experiencia en codificación crear rápidamente experiencias basadas en TUI.

El Grupo de Medios Tangibles del MIT, dirigido por Hiroshi Ishi, está continuamente desarrollando y experimentando con TUI, incluidas muchas aplicaciones de mesa. [14]

El sistema Urp [15] y el más avanzado Augmented Urban Planning Workbench [16] permiten realizar simulaciones digitales de flujo de aire, sombras, reflejos y otros datos basados ​​en las posiciones y orientaciones de modelos físicos de edificios, sobre la superficie de la mesa.

Los desarrollos más recientes van un paso más allá e incorporan la tercera dimensión al permitir que el usuario forme paisajes con arcilla (Illuminating Clay [17] ) o arena (Sand Scape [18] ). Nuevamente, diferentes simulaciones permiten el análisis de sombras, mapas de altura, pendientes y otras características de las masas de tierra que se pueden formar de forma interactiva.

InfrActables es una mesa colaborativa de retroproyección que permite la interacción mediante el uso de TUI que incorporan reconocimiento de estado. La adición de diferentes botones a las TUI permite funciones adicionales asociadas a las TUI. Las versiones más nuevas de la tecnología pueden incluso integrarse en pantallas LC [19] mediante el uso de sensores infrarrojos detrás de la matriz LC.

El sistema Tangible Disaster [20] permite al usuario analizar medidas de desastre y simular diferentes tipos de desastres (incendios, inundaciones, tsunamis, etc.) y escenarios de evacuación durante sesiones de planificación colaborativa. Los objetos físicos permiten posicionar los desastres colocándolos en el mapa interactivo y, además, ajustando parámetros (es decir, la escala) mediante diales adjuntos a ellos.

Recientemente se ha identificado el potencial comercial de las TUI. El premiado Reactable [21] , un instrumento interactivo tangible de sobremesa, es distribuido comercialmente por Reactable Systems, una empresa derivada de la Universidad Pompeu Fabra, donde fue desarrollado. Con Reactable, los usuarios pueden configurar su propio instrumento de forma interactiva, colocando físicamente diferentes objetos (que representan osciladores, filtros, moduladores...) y parametrizándolos mediante rotación y entrada táctil.

Microsoft distribuye su novedosa plataforma basada en Windows Microsoft Surface [22] (ahora Microsoft PixelSense) desde 2009. Además del seguimiento multitáctil de los dedos, la plataforma admite el reconocimiento de objetos físicos por sus huellas. Se han presentado varias aplicaciones, principalmente para el uso en espacios comerciales. Los ejemplos van desde el diseño de un diseño gráfico individual para una tabla de snowboard o un monopatín hasta el estudio de los detalles de un vino en un restaurante colocándolo en la mesa y navegando por los menús mediante entrada táctil. También se admiten interacciones como la exploración colaborativa de fotografías desde una cámara de mano o un teléfono móvil que se conecta sin problemas una vez colocados en la mesa.

Otra instalación interactiva destacable es Instant City [23] , que combina juegos, música, arquitectura y aspectos colaborativos. Permite al usuario construir estructuras tridimensionales y configurar una ciudad con bloques de construcción rectangulares, lo que simultáneamente da como resultado el ensamblaje interactivo de fragmentos musicales de diferentes compositores.

El desarrollo de Reactable y el posterior lanzamiento de su tecnología de seguimiento reacTIVision [24] bajo la licencia GNU/GPL, así como las especificaciones abiertas del protocolo TUIO , han desencadenado una enorme cantidad de desarrollos basados ​​en esta tecnología.

En los últimos años, se han iniciado muchos proyectos amateurs y semiprofesionales fuera del ámbito académico y comercial. Gracias a las tecnologías de rastreo de código abierto (reacTIVision [24] ) y a la creciente potencia computacional disponible para los consumidores finales, la infraestructura necesaria ahora es accesible para casi todo el mundo. Una PC estándar, una cámara web y algo de trabajo manual permiten a las personas configurar sistemas tangibles con un mínimo esfuerzo de programación y material. Esto abre las puertas a nuevas formas de percibir la interacción entre humanos y computadoras y permite que el público experimente con nuevas formas de creatividad. [ cita requerida ]

Es difícil seguir la pista y pasar por alto el número rápidamente creciente de todos estos sistemas y herramientas, pero mientras que muchos de ellos parecen utilizar únicamente las tecnologías disponibles y se limitan a experimentos y pruebas iniciales con algunas ideas básicas o simplemente reproducen sistemas existentes, algunos de ellos se abren a interfaces e interacciones novedosas y se implementan en el espacio público o se integran en instalaciones de arte. [25]

Tangible Factory Planning [26] es una tabla tangible basada en reacTIVision [24] que permite planificar y visualizar de forma colaborativa los procesos de producción en combinación con los planos de nuevos edificios de fábrica y fue desarrollada dentro de una tesis de diploma.

Otro ejemplo de los numerosos tableros de mesa basados ​​en reacTIVision es la mesa interactiva ImpulsBauhaus [27] , que se expuso en la Universidad Bauhaus de Weimar con motivo del 90º aniversario de la fundación de la Bauhaus. Los visitantes podían navegar y explorar las biografías, las relaciones complejas y las redes sociales entre los miembros del movimiento.

Se ha demostrado que el uso de principios derivados de la cognición incorporada , la teoría de la carga cognitiva y el diseño incorporado de las TUI aumenta el rendimiento del aprendizaje al ofrecer retroalimentación multimodal. [28] Sin embargo, estos beneficios para el aprendizaje requieren formas de diseño de interacción que dejen la mayor capacidad cognitiva posible para el aprendizaje.

Icono físico

Un icono físico , o phicon , es el equivalente informático tangible de un icono en una interfaz gráfica de usuario tradicional, o GUI . Los phicones contienen una referencia a algún objeto digital y, por lo tanto, transmiten un significado. [29] [30] [31]

Historia

Los iconos físicos se utilizaron por primera vez como interfaces tangibles en el proyecto metaDesk creado en 1997 por el grupo de investigación de bits tangibles del profesor Hiroshi Ishii en el MIT . [32] [33] El metaDesk consistía en una mesa cuya superficie mostraba una imagen de vídeo retroproyectada. Al colocar un phicon sobre la mesa se activaban sensores que alteraban la proyección del vídeo. [34]

Véase también

Referencias

  1. ^ Ishii, Hiroshi (2008). "Tangible bits". Actas de la 2.ª conferencia internacional sobre interacción tangible e integrada - TEI '08 . págs. xv. doi :10.1145/1347390.1347392. ISBN 978-1-60558-004-3. Número de identificación  S2C18166868.
  2. ^ Ullmer, Brygg; Ishii, Hiroshi (2000). "Emerging Frameworks for Tangible User Interfaces" (PDF) . IBM Systems Journal . 39 (3–4): 915–931. doi :10.1147/sj.393.0915 . Consultado el 17 de febrero de 2024 .
  3. ^ Hornecker, Eva; Buur, Jacob (2006). "Cómo comprender la interacción tangible: un marco sobre el espacio físico y la interacción social" (PDF) . Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . Vol. CHI. págs. 437–446. doi :10.1145/1124772.1124838. ISBN . 1-59593-372-7. Recuperado el 17 de febrero de 2024 .
  4. ^ Kim, Mi Jeong; Maher, Mary Lou (30 de mayo de 2008). "El impacto de las interfaces de usuario tangibles en la cognición espacial de los diseñadores". Interacción persona-ordenador . 23 (2): 101–137. doi :10.1080/07370020802016415. S2CID  1268154.
  5. ^ http://tmg-trackr.media.mit.edu:8020/SuperContainer/RawData/Papers/485-Radical%20Atoms%20Beyond%20Tangible/Published/PDF Archivado el 19 de septiembre de 2012 en Wayback Machine [ cita completa necesaria ]
  6. ^ abc Ishii, Hiroshi (2007). "Interfaces de usuario tangibles". Manual de interacción persona-ordenador . págs. 495-514. doi :10.1201/9781410615862-35. ISBN 978-0-429-16397-5.
  7. ^ abc Campbell, John; Carandang, Xharmagne (29 de julio de 2012). "Comparación de interfaces de usuario gráficas y tangibles para un juego de defensa de torres". Actas de AMCIS 2012 . CiteSeerX 10.1.1.924.6112 . 
  8. ^ "Contestador automático de Internet de las cosas de 1992, con canicas / Boing Boing". boingboing.net . 21 de marzo de 2013.
  9. ^ "Kit de construcción Topobo con memoria cinética". www.topobo.com .
  10. ^ "jive - redes sociales para tu abuela". jive.benarent.co.uk .
  11. ^ http://www.cs.rit.edu/~pns6910/docs/Tuple%20Space/A%20Tuple-Space%20Based%20Middleware%20for%20Collaborative%20Tangible%20User%20Interfaces.pdf [ enlace roto ] [ cita completa necesaria ]
  12. ^ "La evolución de las interfaces de usuario tangibles en las mesas táctiles | Ideum". Ideum - diseño de exposiciones | mesas táctiles | exposiciones interactivas . Consultado el 31 de octubre de 2017 .
  13. ^ "Aparato de E/S inalámbrico y método de instrucción asistida por computadora".
  14. ^ "Tangible Media". www.media.mit.edu . MIT Media Lab . Consultado el 10 de diciembre de 2014 .
  15. ^ Underkoffler, John; Ishii, Hiroshi (1999). "Urp". Actas de la conferencia SIGCHI sobre factores humanos en sistemas informáticos. El CHI es el límite - CHI '99 . págs. 386–393. doi :10.1145/302979.303114. ISBN 978-0-201-48559-2. Número de identificación del sujeto  52817952.
  16. ^ Ishii, H.; Underkoffler, J.; Chak, D.; Piper, B.; Ben-Joseph, E.; Yeung, L.; Kanji, Z. (2002). "Augmented urban planning workbench: Overlaying drawings, physical models and digital simulation" (Mesa de trabajo de planificación urbana aumentada: superposición de dibujos, modelos físicos y simulación digital). Actas. Simposio internacional sobre realidad mixta y aumentada . pp. 203–211. CiteSeerX 10.1.1.19.4960 . doi :10.1109/ISMAR.2002.1115090. ISBN.  978-0-7695-1781-0. Número de identificación del sujeto  2303022.
  17. ^ Piper, Ben; Ratti, Carlo; Ishii, Hiroshi (2002). "Arcilla iluminadora". Actas de la conferencia SIGCHI sobre Factores humanos en sistemas informáticos Cambiando nuestro mundo, cambiándonos a nosotros mismos - CHI '02 . p. 355. doi :10.1145/503376.503439. ISBN 978-1-58113-453-7.S2CID 7146503  .
  18. ^ Ishii, Hiroshi (junio de 2008). "La interfaz de usuario tangible y su evolución". Comunicaciones de la ACM . 51 (6): 32–36. doi :10.1145/1349026.1349034. S2CID  29416502.
  19. ^ Hofer, Ramon; Kaplan, Patrick; Kunz, Andreas (2008). "Mighty Trace ". Actas de la vigésimo sexta conferencia anual de CHI sobre factores humanos en sistemas informáticos - CHI '08 . pág. 215. doi :10.1145/1357054.1357091. hdl :20.500.11850/9226. ISBN 978-1-60558-011-1.S2CID 12977345  .
  20. ^ Alexa, Marc (5 de agosto de 2007). "Interfaz de usuario tangible para apoyar la educación sobre desastres". Pósteres de ACM SIGGRAPH 2007. Siggraph '07. pp. 144–es. doi :10.1145/1280720.1280877. ISBN 9781450318280. Número de identificación del sujeto  1851821.
  21. ^ Jordà, Sergi; Geiger, Günter; Alonso, Marcos; Kaltenbrunner, Martin (2007). "The reac Table ". Actas de la 1ª conferencia internacional sobre interacción tangible e integrada - TEI '07 . pág. 139. CiteSeerX 10.1.1.81.1645 . doi :10.1145/1226969.1226998. ISBN .  978-1-59593-619-6.S2CID17384158  .​
  22. ^ Wall, Josh (2009). "Demo I Microsoft Surface y la plataforma de vista única". Simposio internacional sobre tecnologías y sistemas colaborativos de 2009. págs. xxxi–xxxii. doi :10.1109/CTS.2009.5067436. ISBN 978-1-4244-4584-4.
  23. ^ Hauert, Sibylle; Reichmuth, Daniel; Böhm, Volker (2007). "Ciudad instantánea". Actas de la 7.ª conferencia internacional sobre nuevas interfaces para la expresión musical - NIME '07 . pág. 422. doi :10.1145/1279740.1279846. S2CID  22458111.
  24. ^ abc Kaltenbrunner, Martin; Bencina, Ross (2007). "ReacTIVision". Actas de la 1.ª conferencia internacional sobre interacción tangible e integrada - TEI '07 . pág. 69. doi :10.1145/1226969.1226983. ISBN 978-1-59593-619-6. Número de identificación del sujeto  459304.
  25. ^ "Exposición de usuarios de Sourceforge TUIO". 20 de febrero de 2017.
  26. ^ Planificación de fábricas tangibles, tesis de diploma, Daniel Guse, http://www.danielguse.de/tangibletable.php Archivado el 9 de julio de 2010 en Wayback Machine.
  27. ^ "Mesa interactiva con reacTIVision: ImpulsBauhaus". 20 de febrero de 2017.
  28. ^ Skulmowski, Alexander; Pradel, Simon; Kühnert, Tom; Brunnett, Guido; Rey, Günter Daniel (enero de 2016). "Aprendizaje incorporado mediante una interfaz de usuario tangible: los efectos de la percepción háptica y el apuntamiento selectivo en una tarea de aprendizaje espacial". Computers & Education . 92–93: 64–75. doi :10.1016/j.compedu.2015.10.011. S2CID  10493691.
  29. ^ Fidalgo, F., Silva, P., Realinho, V.: "Computación ubicua y organizaciones", página 201. Desarrollos actuales en educación asistida por tecnología, 2006
  30. ^ Michitaka Hirose (2001). Interacción hombre-ordenador: INTERACT '01 : IFIP TC.13 Conferencia internacional sobre interacción hombre-ordenador, 9-13 de julio de 2001, Tokio, Japón. IOS Press. pp. 337–. ISBN 978-1-58603-188-6.
  31. ^ Hamid Aghajan; Juan Carlos Augusto; Ramon Lopez-Cozar Delgado (25 de septiembre de 2009). Interfaces centradas en el ser humano para la inteligencia ambiental. Academic Press. pp. 15–. ISBN 978-0-08-087850-8.
  32. ^ Howard Rheingold (21 de marzo de 2007). Smart Mobs: The Next Social Revolution [Multitudes inteligentes: la próxima revolución social]. Basic Books, págs. 104–11. ISBN 978-0-465-00439-3.
  33. ^ Paul Dourish (2004). Dónde está la acción: los fundamentos de la interacción corporizada. MIT Press. pp. 45–. ISBN 978-0-262-54178-7.
  34. ^ Mary Beth Rosson; John Millar Carroll (2002). Ingeniería de usabilidad: desarrollo basado en escenarios de interacción hombre-computadora. Morgan Kaufmann. pp. 316–. ISBN 978-1-55860-712-5.

Enlaces externos