stringtranslate.com

Interfaz de usuario

El entorno de escritorio Xfce ofrece una interfaz gráfica de usuario que sigue la metáfora del escritorio .

En el campo del diseño industrial de la interacción hombre-computadora , una interfaz de usuario ( IU ) es el espacio donde ocurren las interacciones entre humanos y máquinas. El objetivo de esta interacción es permitir la operación y el control efectivos de la máquina desde el extremo humano, mientras que la máquina simultáneamente retroalimenta información que ayuda al proceso de toma de decisiones de los operadores . Ejemplos de este concepto amplio de interfaces de usuario incluyen los aspectos interactivos de los sistemas operativos de computadora , herramientas manuales , controles de operador de maquinaria pesada y controles de proceso . Las consideraciones de diseño aplicables al crear interfaces de usuario están relacionadas con, o involucran disciplinas como, la ergonomía y la psicología .

En general, el objetivo del diseño de la interfaz de usuario es producir una interfaz de usuario que permita operar una máquina de manera fácil, eficiente y agradable (amigable para el usuario) de manera que produzca el resultado deseado (es decir, máxima usabilidad ). Esto generalmente significa que el operador debe proporcionar una entrada mínima para lograr el resultado deseado y también que la máquina minimice las salidas no deseadas para el usuario.

Las interfaces de usuario se componen de una o más capas, incluida una interfaz hombre-máquina ( HMI ) que normalmente conecta las máquinas con hardware de entrada física (como teclados, ratones o mandos de juegos) y hardware de salida (como monitores de ordenador , altavoces e impresoras ). Un dispositivo que implementa una HMI se denomina dispositivo de interfaz humana (HID). Las interfaces de usuario que prescinden del movimiento físico de partes del cuerpo como paso intermedio entre el cerebro y la máquina no utilizan dispositivos de entrada o salida excepto electrodos; se denominan interfaces cerebro-ordenador (BCI) o interfaces cerebro-máquina (BMI).

Otros términos para las interfaces hombre-máquina son interfaz hombre-máquina ( MMI ) y, cuando la máquina en cuestión es una computadora, interfaz hombre-computadora . Las capas de IU adicionales pueden interactuar con uno o más sentidos humanos, incluyendo: IU táctil ( tacto ), IU visual ( vista ), IU auditiva ( sonido ), IU olfativa ( olfato ), IU de equilibrio ( balance ) e IU gustativa ( gusto ).

Las interfaces de usuario compuestas ( CUI ) son IU que interactúan con dos o más sentidos. La CUI más común es una interfaz gráfica de usuario (GUI), que se compone de una IU táctil y una IU visual capaz de mostrar gráficos . Cuando se agrega sonido a una GUI, se convierte en una interfaz de usuario multimedia (MUI). Hay tres categorías amplias de CUI: estándar , virtual y aumentada . La CUI estándar utiliza dispositivos de interfaz humana estándar como teclados, ratones y monitores de computadora. Cuando la CUI bloquea el mundo real para crear una realidad virtual , la CUI es virtual y utiliza una interfaz de realidad virtual . Cuando la CUI no bloquea el mundo real y crea realidad aumentada , la CUI es aumentada y utiliza una interfaz de realidad aumentada . Cuando una IU interactúa con todos los sentidos humanos, se denomina interfaz qualia, llamada así por la teoría de qualia . [ cita requerida ] Las CUI también pueden clasificarse según la cantidad de sentidos con los que interactúan como una interfaz de realidad virtual X-sense o una interfaz de realidad aumentada X-sense, donde X es la cantidad de sentidos con los que interactúan. Por ejemplo, una Smell-O-Vision es una CUI estándar de 3 sentidos (3S) con pantalla visual, sonido y olores; cuando las interfaces de realidad virtual interactúan con olores y tacto, se dice que es una interfaz de realidad virtual de 4 sentidos (4S); y cuando las interfaces de realidad aumentada interactúan con olores y tacto, se dice que es una interfaz de realidad aumentada de 4 sentidos (4S).

Descripción general

El instrumento musical Reactable , un ejemplo de interfaz de usuario tangible

La interfaz de usuario o interfaz hombre-máquina es la parte de la máquina que gestiona la interacción hombre-máquina. Los interruptores de membrana, los teclados de goma y las pantallas táctiles son ejemplos de la parte física de la interfaz hombre-máquina que podemos ver y tocar. [1]

En los sistemas complejos, la interfaz hombre-máquina suele estar informatizada. El término interfaz hombre-ordenador se refiere a este tipo de sistema. En el contexto de la informática, el término suele extenderse también al software dedicado a controlar los elementos físicos utilizados para la interacción hombre-ordenador .

La ingeniería de interfaces hombre-máquina se ve reforzada al tener en cuenta la ergonomía ( factores humanos ). Las disciplinas correspondientes son la ingeniería de factores humanos (HFE) y la ingeniería de usabilidad (UE), que forma parte de la ingeniería de sistemas .

Las herramientas que se utilizan para incorporar factores humanos en el diseño de la interfaz se desarrollan a partir de conocimientos de informática , como gráficos de computadora , sistemas operativos y lenguajes de programación . Hoy en día, utilizamos la expresión interfaz gráfica de usuario para la interfaz hombre-máquina en las computadoras, ya que casi todas ellas utilizan gráficos. [ cita requerida ]

Las interfaces multimodales permiten a los usuarios interactuar utilizando más de una modalidad de entrada de usuario. [2]

Terminología

Una interfaz hombre-máquina generalmente implica hardware periférico para la ENTRADA y para la SALIDA. A menudo, hay un componente adicional implementado en software, como por ejemplo una interfaz gráfica de usuario .

Existe una diferencia entre una interfaz de usuario y una interfaz de operador o una interfaz hombre-máquina (HMI).

En la ciencia ficción , HMI se utiliza a veces para referirse a lo que se describe mejor como una interfaz neuronal directa . Sin embargo, este último uso se está aplicando cada vez más en el uso real de prótesis (médicas) : la extensión artificial que reemplaza una parte faltante del cuerpo (por ejemplo, implantes cocleares ). [7] [8]

En algunas circunstancias, las computadoras pueden observar al usuario y reaccionar de acuerdo con sus acciones sin órdenes específicas. Se requiere un medio para rastrear partes del cuerpo , y se han utilizado experimentalmente sensores que registran la posición de la cabeza, la dirección de la mirada , etc. Esto es particularmente relevante para las interfaces inmersivas . [9] [10]

Historia

La historia de las interfaces de usuario se puede dividir en las siguientes fases según el tipo de interfaz de usuario dominante:

1945–1968: Interfaz de lotes

Perforadora de tarjetas IBM 029
IBM 029

En la era de los lotes, la potencia de procesamiento era extremadamente escasa y costosa. Las interfaces de usuario eran rudimentarias. Los usuarios tenían que adaptarse a las computadoras, en lugar de lo contrario; las interfaces de usuario se consideraban una sobrecarga y el software se diseñaba para mantener el procesador al máximo uso con la menor sobrecarga posible.

El lado de entrada de las interfaces de usuario para las máquinas de procesamiento por lotes eran principalmente tarjetas perforadas o medios equivalentes como cinta de papel . El lado de salida añadía impresoras de línea a estos medios. Con la excepción limitada de la consola del operador del sistema , los seres humanos no interactuaban con las máquinas de procesamiento por lotes en tiempo real.

Para enviar un trabajo a una máquina de procesamiento por lotes, primero había que preparar una baraja de tarjetas perforadas que describían un programa y su conjunto de datos. Las tarjetas de programa no se perforaban en la propia computadora, sino en perforadoras de teclado , máquinas especializadas similares a las máquinas de escribir que eran notoriamente voluminosas, implacables y propensas a fallas mecánicas. La interfaz del software era igualmente implacable, con sintaxis muy estrictas diseñadas para ser analizadas por los compiladores e intérpretes más pequeños posibles.

Se perforan agujeros en la tarjeta según un código preestablecido que transfiere los datos del cuestionario del censo a las estadísticas .

Una vez perforadas las tarjetas, se colocaban en una cola de trabajos y se esperaba. Finalmente, los operadores introducían la tarjeta en la computadora, tal vez montando cintas magnéticas para suministrar otro conjunto de datos o software auxiliar. El trabajo generaba una impresión que contenía los resultados finales o un aviso de cancelación con un registro de errores adjunto. Las ejecuciones exitosas también podían escribir un resultado en una cinta magnética o generar algunas tarjetas de datos para utilizarlas en un cálculo posterior.

El tiempo de respuesta para un solo trabajo solía durar días enteros. Si uno tenía mucha suerte, podían ser horas; no había respuesta en tiempo real. Pero había destinos peores que la cola de tarjetas; algunas computadoras requerían un proceso aún más tedioso y propenso a errores de alternar programas en código binario usando interruptores de consola. Las primeras máquinas tuvieron que ser parcialmente reconectadas para incorporar la lógica del programa en sí mismas, usando dispositivos conocidos como tableros de conexiones .

Los primeros sistemas por lotes asignaban a la tarea que se estaba ejecutando el ordenador entero; las cintas y los módulos de programas tenían que incluir lo que hoy consideraríamos código de sistema operativo para comunicarse con los dispositivos de E/S y realizar cualquier otra tarea de mantenimiento que fuera necesaria. A mediados del período por lotes, después de 1957, varios grupos comenzaron a experimentar con los llamados sistemas de " carga y listo ". Estos utilizaban un programa de monitorización que siempre residía en el ordenador. Los programas podían llamar al monitor para solicitar servicios. Otra función del monitor era realizar una mejor comprobación de errores en los trabajos enviados, detectando errores antes y de forma más inteligente y generando una retroalimentación más útil para los usuarios. Por lo tanto, los monitores representaron el primer paso hacia los sistemas operativos y las interfaces de usuario diseñadas explícitamente.

1969-presente: Interfaz de usuario de línea de comandos

Teletipo modelo 33
Teletipo modelo 33 ASR

Las interfaces de línea de comandos ( CLI ) evolucionaron a partir de monitores de lotes conectados a la consola del sistema. Su modelo de interacción era una serie de transacciones de solicitud-respuesta, con solicitudes expresadas como comandos textuales en un vocabulario especializado. La latencia era mucho menor que para los sistemas de lotes, bajando de días u horas a segundos. En consecuencia, los sistemas de línea de comandos permitían al usuario cambiar de opinión sobre etapas posteriores de la transacción en respuesta a la retroalimentación en tiempo real o casi en tiempo real sobre resultados anteriores. El software podía ser exploratorio e interactivo de maneras que antes no eran posibles. Pero estas interfaces aún colocaban una carga mnemotécnica relativamente pesada en el usuario, requiriendo una importante inversión de esfuerzo y tiempo de aprendizaje para dominarlas. [11]

Los primeros sistemas de línea de comandos combinaban teleimpresoras con ordenadores, adaptando una tecnología madura que había demostrado ser eficaz para mediar en la transferencia de información a través de cables entre seres humanos. Las teleimpresoras se habían inventado originalmente como dispositivos para la transmisión y recepción telegráfica automática; su historia se remontaba a 1902 y ya se habían consolidado en las salas de redacción y otros lugares en 1920. Al reutilizarlas, sin duda se tuvo en cuenta la economía, pero también la psicología y la regla de la menor sorpresa ; las teleimpresoras proporcionaban un punto de interfaz con el sistema que resultaba familiar para muchos ingenieros y usuarios.

El VT100, presentado en 1978, fue el terminal de video más popular de todos los tiempos. La mayoría de los emuladores de terminal aún utilizan el modo VT100 de manera predeterminada.
Terminal DEC VT100

La adopción generalizada de terminales de visualización de vídeo (VDT) a mediados de los años 70 marcó el comienzo de la segunda fase de los sistemas de línea de comandos. Estos redujeron aún más la latencia, porque los caracteres podían proyectarse sobre los puntos de fósforo de una pantalla más rápidamente de lo que se puede mover un cabezal o un carro de impresión. Ayudaron a sofocar la resistencia conservadora a la programación interactiva al eliminar los consumibles de tinta y papel del cuadro de costos, y fueron para la primera generación de televisores de finales de los años 50 y 60 incluso más icónicos y cómodos de lo que lo habían sido los teleimpresores para los pioneros de la informática de los años 40.

Igualmente importante fue que la existencia de una pantalla accesible (una presentación bidimensional de texto que podía modificarse de forma rápida y reversible) hizo que fuera económico para los diseñadores de software implementar interfaces que pudieran describirse como visuales en lugar de textuales. Las aplicaciones pioneras de este tipo fueron los juegos de computadora y los editores de texto; los descendientes cercanos de algunos de los primeros ejemplos, como rogue (6) y vi (1), siguen siendo una parte viva de la tradición Unix .

1985: Interfaz de usuario SAA o interfaz de usuario basada en texto

En 1985, con el inicio de Microsoft Windows y otras interfaces gráficas de usuario , IBM creó lo que se denomina el estándar de Arquitectura de Aplicaciones de Sistemas (SAA), que incluye el derivado de Common User Access (CUA). CUA creó con éxito lo que conocemos y utilizamos hoy en Windows, y la mayoría de las aplicaciones de consola de Windows o DOS más recientes también utilizarán ese estándar.

Esto definió que un sistema de menú desplegable debería estar en la parte superior de la pantalla, la barra de estado en la parte inferior y las teclas de acceso directo deberían permanecer iguales para todas las funciones comunes (F2 para abrir, por ejemplo, funcionaría en todas las aplicaciones que siguieran el estándar SAA). Esto ayudó mucho a la velocidad con la que los usuarios podían aprender a usar una aplicación, por lo que se popularizó rápidamente y se convirtió en un estándar de la industria. [12]

1968-presente: Interfaz gráfica de usuario

AMX Desk creó una GUI WIMP básica .
Linotipo WYSIWYG 2000, 1989

Diseño de interfaz

Los métodos principales utilizados en el diseño de la interfaz incluyen la creación de prototipos y la simulación.

El diseño típico de la interfaz hombre-máquina consta de las siguientes etapas: especificación de la interacción, especificación del software de la interfaz y creación de prototipos:

Principios de calidad

En términos generales, las interfaces que se consideran generalmente fáciles de usar, eficientes, intuitivas, etc. se caracterizan por una o más cualidades particulares. A modo de ejemplo, se ofrece a continuación una lista no exhaustiva de dichas características:

  1. Claridad: La interfaz evita la ambigüedad al dejar todo claro a través del lenguaje, el flujo, la jerarquía y las metáforas de los elementos visuales.
  2. Concisión : [16] Sin embargo, irónicamente, la clarificación excesiva de la información (por ejemplo, etiquetando la mayoría, si no la totalidad, de los elementos que se muestran en pantalla a la vez, y sin tener en cuenta si el usuario necesita o no un indicador visual de algún tipo para identificar un elemento determinado) puede, y, en la mayoría de las circunstancias normales, muy probablemente conducirá a la ofuscación de cualquier información.
  3. Familiaridad: [17] Incluso si alguien utiliza una interfaz por primera vez, ciertos elementos pueden resultarle familiares. Se pueden utilizar metáforas de la vida real para comunicar significados.
  4. Capacidad de respuesta : [18] Una buena interfaz no debe resultar lenta. Esto significa que la interfaz debe proporcionar una buena retroalimentación al usuario sobre lo que está sucediendo y si la entrada del usuario se está procesando correctamente.
  5. Coherencia: [19] Mantener la interfaz consistente en toda la aplicación es importante porque permite a los usuarios reconocer patrones de uso.
  6. Estética : si bien no es necesario que una interfaz sea atractiva para que haga su trabajo, hacer que algo se vea bien hará que el tiempo que los usuarios pasan usando su aplicación sea más agradable; y tener usuarios más felices solo puede ser algo bueno.
  7. Eficiencia : El tiempo es dinero y una buena interfaz debe hacer que el usuario sea más productivo a través de atajos y un buen diseño.
  8. Perdón : una buena interfaz no debe castigar a los usuarios por sus errores, sino proporcionarles los medios para remediarlos.

Principio del menor asombro

El principio del mínimo asombro (POLA) es un principio general en el diseño de todo tipo de interfaces. Se basa en la idea de que los seres humanos solo pueden prestar plena atención a una cosa a la vez, [20] lo que lleva a la conclusión de que la novedad debe minimizarse.

Principio de formación de hábitos

Si una interfaz se utiliza de forma persistente, el usuario desarrollará inevitablemente hábitos de uso de la misma. Por tanto, el papel del diseñador puede definirse como el de garantizar que el usuario adquiera buenos hábitos. Si el diseñador tiene experiencia con otras interfaces, también desarrollará hábitos y, a menudo, hará suposiciones inconscientes sobre cómo interactuará el usuario con la interfaz. [20] [21]

Un modelo de criterios de diseño: User Experience Honeycomb

Guía de interfaz de usuario/experiencia de usuario
Diseño de experiencia de usuario Honeycomb [22] diseñado por Peter Morville [23]

Peter Morville de Google diseñó el marco User Experience Honeycomb en 2004 cuando dirigía las operaciones de diseño de interfaz de usuario. El marco se creó para guiar el diseño de la interfaz de usuario y actuaría como guía para muchos estudiantes de desarrollo web durante una década. [23]

  1. Utilizable: ¿El diseño del sistema es fácil y sencillo de utilizar? La aplicación debe resultar familiar y fácil de utilizar. [23] [22]
  2. Útil: ¿La aplicación satisface una necesidad? El producto o servicio de una empresa debe ser útil. [22]
  3. Deseable: ¿El diseño de la aplicación es elegante y conciso? La estética del sistema debe ser atractiva y fácil de traducir. [22]
  4. Fácil de encontrar: ¿Los usuarios pueden encontrar rápidamente la información que buscan? La información debe ser fácil de encontrar y de navegar. Un usuario nunca debería tener que buscar su producto o información. [22]
  5. Accesible : ¿La aplicación admite texto ampliado sin romper el marco? Una aplicación debe ser accesible para personas con discapacidades. [22]
  6. Credibilidad: ¿La aplicación muestra datos de seguridad y de la empresa que son confiables? Una aplicación debe ser transparente, segura y honesta. [22]
  7. Valioso: ¿el usuario final cree que es valioso? Si se cumplen los seis criterios, el usuario final encontrará valor y confianza en la aplicación. [22]

Tipos

Pantalla táctil de la serie HP 100 HP-150
Pantalla táctil HP Serie 100 HP-150
  1. Las interfaces de usuario atentas gestionan la atención del usuario decidiendo cuándo interrumpirlo, el tipo de advertencias y el nivel de detalle de los mensajes presentados al usuario.
  2. Las interfaces por lotes son interfaces de usuario no interactivas, en las que el usuario especifica todos los detalles del trabajo por lotes antes de que se realice el procesamiento por lotes y recibe el resultado cuando se completa todo el procesamiento. La computadora no solicita más información una vez que se ha iniciado el procesamiento.
  3. Las interfaces de línea de comandos (CLI) solicitan al usuario que ingrese datos escribiendo una cadena de comandos con el teclado de la computadora y responden enviando texto al monitor de la computadora. Las utilizan programadores y administradores de sistemas, en entornos científicos y de ingeniería, y usuarios de computadoras personales con conocimientos técnicos avanzados.
  4. Las interfaces conversacionales permiten a los usuarios dar órdenes a la computadora con texto en inglés simple (por ejemplo, mediante mensajes de texto o chatbots) o comandos de voz, en lugar de elementos gráficos. Estas interfaces a menudo emulan conversaciones entre personas. [24]
  5. Los agentes de interfaz conversacional intentan personificar la interfaz de la computadora en forma de una persona animada, un robot u otro personaje (como Clippy, el clip de Microsoft) y presentan interacciones en forma conversacional.
  6. Las interfaces basadas en cruces son interfaces gráficas de usuario en las que la tarea principal consiste en cruzar límites en lugar de señalar.
  7. La interfaz de manipulación directa es el nombre de una clase general de interfaces de usuario que permiten a los usuarios manipular los objetos que se les presentan, utilizando acciones que corresponden, al menos vagamente, al mundo físico.
  8. Las interfaces gestuales son interfaces gráficas de usuario que aceptan entradas en forma de gestos con las manos o gestos del mouse dibujados con un mouse de computadora o un lápiz .
  9. Las interfaces gráficas de usuario (GUI) aceptan entradas a través de dispositivos como un teclado y un mouse de computadora y brindan una salida gráfica articulada en el monitor de la computadora . [25] Hay al menos dos principios diferentes ampliamente utilizados en el diseño de GUI: interfaces de usuario orientadas a objetos (OOUI) einterfaces orientadas a aplicaciones . [26]
  10. Las interfaces de hardware son las interfaces físicas y espaciales que encontramos en productos del mundo real, desde tostadoras hasta tableros de instrumentos de automóviles y cabinas de aviones. Por lo general, son una combinación de perillas, botones, controles deslizantes, interruptores y pantallas táctiles.
  11. Las interfaces de usuario holográficas proporcionan entrada a dispositivos electrónicos o electromecánicos al pasar un dedo a través de imágenes holográficas reproducidas de lo que de otro modo serían controles táctiles de esos dispositivos, flotando libremente en el aire, detectados por una fuente de ondas y sin interacción táctil.
  12. Las interfaces de usuario inteligentes son interfaces hombre-máquina que tienen como objetivo mejorar la eficiencia, la eficacia y la naturalidad de la interacción hombre-máquina al representar, razonar y actuar sobre modelos del usuario, el dominio, la tarea, el discurso y los medios (por ejemplo, gráficos, lenguaje natural, gestos).
  13. Las interfaces de seguimiento de movimiento monitorean los movimientos del cuerpo del usuario y los traducen en comandos, actualmente en desarrollo por Apple. [27]
  14. Las interfaces multipantalla emplean múltiples pantallas para brindar una interacción más flexible. Esto se emplea a menudo en la interacción con juegos de computadora, tanto en las salas de juegos comerciales como, más recientemente, en los mercados de dispositivos portátiles.
  15. Las interfaces de lenguaje natural se utilizan en los motores de búsqueda y en las páginas web. El usuario escribe una pregunta y espera una respuesta.
  16. Interfaces de usuario sin comandos , que observan al usuario para inferir sus necesidades e intenciones, sin requerir que formulen comandos explícitos. [28]
  17. Las interfaces de usuario orientadas a objetos (OOUI) se basan en metáforas de programación orientada a objetos , que permiten a los usuarios manipular objetos simulados y sus propiedades.
  18. Las interfaces de usuario basadas en permisos muestran u ocultan opciones o funciones del menú según el nivel de permisos del usuario. El sistema está pensado para mejorar la experiencia del usuario eliminando elementos que no están disponibles para el usuario. Un usuario que ve funciones que no están disponibles para su uso puede sentirse frustrado. También proporciona una mejora en la seguridad al ocultar elementos funcionales a personas no autorizadas.
  19. Interfaces de usuario reflexivas en las que los usuarios controlan y redefinen todo el sistema únicamente a través de la interfaz de usuario, por ejemplo, para cambiar sus verbos de comando . Normalmente, esto solo es posible con interfaces de usuario gráficas muy sofisticadas.
  20. La interfaz de búsqueda es la forma en que se muestra el cuadro de búsqueda de un sitio, así como la representación visual de los resultados de la búsqueda.
  21. Interfaces de usuario tangibles , que ponen mayor énfasis en el tacto y el entorno físico o sus elementos.
  22. Las interfaces centradas en tareas son interfaces de usuario que abordan el problema de sobrecarga de información de la metáfora del escritorio al hacer que las tareas, no los archivos, sean la unidad principal de interacción.
  23. Las interfaces de usuario basadas en texto (TUI) son interfaces de usuario que interactúan mediante texto. Las TUI incluyen interfaces de línea de comandos y entornos WIMP basados ​​en texto
  24. Las pantallas táctiles son pantallas que aceptan entradas mediante el toque de los dedos o de un lápiz óptico . Se utilizan en una cantidad cada vez mayor de dispositivos móviles y en muchos tipos de puntos de venta , procesos y máquinas industriales, máquinas de autoservicio, etc.
  25. Las interfaces de usuario táctiles son interfaces gráficas de usuario que utilizan un panel táctil o una pantalla táctil como dispositivo combinado de entrada y salida. Complementan o reemplazan otras formas de salida conmétodos de retroalimentación háptica . Se utilizan en simuladores computarizados , etc.
  26. Interfaces de usuario de voz , que aceptan entradas y brindan salidas mediante la generación de indicaciones de voz. La entrada del usuario se realiza presionando teclas o botones, o respondiendo verbalmente a la interfaz.
  27. Interfaces de usuario basadas en web o interfaces de usuario web (WUI) que aceptan entradas y proporcionan salida generando páginas web vistas por el usuario mediante un programa de navegador web .
  28. Las interfaces de entrada cero obtienen entradas de un conjunto de sensores en lugar de consultar al usuario con cuadros de diálogo de entrada. [29]
  29. Las interfaces de usuario con zoom son interfaces gráficas de usuario en las que los objetos de información se representan en diferentes niveles de escala y detalle, y donde el usuario puede cambiar la escala del área visualizada para mostrar más detalles.

Galería

Véase también

Referencias

  1. ^ "Hardware de enlace SSD Parker Eurotherm L5392 | Automatización industrial". l5392.com . Consultado el 11 de enero de 2024 .
  2. ^ Cohen, Philip R. (1992). "El papel del lenguaje natural en una interfaz multimodal". Actas del quinto simposio anual de la ACM sobre software y tecnología de interfaz de usuario - UIST '92 . págs. 143–149. doi :10.1145/142621.142641. ISBN 0897915496.S2CID 9010570  .
  3. ^ "La experiencia del usuario en las bibliotecas: al servicio del bien común Revista User Experience". uxpamagazine.org . 7 de mayo de 2017 . Consultado el 23 de marzo de 2022 .
  4. ^ Griffin, Ben; Baston, Laurel. "Interfaces" (Presentación) : 5. Archivado desde el original el 14 de julio de 2014. Consultado el 7 de junio de 2014. La interfaz de usuario de un sistema mecánico, un vehículo o una instalación industrial a veces se denomina interfaz hombre-máquina (HMI). {{cite journal}}: Requiere citar revista |journal=( ayuda )
  5. ^ abcd "Diseño de interfaz de usuario y ergonomía" (PDF) . Curso Cit 811 . UNIVERSIDAD NACIONAL ABIERTA DE NIGERIA: ESCUELA DE CIENCIA Y TECNOLOGÍA: 19. Archivado (PDF) del original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . En la práctica, la abreviatura MMI todavía se utiliza con frecuencia, aunque algunos pueden afirmar que MMI significa algo diferente ahora.
  6. ^ "Sección de Introducción". Avances recientes en la administración de empresas . [Sl]: Wseas. 2010. p. 190. ISBN 978-960-474-161-8Otros términos utilizados son consola de interfaz del operador (OIC) y terminal de interfaz del operador (OIT) .
  7. ^ Cipriani, Christian; Segil, Jacob; Birdwell, Jay; Weir, Richard (2014). "Control diestro de una mano protésica utilizando electrodos intramusculares de alambre fino en músculos extrínsecos específicos". IEEE Transactions on Neural Systems and Rehabilitation Engineering . 22 (4): 828–36. doi :10.1109/TNSRE.2014.2301234. ISSN  1534-4320. PMC 4501393 . PMID  24760929. Están presentes coactivaciones neuronales que a su vez generan niveles significativos de EMG y, por lo tanto, movimientos no deseados en el caso de la actual interfaz hombre-máquina (HMI). 
  8. ^ Citi, Luca (2009). "Desarrollo de una interfaz neuronal para el control de una mano robótica" (PDF) . Scuola Superiore Sant'Anna, Pisa, Italia: IMT Institute for Advanced Studies Lucca: 5. Consultado el 7 de junio de 2014 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  9. ^ Jordan, Joel. "Análisis de la dirección de la mirada para la investigación de la presencia en entornos virtuales inmersivos" (Tesis presentada para el grado de Doctor en Filosofía) . Universidad de Londres: Departamento de Ciencias de la Computación: 5. Archivado (PDF) del original el 14 de julio de 2014. Consultado el 7 de junio de 2014. El objetivo de esta tesis es investigar la idea de que la dirección de la mirada puede utilizarse como un dispositivo para detectar una sensación de presencia en entornos virtuales inmersivos (IVE) en algunos contextos. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  10. ^ Ravi (agosto de 2009). "Introducción de HMI". Archivado desde el original el 14 de julio de 2014. Consultado el 7 de junio de 2014. En algunas circunstancias , las computadoras pueden observar al usuario y reaccionar de acuerdo con sus acciones sin comandos específicos. Se requiere un medio para rastrear partes del cuerpo, y se han utilizado experimentalmente sensores que registran la posición de la cabeza, la dirección de la mirada, etc. Esto es particularmente relevante para las interfaces inmersivas.
  11. ^ "Guía de HMI". Archivado desde el original el 20 de junio de 2014.
  12. ^ Richard, Stéphane. «Text User Interface Development Series Part One – TUI Basics». Archivado desde el original el 16 de noviembre de 2014. Consultado el 13 de junio de 2014 .
  13. ^ abc McCown, Frank. "Historia de la interfaz gráfica de usuario (GUI)". Universidad Harding. Archivado desde el original el 8 de noviembre de 2014. {{cite journal}}: Requiere citar revista |journal=( ayuda )
  14. ^ "La visita de Xerox a PARC". web.stanford.edu . Consultado el 8 de febrero de 2019 .
  15. ^ "apple-history.com / Interfaz gráfica de usuario (GUI)". apple-history.com . Consultado el 8 de febrero de 2019 .
  16. ^ Raymond, Eric Steven (2003). "11". El arte de la programación Unix . Thyrsus Enterprises. Archivado desde el original el 20 de octubre de 2014. Consultado el 13 de junio de 2014 .
  17. ^ CA D'H Gough; R. Green; M. Billinghurst. "Contabilización de la familiaridad del usuario en las interfaces de usuario" (PDF) . Consultado el 13 de junio de 2014 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  18. ^ Sweet, David (octubre de 2001). «9 – Construcción de una interfaz de usuario responsiva». Desarrollo de KDE 2.0 . Sams Publishing. Archivado desde el original el 23 de septiembre de 2013. Consultado el 13 de junio de 2014 .
  19. ^ John W. Satzinger; Lorne Olfman (marzo de 1998). "Consistencia de la interfaz de usuario en las aplicaciones de usuario final: los efectos en los modelos mentales". Journal of Management Information Systems . Gestión de lugares de trabajo virtuales y teletrabajo con tecnología de la información. 14 (4). Armonk, NY: 167–193. doi :10.1080/07421222.1998.11518190.
  20. ^ ab Raskin, Jef (2000). La interfaz humana: nuevas direcciones para el diseño de sistemas interactivos (1.ª edición). Reading, Mass. [ua]: Addison Wesley. ISBN 0-201-37937-6.
  21. ^ Udell, John (9 de mayo de 2003). «Las interfaces crean hábito». Infoworld . Archivado desde el original el 4 de abril de 2017. Consultado el 3 de abril de 2017 .
  22. ^ abcdefgh «Diseño de interfaz de usuario y experiencia de usuario | Oryzo | UI/UX para pequeñas empresas». Oryzo . Consultado el 19 de noviembre de 2019 .
  23. ^ abc Wesolko, Dane (27 de octubre de 2016). «Peter Morville's User Experience Honeycomb». Medium . Consultado el 19 de noviembre de 2019 .
  24. ^ Errett, Joshua. "A medida que la fatiga de las aplicaciones se instala, los ingenieros de Toronto pasan a los chatbots". CBC . CBC/Radio-Canada. Archivado desde el original el 22 de junio de 2016 . Consultado el 4 de julio de 2016 .
  25. ^ Martinez, Wendy L. (23 de febrero de 2011). "Interfaces gráficas de usuario: Interfaces gráficas de usuario". Wiley Interdisciplinary Reviews: Computational Statistics . 3 (2): 119–133. doi :10.1002/wics.150. S2CID  60467930.
  26. ^ Lamb, Gordana (2001). "Mejore su proceso de diseño de interfaz de usuario con técnicas orientadas a objetos". Revista Visual Basic Developer . Archivado desde el original el 14 de agosto de 2013. Tabla 1. Diferencias entre los enfoques tradicionales orientados a aplicaciones y orientados a objetos para el diseño de interfaz de usuario.
  27. ^ appleinsider.com Archivado el 19 de junio de 2009 en Wayback Machine.
  28. ^ Jakob Nielsen (abril de 1993). «Noncommand User Interfaces» (Interfaces de usuario no relacionadas con los comandos). Communications of the ACM (Comunicaciones de la ACM) . 36 (4). ACM Press: 83–99. doi : 10.1145/255950.153582 . S2CID  7684922. Archivado desde el original el 10 de noviembre de 2006.
  29. ^ Sharon, Taly, Henry Lieberman y Ted Selker. "Una interfaz de entrada cero para aprovechar la experiencia grupal en la navegación web Archivado el 8 de septiembre de 2017 en Wayback Machine ." Actas de la octava conferencia internacional sobre interfaces de usuario inteligentes. ACM, 2003.

Enlaces externos