stringtranslate.com

Interfaz de usuario

Una interfaz gráfica de usuario siguiendo la metáfora del escritorio.

En el campo del diseño industrial de interacción persona-computadora , una interfaz de usuario ( UI ) es el espacio donde ocurren las interacciones entre humanos y máquinas. El objetivo de esta interacción es permitir la operación y el control efectivos de la máquina desde el lado humano, mientras la máquina simultáneamente retroalimenta información que ayuda al proceso de toma de decisiones de los operadores . Ejemplos de este concepto amplio de interfaces de usuario incluyen los aspectos interactivos de los sistemas operativos de computadoras , herramientas manuales , controles de operadores de maquinaria pesada y controles de procesos . Las consideraciones de diseño aplicables al crear interfaces de usuario están relacionadas o involucran disciplinas como la ergonomía y la psicología .

Generalmente, el objetivo del diseño de interfaz de usuario es producir una interfaz de usuario que haga fácil, eficiente y agradable (fácil de usar) operar una máquina de la manera que produzca el resultado deseado (es decir, máxima usabilidad ). Esto generalmente significa que el operador necesita proporcionar una entrada mínima para lograr el resultado deseado, y también que la máquina minimiza los resultados no deseados para el usuario.

Las interfaces de usuario se componen de una o más capas, incluida una interfaz hombre-máquina ( HMI ) que normalmente conecta las máquinas con hardware de entrada físico (como teclados, ratones o controles para juegos) y hardware de salida (como monitores de computadora , parlantes y impresoras ). Un dispositivo que implementa una HMI se denomina dispositivo de interfaz humana (HID). Las interfaces de usuario que prescinden del movimiento físico de partes del cuerpo como paso intermedio entre el cerebro y la máquina no utilizan dispositivos de entrada o salida, excepto electrodos únicamente; se denominan interfaces cerebro-computadora (BCI) o interfaces cerebro-máquina (BMI).

Otros términos para las interfaces hombre-máquina son interfaz hombre-máquina ( MMI ) y, cuando la máquina en cuestión es una computadora, interfaz hombre-computadora . Las capas de UI adicionales pueden interactuar con uno o más sentidos humanos, incluyendo: UI táctil ( tacto ), UI visual ( vista ), UI auditiva ( sonido ), UI olfativa ( olfato ), UI de equilibrio ( equilibrio ) y UI gustativa ( gusto ). .

Las interfaces de usuario compuestas ( CUI ) son UI que interactúan con dos o más sentidos. La CUI más común es una interfaz gráfica de usuario (GUI), que se compone de una interfaz de usuario táctil y una interfaz de usuario visual capaz de mostrar gráficos . Cuando se agrega sonido a una GUI, se convierte en una interfaz de usuario multimedia (MUI). Hay tres categorías amplias de CUI: estándar , virtual y aumentada . La CUI estándar utiliza dispositivos de interfaz humana estándar como teclados, ratones y monitores de computadora. Cuando la CUI bloquea el mundo real para crear una realidad virtual , la CUI es virtual y utiliza una interfaz de realidad virtual . Cuando la CUI no bloquea el mundo real y crea realidad aumentada , la CUI se aumenta y utiliza una interfaz de realidad aumentada . Cuando una interfaz de usuario interactúa con todos los sentidos humanos, se denomina interfaz qualia, en honor a la teoría de los qualia . [ cita necesaria ] CUI también se puede clasificar según la cantidad de sentidos con los que interactúan como una interfaz de realidad virtual X-sense o una interfaz de realidad aumentada X-sense, donde X es la cantidad de sentidos con los que interactúa. Por ejemplo, un Smell-O-Vision es un CUI estándar de 3 sentidos (3S) con visualización, sonido y olores; cuando las interfaces de realidad virtual interactúan con los olores y el tacto, se dice que es una interfaz de realidad virtual de 4 sentidos (4S); y cuando las interfaces de realidad aumentada interactúan con los olores y el tacto, se dice que es una interfaz de realidad aumentada de 4 sentidos (4S).

Descripción general

The Reactable , un ejemplo de interfaz de usuario tangible

La interfaz de usuario o interfaz hombre-máquina es la parte de la máquina que maneja la interacción hombre-máquina. Los interruptores de membrana, los teclados de goma y las pantallas táctiles son ejemplos de la parte física de la interfaz hombre-máquina que podemos ver y tocar. [1]

En sistemas complejos, la interfaz hombre-máquina suele estar informatizada. El término interfaz persona-computadora se refiere a este tipo de sistema. En el contexto de la informática, el término normalmente se extiende también al software dedicado a controlar los elementos físicos utilizados para la interacción persona-computadora .

La ingeniería de interfaces hombre-máquina se mejora al considerar la ergonomía ( factores humanos ). Las disciplinas correspondientes son la ingeniería de factores humanos (HFE) y la ingeniería de usabilidad (UE), que forma parte de la ingeniería de sistemas .

Las herramientas utilizadas para la incorporación de factores humanos en el diseño de interfaces se desarrollan con base en conocimientos de informática , tales como infografías , sistemas operativos , lenguajes de programación . Hoy en día, utilizamos la expresión interfaz gráfica de usuario para la interfaz hombre-máquina en las computadoras, ya que casi todas usan gráficos. [ cita necesaria ]

Las interfaces multimodales permiten a los usuarios interactuar utilizando más de una modalidad de entrada del usuario. [2]

Terminología

Una interfaz hombre-máquina generalmente implica hardware periférico para la ENTRADA y la SALIDA. A menudo, hay un componente adicional implementado en el software, como por ejemplo una interfaz gráfica de usuario .

Existe una diferencia entre una interfaz de usuario y una interfaz de operador o una interfaz hombre-máquina (HMI).

En la ciencia ficción , HMI se utiliza a veces para referirse a lo que se describe mejor como una interfaz neuronal directa . Sin embargo, este último uso está teniendo una aplicación cada vez mayor en el uso de prótesis (médicas) en la vida real : la extensión artificial que reemplaza una parte del cuerpo faltante (p. ej., implantes cocleares ). [7] [8]

En algunas circunstancias, las computadoras pueden observar al usuario y reaccionar de acuerdo con sus acciones sin comandos específicos. Se necesita un medio para rastrear partes del cuerpo , y de manera experimental se han utilizado sensores que registran la posición de la cabeza, la dirección de la mirada , etc. Esto es particularmente relevante para las interfaces inmersivas . [9] [10]

Historia

La historia de las interfaces de usuario se puede dividir en las siguientes fases según el tipo dominante de interfaz de usuario:

1945-1968: interfaz por lotes

Perforadora de tarjetas IBM 029
ibm 029

En la era de los lotes, la potencia informática era extremadamente escasa y cara. Las interfaces de usuario eran rudimentarias. Los usuarios tenían que adaptarse a las computadoras y no al revés; las interfaces de usuario se consideraban sobrecargadas y el software se diseñó para mantener el procesador en su máxima utilización con la menor sobrecarga posible.

El lado de entrada de las interfaces de usuario para las máquinas por lotes eran principalmente tarjetas perforadas o medios equivalentes como cinta de papel . El lado de salida agregó impresoras de líneas a estos medios. Con la limitada excepción de la consola del operador del sistema , los seres humanos no interactuaban en absoluto con las máquinas por lotes en tiempo real.

Enviar un trabajo a una máquina por lotes implicaba, primero, preparar una baraja de tarjetas perforadas que describieran un programa y un conjunto de datos. La perforación de las tarjetas de programa no se hacía en la computadora en sí, sino en máquinas de escribir especializadas similares a máquinas de escribir que eran notoriamente voluminosas, implacables y propensas a fallas mecánicas. La interfaz del software era igualmente implacable, con sintaxis muy estrictas destinadas a ser analizadas por los compiladores e intérpretes más pequeños posibles.

Se perforan agujeros en la tarjeta según un código preestablecido que transfiere los datos del cuestionario del censo a estadísticas .

Una vez perforadas las tarjetas, se las dejaba en una cola de trabajos y se esperaba. Con el tiempo, los operadores alimentarían la plataforma a la computadora, tal vez montando cintas magnéticas para suministrar otro conjunto de datos o software auxiliar. El trabajo generaría una copia impresa que contendría los resultados finales o un aviso de cancelación con un registro de errores adjunto. Las ejecuciones exitosas también pueden escribir un resultado en una cinta magnética o generar algunas tarjetas de datos para usar en un cálculo posterior.

El tiempo de entrega de un solo trabajo a menudo abarcaba días enteros. Si uno tenía mucha suerte, podrían pasar horas; no hubo respuesta en tiempo real. Pero había destinos peores que la cola de las cartas; algunas computadoras requerían un proceso aún más tedioso y propenso a errores de alternar programas en código binario usando conmutadores de consola. Las primeras máquinas tuvieron que ser parcialmente cableadas para incorporar la lógica del programa en sí mismas, utilizando dispositivos conocidos como tableros de conexión .

Los primeros sistemas por lotes proporcionaban al trabajo actualmente en ejecución toda la computadora; Las grabadoras de programas y las cintas tenían que incluir lo que ahora consideraríamos código del sistema operativo para comunicarse con los dispositivos de E/S y realizar cualquier otra tarea doméstica que fuera necesaria. A mitad del período de lotes, después de 1957, varios grupos comenzaron a experimentar con los sistemas llamados " load-and-go ". Estos utilizaban un programa de monitorización que siempre residía en el ordenador. Los programas podrían llamar al monitor para solicitar servicios. Otra función del monitor era realizar una mejor verificación de errores en los trabajos enviados, detectar errores antes y de manera más inteligente y generar comentarios más útiles para los usuarios. Así, los monitores representaron el primer paso hacia los sistemas operativos y las interfaces de usuario diseñadas explícitamente.

1969-presente: interfaz de usuario de línea de comandos

Teletipo Modelo 33
Teletipo Modelo 33 ASR

Las interfaces de línea de comandos ( CLI ) evolucionaron a partir de monitores por lotes conectados a la consola del sistema. Su modelo de interacción era una serie de transacciones de solicitud-respuesta, con solicitudes expresadas como comandos textuales en un vocabulario especializado. La latencia fue mucho menor que la de los sistemas por lotes, pasando de días u horas a segundos. En consecuencia, los sistemas de línea de comandos permitieron al usuario cambiar de opinión sobre las etapas posteriores de la transacción en respuesta a comentarios en tiempo real o casi en tiempo real sobre resultados anteriores. El software podría ser exploratorio e interactivo de maneras que antes no eran posibles. Pero estas interfaces todavía imponen una carga mnemotécnica relativamente pesada al usuario, requiriendo una gran inversión de esfuerzo y tiempo de aprendizaje para dominarlas. [11]

Los primeros sistemas de línea de comandos combinaban teleimpresores con computadoras, adaptando una tecnología madura que había demostrado ser eficaz para mediar en la transferencia de información a través de cables entre seres humanos. Los teleimpresores se inventaron originalmente como dispositivos para la transmisión y recepción automática de telégrafos; tenían una historia que se remontaba a 1902 y ya se habían establecido bien en las redacciones y en otros lugares en 1920. Al reutilizarlos, la economía era ciertamente una consideración, pero la psicología y la regla de la menor sorpresa también importaban; Los teleimpresores proporcionaban un punto de interfaz con el sistema que resultaba familiar para muchos ingenieros y usuarios.

El VT100, presentado en 197″8, fue el VDT más popular de todos los tiempos. La mayoría de los emuladores de terminal todavía utilizan de forma predeterminada el modo VT100.
Terminal DEC VT100

La adopción generalizada de terminales de visualización de vídeo (VDT) a mediados de la década de 1970 marcó el comienzo de la segunda fase de los sistemas de línea de comandos. Estos reducen aún más la latencia, porque los caracteres podrían aparecer en los puntos de fósforo de una pantalla más rápidamente de lo que puede moverse un cabezal o carro de impresora. Ayudaron a sofocar la resistencia conservadora a la programación interactiva eliminando los consumibles de tinta y papel del panorama de costos, y fueron para la primera generación de televisores de finales de los años 50 y 60 aún más icónicos y cómodos que los teleimpresores para los pioneros de las computadoras de los años 40.

Igual de importante es el hecho de que la existencia de una pantalla accesible (una visualización bidimensional de texto que podía modificarse rápida y reversiblemente) hizo que a los diseñadores de software les resultara económico implementar interfaces que podrían describirse como visuales en lugar de textuales. Las aplicaciones pioneras de este tipo fueron los juegos de ordenador y los editores de texto; Los descendientes cercanos de algunos de los primeros especímenes, como Rogue (6) y VI (1), siguen siendo una parte viva de la tradición Unix .

1985: interfaz de usuario SAA o interfaz de usuario basada en texto

En 1985, con el inicio de Microsoft Windows y otras interfaces gráficas de usuario , IBM creó lo que se llama el estándar Systems Application Architecture (SAA) que incluye el derivado Common User Access (CUA). CUA creó con éxito lo que conocemos y usamos hoy en Windows, y la mayoría de las aplicaciones de consola de Windows o DOS más recientes también utilizarán ese estándar.

Esto definía que un sistema de menú desplegable debería estar en la parte superior de la pantalla, la barra de estado en la parte inferior, las teclas de acceso directo deberían permanecer iguales para todas las funciones comunes (F2 para Abrir, por ejemplo, funcionaría en todas las aplicaciones que siguieran el estándar SAA). Esto contribuyó enormemente a la velocidad con la que los usuarios podían aprender una aplicación, por lo que se popularizó rápidamente y se convirtió en un estándar de la industria. [12]

1968-presente: interfaz gráfica de usuario

AMX Desk creó una GUI WIMP básica .
Linotipo WYSIWYG 2000, 1989

Diseño de interfaz

Los métodos principales utilizados en el diseño de la interfaz incluyen la creación de prototipos y la simulación.

El diseño típico de una interfaz hombre-máquina consta de las siguientes etapas: especificación de la interacción, especificación del software de la interfaz y creación de prototipos:

Principios de calidad

En términos generales, las interfaces generalmente consideradas fáciles de usar, eficientes, intuitivas, etc. se caracterizan por una o más cualidades particulares. A modo de ejemplo, a continuación se incluye una lista no exhaustiva de tales características:

  1. Claridad: la interfaz evita la ambigüedad al dejar todo claro a través del lenguaje, el flujo, la jerarquía y las metáforas de los elementos visuales.
  2. Concisión : [16] Aunque irónicamente, la clarificación excesiva de la información (por ejemplo, al etiquetar la mayoría, si no la totalidad, de los elementos mostrados en pantalla a la vez, e independientemente de si el usuario realmente necesitaría o no una Un indicador visual de algún tipo para identificar un elemento determinado puede y, en la mayoría de circunstancias normales, probablemente conducirá a la ofuscación de cualquier información.
  3. Familiaridad: [17] Incluso si alguien usa una interfaz por primera vez, ciertos elementos aún pueden resultarle familiares. Se pueden utilizar metáforas de la vida real para comunicar significado.
  4. Capacidad de respuesta : [18] Una buena interfaz no debería resultar lenta. Esto significa que la interfaz debe proporcionar buena retroalimentación al usuario sobre lo que está sucediendo y si la entrada del usuario se está procesando exitosamente.
  5. Consistencia: [19] Mantener la coherencia de la interfaz en toda la aplicación es importante porque permite a los usuarios reconocer patrones de uso.
  6. Estética : Si bien no es necesario hacer que una interfaz sea atractiva para que haga su trabajo, hacer que algo se vea bien hará que el tiempo que los usuarios pasan usando su aplicación sea más agradable; y usuarios más felices sólo puede ser algo bueno.
  7. Eficiencia : El tiempo es oro y una excelente interfaz debería hacer que el usuario sea más productivo a través de atajos y un buen diseño.
  8. Perdón : una buena interfaz no debería castigar a los usuarios por sus errores, sino que debería proporcionar los medios para remediarlos.

Principio del mínimo asombro

El principio de mínimo asombro (POLA) es un principio general en el diseño de todo tipo de interfaces. Se basa en la idea de que los seres humanos sólo pueden prestar plena atención a una cosa a la vez, [20] lo que lleva a la conclusión de que se debe minimizar la novedad.

Principio de formación de hábitos.

Si una interfaz se utiliza de forma persistente, el usuario inevitablemente desarrollará hábitos de uso de la interfaz. Por tanto, el papel del diseñador puede caracterizarse como garantizar que el usuario forme buenos hábitos. Si el diseñador tiene experiencia con otras interfaces, desarrollará hábitos similares y, a menudo, hará suposiciones inconscientes sobre cómo interactuará el usuario con la interfaz. [20] [21]

Un modelo de criterios de diseño: User Experience Honeycomb

Interfaz de usuario/guía de experiencia de usuario
Diseño de experiencia de usuario Honeycomb [22] diseñado por Peter Morville [23]

Peter Morville de Google diseñó el marco User Experience Honeycomb en 2004 cuando lideraba operaciones en el diseño de interfaces de usuario. El marco fue creado para guiar el diseño de la interfaz de usuario. Actuaría como guía para muchos estudiantes de desarrollo web durante una década. [23]

  1. Utilizable: ¿El diseño del sistema es fácil y sencillo de usar? La aplicación debe resultar familiar y debe ser fácil de usar. [23] [22]
  2. Útil: ¿La aplicación satisface una necesidad? El producto o servicio de una empresa debe ser útil. [22]
  3. Deseable: ¿El diseño de la aplicación es elegante y va al grano? La estética del sistema debe ser atractiva y fácil de traducir. [22]
  4. Localizable: ¿Pueden los usuarios encontrar rápidamente la información que buscan? La información debe poder encontrarse y ser fácil de navegar. Un usuario nunca debería tener que buscar su producto o información. [22]
  5. Accesible : ¿La aplicación admite texto ampliado sin romper el marco? Una aplicación debe ser accesible para personas con discapacidades. [22]
  6. Creíble: ¿La aplicación muestra seguridad y detalles de la empresa confiables? Una solicitud debe ser transparente, segura y honesta. [22]
  7. Valioso: ¿El usuario final cree que es valioso? Si se cumplen los 6 criterios, el usuario final encontrará valor y confianza en la aplicación. [22]

Tipos

Pantalla táctil del HP Serie 100 HP-150
Pantalla táctil HP Serie 100 HP-150
  1. Las interfaces de usuario atentas gestionan la atención del usuario y deciden cuándo interrumpirlo, el tipo de advertencias y el nivel de detalle de los mensajes que se le presentan.
  2. Las interfaces por lotes son interfaces de usuario no interactivas, donde el usuario especifica todos los detalles del trabajo por lotes antes del procesamiento por lotes y recibe el resultado cuando finaliza todo el procesamiento. La computadora no solicita más entradas una vez iniciado el procesamiento.
  3. Las interfaces de línea de comando (CLI) solicitan al usuario que proporcione información escribiendo una cadena de comando con el teclado de la computadora y responde enviando texto al monitor de la computadora. Utilizado por programadores y administradores de sistemas, en entornos científicos y de ingeniería, y por usuarios de computadoras personales técnicamente avanzados.
  4. Las interfaces conversacionales permiten a los usuarios controlar la computadora con texto plano en inglés (por ejemplo, a través de mensajes de texto o chatbots) o comandos de voz, en lugar de elementos gráficos. Estas interfaces a menudo emulan conversaciones entre humanos. [24]
  5. Los agentes de interfaz conversacional intentan personificar la interfaz de la computadora en la forma de una persona animada, un robot u otro personaje (como Clippy, el clip de Microsoft), y presentan las interacciones en forma conversacional.
  6. Las interfaces basadas en cruce son interfaces gráficas de usuario en las que la tarea principal consiste en cruzar límites en lugar de señalar.
  7. Interfaz de manipulación directa es el nombre de una clase general de interfaces de usuario que permiten a los usuarios manipular objetos que se les presentan, utilizando acciones que corresponden al menos vagamente al mundo físico.
  8. Las interfaces de gestos son interfaces gráficas de usuario que aceptan entradas en forma de gestos con las manos o gestos del mouse esbozados con el mouse de una computadora o un lápiz óptico .
  9. Las interfaces gráficas de usuario (GUI) aceptan entradas a través de dispositivos como el teclado y el mouse de una computadora y proporcionan una salida gráfica articulada en el monitor de la computadora . [25] Hay al menos dos principios diferentes ampliamente utilizados en el diseño de GUI: interfaces de usuario orientadas a objetos (OOUI) e interfaces orientadas a aplicaciones . [26]
  10. Las interfaces de hardware son las interfaces físicas y espaciales que se encuentran en productos del mundo real, desde tostadoras hasta tableros de automóviles y cabinas de aviones. Generalmente son una combinación de perillas, botones, controles deslizantes, interruptores y pantallas táctiles.
  11. Las interfaces de usuario holográficas proporcionan información a dispositivos electrónicos o electromecánicos pasando un dedo a través de imágenes holográficas reproducidas de lo que de otro modo serían controles táctiles de esos dispositivos, flotando libremente en el aire, detectados por una fuente de ondas y sin interacción táctil.
  12. Las interfaces de usuario inteligentes son interfaces hombre-máquina que tienen como objetivo mejorar la eficiencia, eficacia y naturalidad de la interacción hombre-máquina representando, razonando y actuando sobre modelos del usuario, dominio, tarea, discurso y medios (por ejemplo, gráficos, lenguaje natural, gesto).
  13. Las interfaces de seguimiento de movimiento monitorean los movimientos del cuerpo del usuario y los traducen en comandos, actualmente en desarrollo por Apple. [27]
  14. Las interfaces multipantalla emplean múltiples pantallas para proporcionar una interacción más flexible. Esto se emplea a menudo en la interacción de juegos de computadora tanto en las salas de juegos comerciales como, más recientemente, en los mercados portátiles.
  15. Las interfaces de lenguaje natural se utilizan en motores de búsqueda y en páginas web. El usuario escribe una pregunta y espera una respuesta.
  16. Interfaces de usuario sin comandos , que observan al usuario para inferir sus necesidades e intenciones, sin requerir que formule comandos explícitos. [28]
  17. Las interfaces de usuario orientadas a objetos (OOUI) se basan en metáforas de programación orientada a objetos , lo que permite a los usuarios manipular objetos simulados y sus propiedades.
  18. Las interfaces de usuario basadas en permisos muestran u ocultan opciones o funciones de menú según el nivel de permisos del usuario. El sistema tiene como objetivo mejorar la experiencia del usuario eliminando elementos que no están disponibles para el usuario. Un usuario que ve funciones que no están disponibles para su uso puede sentirse frustrado. También proporciona una mejora de la seguridad al ocultar elementos funcionales a personas no autorizadas.
  19. Interfaces de usuario reflexivas donde los usuarios controlan y redefinen todo el sistema a través de la interfaz de usuario únicamente, por ejemplo, para cambiar sus verbos de comando . Normalmente, esto sólo es posible con interfaces gráficas de usuario muy ricas.
  20. La interfaz de búsqueda es cómo se muestra el cuadro de búsqueda de un sitio, así como la representación visual de los resultados de la búsqueda.
  21. Interfaces de usuario tangibles , que ponen un mayor énfasis en el tacto y el entorno físico o su elemento.
  22. Las interfaces centradas en tareas son interfaces de usuario que abordan el problema de la sobrecarga de información de la metáfora del escritorio al hacer de las tareas, no de los archivos, la unidad principal de interacción.
  23. Las interfaces de usuario basadas en texto (TUI) son interfaces de usuario que interactúan a través de texto. Las TUI incluyen interfaces de línea de comandos y entornos WIMP basados ​​en texto .
  24. Las pantallas táctiles son pantallas que aceptan entradas mediante el toque de los dedos o un lápiz . Utilizado en un número creciente de dispositivos móviles y muchos tipos de puntos de venta , procesos y máquinas industriales, máquinas de autoservicio, etc.
  25. La interfaz de usuario táctil son interfaces gráficas de usuario que utilizan un panel táctil o una pantalla táctil como dispositivo combinado de entrada y salida. Complementan o reemplazan otras formas de producción con métodos de retroalimentación háptica . Utilizado en simuladores computarizados , etc.
  26. Interfaces de usuario de voz , que aceptan entradas y proporcionan salidas generando indicaciones de voz. La entrada del usuario se realiza presionando teclas o botones, o respondiendo verbalmente a la interfaz.
  27. Interfaces de usuario basadas en web o interfaces de usuario web (WUI) que aceptan entradas y proporcionan resultados generando páginas web vistas por el usuario mediante un programa de navegador web .
  28. Las interfaces de entrada cero obtienen entradas de un conjunto de sensores en lugar de consultar al usuario con diálogos de entrada. [29]
  29. Las interfaces de usuario con zoom son interfaces gráficas de usuario en las que los objetos de información se representan en diferentes niveles de escala y detalle, y donde el usuario puede cambiar la escala del área vista para mostrar más detalles.

Galería

Ver también

Referencias

  1. ^ "Hardware de enlace SSD Eurotherm Parker L5392 | Automatización industrial". l5392.com . Consultado el 11 de enero de 2024 .
  2. ^ Cohen, Philip R. (1992). "El papel del lenguaje natural en una interfaz multimodal". Actas del quinto simposio anual de ACM sobre software y tecnología de interfaz de usuario - UIST '92 . págs. 143-149. doi :10.1145/142621.142641. ISBN 0897915496. S2CID  9010570.
  3. ^ "La experiencia del usuario de las bibliotecas: al servicio del bien común Revista de experiencia del usuario". uxpamagazine.org . 7 de mayo de 2017 . Consultado el 23 de marzo de 2022 .
  4. ^ Grifo, Ben; Bastón, Laurel. "Interfaces" (Presentación) : 5. Archivado desde el original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . La interfaz de usuario de un sistema mecánico, un vehículo o una instalación industrial a veces se denomina interfaz hombre-máquina (HMI). {{cite journal}}: Citar diario requiere |journal=( ayuda )
  5. ^ abcd "Diseño de interfaz de usuario y ergonomía" (PDF) . Curso Ciudad 811 . UNIVERSIDAD NACIONAL ABIERTA DE NIGERIA: ESCUELA DE CIENCIA Y TECNOLOGÍA: 19. Archivado (PDF) desde el original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . En la práctica, la abreviatura MMI todavía se utiliza con frecuencia, aunque algunos pueden afirmar que ahora MMI significa algo diferente.
  6. ^ "Sección de Introducción". Avances recientes en la administración de empresas . [Sl]: Wseas. 2010. pág. 190.ISBN _ 978-960-474-161-8. Otros términos utilizados son consola de interfaz del operador (OIC) y terminal de interfaz del operador (OIT).
  7. ^ Cipriani, cristiano; Segil, Jacob; Birdwell, Jay; Vertedero, Richard (2014). "Control diestro de una prótesis de mano utilizando electrodos intramusculares de alambre fino en músculos extrínsecos específicos". Transacciones IEEE sobre sistemas neuronales e ingeniería de rehabilitación . 22 (4): 828–36. doi :10.1109/TNSRE.2014.2301234. ISSN  1534-4320. PMC 4501393 . PMID  24760929. Están presentes coactivaciones neuronales que a su vez generan niveles EMG significativos y, por lo tanto, movimientos no deseados en el caso de la interfaz hombre-máquina (HMI) actual. 
  8. ^ Citi, Luca (2009). «Desarrollo de una interfaz neuronal para el control de una mano robótica» (PDF) . Scuola Superiore Sant'Anna, Pisa, Italia: Instituto IMT de Estudios Avanzados Lucca: 5 . Consultado el 7 de junio de 2014 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  9. ^ Jordania, Joel. “Análisis de la dirección de la mirada para la investigación de la presencia en entornos virtuales inmersivos” (Tesis presentada para el grado de Doctor en Filosofía) . Universidad de Londres: Departamento de Ciencias de la Computación: 5. Archivado (PDF) desde el original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . El objetivo de esta tesis es investigar la idea de que la dirección de la mirada puede usarse como un dispositivo para detectar una sensación de presencia en Entornos Virtuales Inmersivos (IVE) en algunos contextos. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  10. ^ Ravi (agosto de 2009). "Introducción de HMI". Archivado desde el original el 14 de julio de 2014 . Consultado el 7 de junio de 2014 . En algunas circunstancias, las computadoras pueden observar al usuario y reaccionar de acuerdo con sus acciones sin comandos específicos. Se necesita un medio para rastrear partes del cuerpo, y de manera experimental se han utilizado sensores que registran la posición de la cabeza, la dirección de la mirada, etc. Esto es particularmente relevante para las interfaces inmersivas.
  11. ^ "Guía HMI". Archivado desde el original el 20 de junio de 2014.
  12. ^ Richard, Stéphane. "Serie de desarrollo de interfaces de usuario de texto, primera parte: conceptos básicos de TUI". Archivado desde el original el 16 de noviembre de 2014 . Consultado el 13 de junio de 2014 .
  13. ^ abc McCown, Frank. "Historia de la interfaz gráfica de usuario (GUI)". Universidad Harding. Archivado desde el original el 8 de noviembre de 2014. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  14. ^ "La visita de Xerox PARC". web.stanford.edu . Consultado el 8 de febrero de 2019 .
  15. ^ "apple-history.com / Graphical User Interface (GUI)". apple-history.com. Retrieved 8 February 2019.
  16. ^ Raymond, Eric Steven (2003). "11". The Art of Unix Programming. Thyrsus Enterprises. Archived from the original on 20 October 2014. Retrieved 13 June 2014.
  17. ^ C. A. D'H Gough; R. Green; M. Billinghurst. "Accounting for User Familiarity in User Interfaces" (PDF). Retrieved 13 June 2014. {{cite journal}}: Cite journal requires |journal= (help)
  18. ^ Sweet, David (October 2001). "9 – Constructing A Responsive User Interface". KDE 2.0 Development. Sams Publishing. Archived from the original on 23 September 2013. Retrieved 13 June 2014.
  19. ^ John W. Satzinger; Lorne Olfman (March 1998). "User interface consistency across end-user applications: the effects on mental models". Journal of Management Information Systems. Managing virtual workplaces and teleworking with information technology. Armonk, NY. 14 (4): 167–193. doi:10.1080/07421222.1998.11518190.
  20. ^ a b Raskin, Jef (2000). The human interface : new directions for designing interactive systems (1. printing. ed.). Reading, Mass. [u.a.]: Addison Wesley. ISBN 0-201-37937-6.
  21. ^ Udell, John (9 May 2003). "Interfaces are habit-forming". Infoworld. Archived from the original on 4 April 2017. Retrieved 3 April 2017.
  22. ^ a b c d e f g h "User Interface & User Experience Design | Oryzo | Small Business UI/UX". Oryzo. Retrieved 19 November 2019.
  23. ^ a b c Wesolko, Dane (27 October 2016). "Peter Morville's User Experience Honeycomb". Medium. Retrieved 19 November 2019.
  24. ^ Errett, Joshua. "As app fatigue sets in, Toronto engineers move on to chatbots". CBC. CBC/Radio-Canada. Archived from the original on 22 June 2016. Retrieved 4 July 2016.
  25. ^ Martinez, Wendy L. (23 February 2011). "Graphical user interfaces: Graphical user interfaces". Wiley Interdisciplinary Reviews: Computational Statistics. 3 (2): 119–133. doi:10.1002/wics.150. S2CID 60467930.
  26. ^ Cordero, Gordana (2001). "Mejore su proceso de diseño de interfaz de usuario con técnicas orientadas a objetos". Revista para desarrolladores de Visual Basic . Archivado desde el original el 14 de agosto de 2013. Tabla 1. Diferencias entre los enfoques tradicionales orientados a aplicaciones y orientados a objetos para el diseño de UI.
  27. ^ appleinsider.com Archivado el 19 de junio de 2009 en la Wayback Machine.
  28. ^ Jakob Nielsen (abril de 1993). "Interfaces de usuario sin comando". Comunicaciones de la ACM . Prensa ACM. 36 (4): 83–99. doi : 10.1145/255950.153582 . S2CID  7684922. Archivado desde el original el 10 de noviembre de 2006.
  29. ^ Sharon, Taly, Henry Lieberman y Ted Selker. "Una interfaz sin entrada para aprovechar la experiencia grupal en la navegación web Archivado el 8 de septiembre de 2017 en Wayback Machine ". Actas de la octava conferencia internacional sobre interfaces de usuario inteligentes. ACM, 2003.

enlaces externos