En informática , una interfaz de usuario natural ( NUI ) o interfaz natural es una interfaz de usuario que es efectivamente invisible, y permanece invisible a medida que el usuario aprende continuamente interacciones cada vez más complejas. La palabra "natural" se utiliza porque la mayoría de las interfaces de computadora utilizan dispositivos de control artificiales cuyo funcionamiento debe aprenderse. Los ejemplos incluyen asistentes de voz , como Alexa y Siri, interacciones táctiles y multitáctiles en los teléfonos móviles y tabletas actuales, pero también interfaces táctiles integradas de forma invisible en los textiles de los muebles. [1]
Una interfaz de usuario no intuitiva se basa en que el usuario pueda pasar rápidamente de principiante a experto. Si bien la interfaz requiere aprendizaje, ese aprendizaje se facilita a través del diseño, que brinda al usuario la sensación de que tiene éxito de manera instantánea y continua. Por lo tanto, "natural" se refiere a un objetivo en la experiencia del usuario: que la interacción se produzca de manera natural mientras interactúa con la tecnología, en lugar de que la interfaz en sí sea natural. Esto contrasta con la idea de una interfaz intuitiva , que se refiere a una que se puede usar sin aprendizaje previo.
Se han propuesto varias estrategias de diseño que han cumplido este objetivo con distintos grados de éxito. Una estrategia es el uso de una " interfaz de usuario de realidad " (" RUI "), [2] también conocida como métodos de " interfaces basadas en la realidad " ( RBI ). Un ejemplo de una estrategia de RUI es utilizar un ordenador portátil para hacer que los objetos del mundo real sean "cliqueables", es decir, que el usuario pueda hacer clic en cualquier objeto cotidiano para que funcione como un hipervínculo, fusionando así el ciberespacio y el mundo real. Debido a que el término "natural" evoca el "mundo natural", las RBI a menudo se confunden con las NUI, cuando en realidad son simplemente un medio para lograrlo.
Un ejemplo de una estrategia para diseñar una NUI que no se base en RBI es la limitación estricta de la funcionalidad y la personalización, de modo que los usuarios tengan muy poco que aprender sobre el funcionamiento de un dispositivo. Siempre que las capacidades predeterminadas coincidan con los objetivos del usuario, la interfaz se puede utilizar sin esfuerzo. Esta es una estrategia de diseño general en iOS de Apple. [ cita requerida ] Debido a que este diseño coincide con una pantalla táctil directa, los no diseñadores suelen atribuir erróneamente la facilidad de interacción con el dispositivo a esa pantalla multitáctil, y no al diseño del software donde realmente reside.
En la década de 1990, Steve Mann desarrolló una serie de estrategias de interfaz de usuario que utilizan la interacción natural con el mundo real como una alternativa a una interfaz de línea de comandos (CLI) o una interfaz gráfica de usuario (GUI). Mann se refirió a este trabajo como "interfaces de usuario naturales", "Interfaces de usuario directas" y "computación sin metáforas". [3] La tecnología EyeTap de Mann generalmente encarna un ejemplo de una interfaz de usuario natural. El uso que hace Mann de la palabra "natural" se refiere tanto a la acción que resulta natural para los usuarios humanos, como al uso de la naturaleza en sí, es decir, la física ( Filosofía natural ) y el entorno natural. Un buen ejemplo de una NUI en ambos sentidos es el hidraulófono , especialmente cuando se usa como un dispositivo de entrada, en el que tocar un elemento natural (agua) se convierte en una forma de ingresar datos. De manera más general, también se han propuesto como "interfaces de usuario basadas en la naturaleza" una clase de instrumentos musicales denominados "fisifonos", llamados así a partir de las palabras griegas "physika", "physikos" (naturaleza) y "phone" (sonido). [4]
En 2006, Christian Moore estableció una comunidad de investigación abierta con el objetivo de ampliar el debate y el desarrollo relacionados con las tecnologías NUI. [5] En una presentación de la conferencia de 2008 "Predicción del pasado", August de los Reyes, director principal de experiencia del usuario de Surface Computing en Microsoft, describió la NUI como la siguiente fase evolutiva tras el cambio de la CLI a la GUI. [6] Por supuesto, esto también es una simplificación excesiva, ya que las NUI incluyen necesariamente elementos visuales y, por lo tanto, interfaces gráficas de usuario. Una descripción más precisa de este concepto sería describirlo como una transición de WIMP a NUI.
En la CLI, los usuarios tenían que aprender un medio artificial de entrada, el teclado, y una serie de entradas codificadas, que tenían un rango limitado de respuestas, donde la sintaxis de esos comandos era estricta.
Luego, cuando el ratón permitió la interfaz gráfica de usuario, los usuarios pudieron aprender más fácilmente los movimientos y acciones del ratón y pudieron explorar la interfaz mucho más. La interfaz gráfica de usuario dependía de metáforas para interactuar con el contenido o los objetos en pantalla. Por ejemplo, "escritorio" y "arrastrar" eran metáforas de una interfaz visual que, en última instancia, se tradujo de nuevo al estricto lenguaje codificado de la computadora.
Un ejemplo de la incomprensión del término NUI se demostró en la feria Consumer Electronics Show de 2010. "Ahora una nueva ola de productos está preparada para llevar las interfaces de usuario naturales, como se denominan estos métodos de control de dispositivos electrónicos, a un público aún más amplio". [7]
En 2010, Bill Buxton de Microsoft reiteró la importancia de la NUI dentro de Microsoft Corporation con un vídeo en el que se analizaban las tecnologías que podrían utilizarse para crear una NUI y su potencial futuro. [8]
En 2010, Daniel Wigdor y Dennis Wixon proporcionaron una operacionalización de la construcción de interfaces de usuario naturales en su libro [9] . En él, distinguen cuidadosamente entre las interfaces de usuario naturales, las tecnologías utilizadas para lograrlas y la IU basada en la realidad.
Cuando le preguntaron a Bill Buxton sobre la interfaz del iPhone, respondió: "Las tecnologías multitáctiles tienen una larga historia. Para ponerlo en perspectiva, el trabajo original que emprendió mi equipo se realizó en 1984, el mismo año en que se lanzó la primera computadora Macintosh, y no fuimos los primeros". [10]
La tecnología Multi-Touch puede permitir una interfaz de usuario natural. Sin embargo, la mayoría de los kits de herramientas de interfaz de usuario que se utilizan para construir interfaces ejecutadas con dicha tecnología son GUI tradicionales.
Un ejemplo es el trabajo realizado por Jefferson Han en interfaces multitáctiles . En una demostración en TED en 2006, mostró una variedad de medios para interactuar con el contenido en pantalla utilizando tanto manipulaciones directas como gestos. Por ejemplo, para dar forma a una masa glutinosa en pantalla, Jeff literalmente la "pellizca", la pincha y la empuja con sus dedos. En una interfaz gráfica de usuario para una aplicación de diseño, por ejemplo, un usuario usaría la metáfora de "herramientas" para hacer esto, por ejemplo, seleccionando una herramienta de pinchado o seleccionando dos partes de la masa a las que luego desea aplicar una acción de "pellizco". Han demostró que la interacción del usuario podría ser mucho más intuitiva eliminando los dispositivos de interacción a los que estamos acostumbrados y reemplazándolos con una pantalla que fuera capaz de detectar una gama mucho más amplia de acciones y gestos humanos. Por supuesto, esto solo permite un conjunto muy limitado de interacciones que se corresponden claramente con la manipulación física (RBI). Extender las capacidades del software más allá de las acciones físicas requiere mucho más trabajo de diseño.
Microsoft PixelSense adopta ideas similares sobre cómo los usuarios interactúan con el contenido, pero añade la capacidad del dispositivo para reconocer ópticamente los objetos colocados sobre él. De esta manera, los usuarios pueden activar acciones en la computadora a través de los mismos gestos y movimientos que permitía la pantalla táctil de Jeff Han, pero también los objetos se convierten en parte de los mecanismos de control. Por ejemplo, cuando se coloca una copa de vino sobre la mesa, la computadora la reconoce como tal y muestra el contenido asociado con esa copa de vino. Colocar una copa de vino sobre una mesa se corresponde bien con las acciones que se realizan con las copas de vino y otras mesas, y por lo tanto se corresponde bien con las interfaces basadas en la realidad. Por lo tanto, podría verse como una entrada a una experiencia NUI.
El término "3D Immersive Touch" se define como la manipulación directa de objetos de entornos virtuales 3D mediante hardware de superficie táctil simple o múltiple en entornos virtuales 3D multiusuario. Fue acuñado por primera vez en 2007 para describir y definir los principios de aprendizaje de la interfaz de usuario natural 3D asociados con Edusim. La interfaz de usuario natural Immersive Touch ahora parece estar adquiriendo un enfoque y un significado más amplios con la adaptación más amplia de hardware táctil y de superficie, como el iPhone, iPod touch, iPad y una lista cada vez mayor de otros hardware. Apple también parece estar mostrando un gran interés en las interfaces de usuario naturales 3D "Immersive Touch" en los últimos años. Este trabajo se basa en la amplia base académica que ha estudiado la manipulación 3D en entornos de realidad virtual.
Kinect es un dispositivo de entrada con sensor de movimiento de Microsoft para la consola de videojuegos Xbox 360 y las PC con Windows que utiliza gestos espaciales para la interacción en lugar de un controlador de juego . Según la página de Microsoft , Kinect está diseñado para "una nueva y revolucionaria forma de jugar: no se requiere un controlador". [11] Nuevamente, debido a que Kinect permite la detección del mundo físico, muestra potencial para los diseños RBI y, por lo tanto, potencialmente también para NUI.