En informática , multitáctil es una tecnología que permite que una superficie (un panel táctil o una pantalla táctil ) reconozca la presencia de más de un punto de contacto con la superficie al mismo tiempo. Los orígenes de la tecnología multitáctil comenzaron en el CERN , [1] MIT , la Universidad de Toronto , la Universidad Carnegie Mellon y los Laboratorios Bell en la década de 1970. [2] El CERN empezó a utilizar pantallas multitáctiles ya en 1976 para los controles del Super Proton Synchrotron . [3] [4] Las pantallas multitáctiles capacitivas fueron popularizadas por el iPhone de Apple en 2007. [5] [6] La función multitáctil se puede utilizar para implementar funciones adicionales, como pellizcar para hacer zoom o activar ciertas subrutinas adjuntas a Gestos predefinidos mediante reconocimiento de gestos .
Varios usos del término multitáctil fueron el resultado de los rápidos avances en este campo, y muchas empresas utilizaron el término para comercializar tecnología más antigua que otras empresas e investigadores denominan toque único mejorado por gestos o varios otros términos. Varios otros términos similares o relacionados intentan diferenciar si un dispositivo puede determinar exactamente o solo aproximar la ubicación de diferentes puntos de contacto para diferenciar aún más entre las diversas capacidades tecnológicas, pero a menudo se utilizan como sinónimos en marketing.
La tecnología multitáctil se implementa comúnmente mediante tecnología de detección capacitiva en dispositivos móviles y dispositivos inteligentes . Una pantalla táctil capacitiva generalmente consta de un sensor táctil capacitivo , un controlador de circuito integrado de aplicación específica (ASIC) y un procesador de señal digital (DSP) fabricado con tecnología CMOS ( semiconductor de óxido de metal complementario ). Un enfoque alternativo más reciente es la tecnología táctil óptica, basada en tecnología de sensores de imagen .
En informática , multitáctil es una tecnología que permite que un panel táctil o una pantalla táctil reconozca más de un [7] [8] o más de dos [9] puntos de contacto con la superficie. Apple popularizó el término "multitáctil" en 2007 con el que implementó funcionalidades adicionales, como pellizcar para hacer zoom o activar ciertas subrutinas adjuntas a gestos predefinidos .
Los dos usos diferentes del término fueron el resultado de los rápidos desarrollos en este campo, y muchas empresas utilizaron el término para comercializar tecnología más antigua que otras empresas e investigadores denominan toque único mejorado por gestos o varios otros términos. [10] [11] Varios otros términos similares o relacionados intentan diferenciar entre si un dispositivo puede determinar exactamente o solo aproximar la ubicación de diferentes puntos de contacto para diferenciar aún más entre las diversas capacidades tecnológicas, [11] pero a menudo se usan como sinónimos en marketing.
El uso de la tecnología de pantalla táctil es anterior tanto a la tecnología multitáctil como a la computadora personal. Los primeros constructores de sintetizadores e instrumentos electrónicos, como Hugh Le Caine y Robert Moog, experimentaron con el uso de sensores de capacitancia sensibles al tacto para controlar los sonidos producidos por sus instrumentos. [12] IBM comenzó a construir las primeras pantallas táctiles a finales de la década de 1960. En 1972, Control Data lanzó la computadora PLATO IV, una terminal de infrarrojos utilizada con fines educativos, que empleaba puntos de un solo toque en una interfaz de usuario de matriz de 16 × 16. Estas primeras pantallas táctiles solo registraban un punto de contacto a la vez. Los teclados en pantalla (una característica muy conocida hoy en día) eran, por lo tanto, incómodos de usar, porque no era posible pasar las teclas y mantener presionada una tecla Mayús mientras se tecleaba otra. [13]
Las excepciones a esto fueron un teclado/pantalla táctil reconfigurable multitáctil de "cable cruzado" desarrollado en el Instituto de Tecnología de Massachusetts a principios de la década de 1970 [14] y la pantalla multitáctil capacitiva de 16 botones desarrollada en el CERN en 1972 para los controles de el Super Sincrotrón de Protones que estaban en construcción. [15]
En 1976, se desarrolló en el CERN una nueva pantalla capacitiva xy , basada en las pantallas táctiles de capacitancia desarrolladas en 1972 por el ingeniero electrónico danés Bent Stumpe . [1] [17] Esta tecnología, que permite una ubicación exacta de los diferentes puntos de contacto, se utilizó para desarrollar un nuevo tipo de interfaz hombre-máquina (HMI) para la sala de control del acelerador de partículas Super Proton Synchrotron. [18] [19] [20] En una nota manuscrita fechada el 11 de marzo de 1972, [21] Stumpe presentó su solución propuesta: una pantalla táctil capacitiva con un número fijo de botones programables presentados en una pantalla. La pantalla consistiría en un conjunto de condensadores grabados en una película de cobre sobre una hoja de vidrio, cada condensador construido de manera que un conductor plano cercano, como la superficie de un dedo, aumentara la capacitancia en una cantidad significativa. Los condensadores debían consistir en finas líneas grabadas en cobre sobre una lámina de vidrio, lo suficientemente finas (80 μm) y suficientemente separadas (80 μm) para ser invisibles. [22] En el dispositivo final, una simple capa de laca impedía que los dedos tocaran los condensadores. Ese mismo año, el MIT describió un teclado con gráficos variables capaz de detección multitáctil. [14]
A principios de la década de 1980, el Grupo de Investigación de Entradas de la Universidad de Toronto estuvo entre los primeros en explorar el lado del software de los sistemas de entrada multitáctiles. [23] Un sistema de 1982 en la Universidad de Toronto utilizó un panel de vidrio esmerilado con una cámara colocada detrás del vidrio. Cuando uno o varios dedos presionaban el cristal, la cámara detectaba la acción como uno o más puntos negros sobre un fondo blanco, lo que permitía registrarla como una entrada. Dado que el tamaño de un punto dependía de la presión (la fuerza con la que la persona presionaba el cristal), el sistema también era algo sensible a la presión. [12] Es de destacar que este sistema solo funcionaba con entradas y no podía mostrar gráficos.
En 1983, Bell Labs en Murray Hill publicó una discusión exhaustiva sobre las interfaces basadas en pantallas táctiles, aunque no menciona los dedos múltiples. [24] En el mismo año, el sistema Video Place/Video Desk basado en vídeo de Myron Krueger influyó en el desarrollo de gestos multitáctiles como pellizcar para hacer zoom, aunque este sistema no tenía interacción táctil en sí. [25] [26]
En 1984, tanto los Laboratorios Bell como la Universidad Carnegie Mellon tenían prototipos de pantallas multitáctiles (tanto de entrada como gráficas) que podían responder interactivamente a múltiples entradas de dedos. [27] [28] El sistema Bell Labs se basó en el acoplamiento capacitivo de dedos, mientras que el sistema CMU era óptico. En 1985, se demostró el gesto canónico multitáctil de pellizcar para hacer zoom, con gráficos coordinados, en el sistema de CMU. [29] [30] En octubre de 1985, Steve Jobs firmó un acuerdo de confidencialidad para recorrer el laboratorio multitáctil Sensor Frame de CMU. [31] En 1990, Sears et al. publicó una revisión de la investigación académica sobre la interacción entre humanos y computadoras con pantalla táctil simple y multitáctil de la época, que describe gestos de un solo toque, como girar perillas, deslizar la pantalla para activar un interruptor (o un gesto en forma de U para un interruptor de palanca), y teclados de pantalla táctil (incluido un estudio que demostró que los usuarios podían escribir a 25 palabras por minuto en un teclado de pantalla táctil en comparación con 58 palabras por minuto en un teclado estándar, con la hipótesis de que la función multitáctil mejora la tasa de entrada de datos); También se describen gestos multitáctiles, como seleccionar un rango de una línea, conectar objetos y un gesto de "tocar y hacer clic" para seleccionar mientras se mantiene la ubicación con otro dedo. [32]
En 1991, Pierre Wellner avanzó en el tema publicando su "Digital Desk" multitáctil, que admitía movimientos de pellizcos y con varios dedos. [33] [34] Varias empresas ampliaron estos inventos a principios del siglo XXI.
Entre 1999 y 2005, la empresa Fingerworks desarrolló varias tecnologías multitáctiles, incluidos los teclados Touchstream y el iGesture Pad. A principios de la década de 2000 Alan Hedge, profesor de factores humanos y ergonomía en la Universidad de Cornell, publicó varios estudios sobre esta tecnología. [35] [36] [37] En 2005, Apple adquirió Fingerworks y su tecnología multitáctil. [38]
En 2004, la startup francesa JazzMutant desarrolló el Lemur Input Device , un controlador de música que se convirtió en 2005 en el primer producto comercial que presentaba una pantalla multitáctil transparente patentada, que permitía la manipulación directa de la pantalla con diez dedos. [39] [40]
En enero de 2007, la tecnología multitáctil se generalizó con el iPhone , y en su anuncio del iPhone, Apple incluso afirmó que "inventó el multitáctil", [41] sin embargo, tanto la función como el término son anteriores al anuncio o a las solicitudes de patente, excepto en el área de pantallas móviles capacitivas, que no existían antes de la tecnología de Fingerworks/Apple (Fingerworks presentó patentes en 2001-2005, [42] Apple patentó mejoras multitáctiles posteriores [43] ).
Sin embargo, la oficina de Patentes y Marcas de EE. UU. declaró que la funcionalidad "pellizcar para hacer zoom" fue predicha por la patente de EE. UU. nº 7.844.915 [44] [45] relacionada con gestos en pantallas táctiles, presentada por Bran Ferren y Daniel Hillis en 2005, como era desplazamiento inercial, [46] invalidando así una reivindicación clave de la patente de Apple.
En 2001, comenzó a desarrollarse la plataforma táctil de mesa de Microsoft, Microsoft PixelSense (anteriormente Surface), que interactúa tanto con el tacto del usuario como con sus dispositivos electrónicos y se comercializó el 29 de mayo de 2007. De manera similar, en 2001, Mitsubishi Electric Research Laboratories (MERL ) comenzó el desarrollo de un sistema multitáctil y multiusuario llamado DiamondTouch .
En 2008, el Diamondtouch se convirtió en un producto comercial y también se basa en capacitancia, pero es capaz de diferenciar entre múltiples usuarios simultáneos o, mejor dicho, las sillas en las que está sentado cada usuario o el suelo sobre el que está de pie. En 2007, el sistema de código abierto de NORTD Labs ofreció su CUBIT (multitáctil) .
Los dispositivos táctiles a pequeña escala se convirtieron rápidamente en algo común en 2008. Se esperaba que el número de teléfonos con pantalla táctil aumentara de 200.000 enviados en 2006 a 21 millones en 2012. [47]
En mayo de 2015, Apple obtuvo una patente para un "teclado de fusión", que convierte teclas físicas individuales en botones multitáctiles. [48]
Apple ha vendido y distribuido numerosos productos utilizando tecnología multitáctil, entre los que destaca su teléfono inteligente iPhone y su tableta iPad . Además, Apple también posee varias patentes relacionadas con la implementación de la tecnología multitáctil en interfaces de usuario, [49] sin embargo, se ha cuestionado la legitimidad de algunas patentes. [50] Apple además intentó registrar "Multi-touch" como marca comercial en los Estados Unidos; sin embargo, su solicitud fue denegada por la Oficina de Patentes y Marcas de los Estados Unidos porque consideraba que el término era genérico . [51]
La detección y el procesamiento multitáctil se producen a través de un sensor ASIC que está conectado a la superficie táctil. Por lo general, empresas independientes fabrican el ASIC y la pantalla que se combinan en una pantalla táctil; por el contrario, la superficie de un panel táctil y un ASIC suelen ser fabricados por la misma empresa. En los últimos años ha habido grandes empresas que se han expandido hacia la creciente industria multitáctil, con sistemas diseñados para todo, desde el usuario ocasional hasta organizaciones multinacionales.
Ahora es común que los fabricantes de computadoras portátiles incluyan paneles táctiles multitáctiles en sus computadoras portátiles, y las tabletas responden a la entrada táctil en lugar de la entrada tradicional con lápiz óptico y son compatibles con muchos sistemas operativos recientes .
Algunas empresas se están centrando en la informática de superficie a gran escala en lugar de en la electrónica personal, ya sean grandes mesas multitáctiles o superficies de pared. Estos sistemas son generalmente utilizados por organizaciones gubernamentales, museos y empresas como medio de información o exhibición. [ cita necesaria ]
La función multitáctil se ha implementado de varias formas diferentes, según el tamaño y el tipo de interfaz. La forma más popular son los dispositivos móviles, tabletas , mesas táctiles y paredes. Tanto las mesas táctiles como las paredes táctiles proyectan una imagen a través de acrílico o vidrio y luego iluminan la imagen con LED.
Las superficies táctiles también pueden volverse sensibles a la presión agregando un recubrimiento sensible a la presión que se flexiona de manera diferente dependiendo de la firmeza con la que se presiona, alterando el reflejo. [52]
Las tecnologías portátiles utilizan un panel que transporta una carga eléctrica. Cuando un dedo toca la pantalla, el toque interrumpe el campo eléctrico del panel. La interrupción se registra como un evento informático (gesto) y puede enviarse al software, que luego puede iniciar una respuesta al evento del gesto. [53]
En los últimos años, varias empresas han lanzado productos que utilizan la tecnología multitáctil. En un intento por hacer más accesible esta costosa tecnología, los aficionados también han publicado métodos para construir pantallas táctiles de bricolaje . [54]
Las tecnologías capacitivas incluyen: [55]
Las tecnologías resistivas incluyen: [55]
La tecnología táctil óptica se basa en la tecnología de sensor de imagen . Funciona cuando un dedo o un objeto toca la superficie, provocando que la luz se disperse, cuyo reflejo es captado por sensores o cámaras que envían los datos a un software que dicta la respuesta al tacto, según el tipo de reflejo medido.
Las tecnologías ópticas incluyen: [55]
Las tecnologías basadas en ondas acústicas y de radiofrecuencia incluyen: [55]
Los gestos multitáctiles de la pantalla táctil permiten movimientos predefinidos para interactuar con el dispositivo y el software. Un número cada vez mayor de dispositivos como teléfonos inteligentes , tabletas , portátiles o ordenadores de sobremesa tienen funciones que se activan mediante gestos multitáctiles.
Años antes de que fuera un producto de consumo viable, la cultura popular retrataba los usos potenciales de la tecnología multitáctil en el futuro, incluso en varias entregas de la franquicia Star Trek .
En la película de ciencia ficción de Disney de 1982, Tron, se mostró un dispositivo similar al Microsoft Surface. Ocupaba todo el escritorio de un ejecutivo y se utilizaba para comunicarse con la computadora de Master Control .
En la película Minority Report de 2002 , Tom Cruise utiliza un par de guantes que se asemejan a una interfaz multitáctil para navegar a través de la información. [57]
En la película de 2005 The Island , se vio otra forma de computadora multitáctil donde el profesor, interpretado por Sean Bean , tiene un escritorio multitáctil para organizar archivos, basado en una versión anterior de Microsoft Surface [2] (no se confundido con las tabletas que ahora llevan ese nombre).
En 2007, la serie de televisión CSI: Miami introdujo pantallas multitáctiles de superficie y de pared en su sexta temporada.
La tecnología multitáctil se puede ver en la película de James Bond de 2008 Quantum of Solace , donde el MI6 utiliza una interfaz táctil para buscar información sobre el criminal Dominic Greene. [58]
En la película de 2008 El día que la Tierra se detuvo , se utilizó Surface de Microsoft. [59]
La serie de televisión NCIS: Los Ángeles , que se estrenó en 2009, utiliza superficies multitáctiles y paneles de pared como una iniciativa para volverse digital.
En un episodio de 2008 de la serie de televisión Los Simpson , Lisa Simpson viaja a la sede submarina de Mapple para visitar a Steve Mobbs, quien se muestra realizando múltiples gestos con las manos multitáctiles en una gran pared táctil.
En 2009, la película Distrito 9, la interfaz utilizada para controlar la nave alienígena presenta una tecnología similar. [60]
10/GUI es un nuevo paradigma de interfaz de usuario propuesto . Creado en 2009 por R. Clayton Miller, combina la entrada multitáctil con un nuevo administrador de ventanas .
Separa la superficie táctil de la pantalla, de modo que se reduce la fatiga del usuario y sus manos no obstruyen la pantalla. [61] En lugar de colocar ventanas por toda la pantalla, el administrador de ventanas, Con10uum, utiliza un paradigma lineal, con función multitáctil para navegar entre las ventanas y organizarlas. [62] Un área en el lado derecho de la pantalla táctil muestra un menú contextual global, y una franja similar en el lado izquierdo muestra menús específicos de la aplicación.
En noviembre de 2009 estuvo disponible una vista previa de la comunidad de código abierto del administrador de ventanas Con10uum .
{{cite book}}
: Mantenimiento CS1: fecha y año ( enlace ) Mantenimiento CS1: varios nombres: lista de autores ( enlace )Y hemos inventado una nueva tecnología llamada Multi-touch