stringtranslate.com

Privacidad del asistente virtual

Los asistentes virtuales son tecnología de software que ayudan a los usuarios a completar diversas tareas. [1] Los asistentes virtuales más conocidos incluyen Amazon Alexa y Siri , producidos por Apple. Otras empresas, como Google y Microsoft , también cuentan con asistentes virtuales. Existen cuestiones de privacidad relativas a qué información puede llegar a las corporaciones de terceros que operan asistentes virtuales y cómo se pueden utilizar potencialmente estos datos . [2]

Debido a que los asistentes virtuales, al igual que los robots u otras inteligencias artificiales, a menudo se consideran cuerpos "nutritivos", los consumidores pueden pasar por alto posibles controversias y valorar más su conveniencia que su privacidad. Al establecer relaciones con los dispositivos, los humanos tienden a acercarse a aquellos que realizan funciones humanas, que es lo que hacen los asistentes virtuales. [3] Para permitir a los usuarios comodidad y asistencia, la privacidad por diseño y el Botón de Seguridad Virtual (Botón VS) proponen métodos en los que ambas son posibles.

Autenticación de una capa versus autenticación multicapa

El Botón de Seguridad Virtual, que detectaría movimiento, se ha propuesto como un método para agregar autenticación multicapa a dispositivos que actualmente solo tienen una capa; Los dispositivos con autenticación de capa única solo requieren que se active una voz. Esta voz podría ser cualquier persona, no necesariamente la persona prevista, lo que hace que el método no sea confiable. [4] La autenticación multicapa requiere múltiples capas de seguridad para autorizar el funcionamiento de un asistente virtual. El botón de Seguridad Virtual proporcionaría una segunda capa de autenticación para dispositivos, como Alexa, que se activaría tanto con el movimiento como con la voz combinados. [4]

Un caso específico en el que hay problemas con la falta de verificación necesaria para desbloquear el acceso a los asistentes virtuales y darles comandos es cuando una Amazon Alexa se deja desatendida en una vivienda. [4] Actualmente, sólo existe una capa de autenticación que es la voz; no existe una capa que requiera la presencia del propietario del asistente virtual. Por lo tanto, con una sola barrera para acceder a toda la información a la que tienen acceso los asistentes virtuales, surgen preocupaciones con respecto a la seguridad de la información intercambiada. Estas preocupaciones sobre la privacidad han influido en el sector tecnológico para pensar en formas de agregar más verificación, como un botón de seguridad virtual. [4]

Autenticación por voz con Siri

La función "Hey Siri" permite que el iPhone escuche a través del sonido ambiental hasta que se detecta esta frase ("Hey Siri"). Una vez que se detecta esta frase, Siri se activa para responder. [5] Para no ser escuchado siempre, un usuario de iPhone puede desactivar la función "Hey Siri". Sin esta función activada, el dispositivo no siempre estará escuchando esas dos palabras y no se escuchará otra información en el proceso. [5] Esta autenticación de voz sirve como una capa singular, ya que solo se utiliza la voz para autenticar al usuario.

Ejemplos de asistentes virtuales

alexa amazona

Este asistente virtual está vinculado al altavoz " Echo " creado por Amazon y es principalmente un dispositivo controlado por la voz que puede reproducir música, dar información al usuario y realizar otras funciones. [6] Dado que el dispositivo se controla mediante la voz, no hay botones involucrados en su uso. El dispositivo no cuenta con una medida para determinar si la voz escuchada es realmente la del consumidor. [4] El Botón de Seguridad Virtual (Botón VS) se ha propuesto como un método potencial para agregar más seguridad a este asistente virtual. [4]

Los beneficios de agregar un botón VS a Alexa

El botón VS utiliza tecnología de redes wifi para detectar movimientos cinemáticos humanos . [4] El robo en viviendas representa un peligro, ya que la tecnología de cerradura inteligente se puede activar ya que habrá movimiento presente. [4] Por lo tanto, el botón VS que proporciona un método de doble verificación antes de permitir que se utilice Alexa reduciría la posibilidad de que ocurran escenarios tan peligrosos. [4] La introducción del botón Seguridad virtual agregaría otro nivel de autenticación, agregando así privacidad al dispositivo. [4]

Siri de Apple

Siri es el asistente virtual de Apple Corporation y se utiliza en el iPhone. Siri recopila la información que ingresan los usuarios y tiene la capacidad de utilizar estos datos. [2] El ecosistema de la interfaz tecnológica es vital para determinar la cantidad de privacidad; el ecosistema es donde vive la información. Otra información que puede verse comprometida es la información de ubicación si se utiliza la función GPS del iPhone . [7] Cualquier información, como la ubicación de uno, que se proporciona en un intercambio con un asistente virtual se almacena en estos ecosistemas. [7]

Hola Siri

"Hey Siri" permite activar Siri por voz. El dispositivo continúa recopilando sonidos ambientales hasta que encuentra las palabras "Hola Siri". [5] Esta función puede ser útil para aquellas personas con discapacidad visual, ya que pueden acceder a las aplicaciones de su teléfono únicamente a través de su voz. [8]

Nivel de autenticación de Siri

Siri de Apple también tiene un solo nivel de autenticación. Si uno tiene un código de acceso, para utilizar varias funciones, Siri requerirá que se ingrese el código de acceso. Sin embargo, los consumidores valoran la comodidad, por lo que las contraseñas no están en todos los dispositivos. [4]

Cortana

Cortana, el asistente virtual de Microsoft , es otro asistente virtual activado por voz que solo requiere la voz; por lo tanto, también utiliza únicamente la forma singular de autenticación. [6] El dispositivo no utiliza el botón VS descrito anteriormente para tener presente una segunda forma de autenticación. Los comandos que utiliza el dispositivo tienen que ver mayoritariamente con decir el tiempo que hace, llamar a uno de los contactos del usuario o dar direcciones. Todos estos comandos requieren una visión de la vida del usuario porque en el proceso de responder estas consultas, el dispositivo examina los datos, lo que supone un riesgo para la privacidad. [ cita necesaria ]

Asistente de Google

El Asistente de Google, que originalmente se llamó Google Now , es el asistente virtual más parecido a un humano. [6] Las similitudes entre los humanos y este asistente virtual se derivan del lenguaje natural utilizado, así como del hecho de que este asistente virtual en particular tiene mucho conocimiento sobre las tareas que a los humanos les gustaría que completaran antes de que el usuario las utilice. Este conocimiento previo hace que la interacción sea mucho más natural. Algunas de estas interacciones se denominan específicamente comandos promocionales. [6]

Asistentes virtuales automatizados en viajes compartidos

Las empresas de viajes compartidos como Uber y Lyft utilizan inteligencia artificial para ampliar sus ámbitos de negocio. Para crear precios adaptables que cambien con la oferta y la demanda de viajes, estas empresas utilizan algoritmos tecnológicos para determinar los precios de "aumento" o "horario de máxima audiencia". [9] Además, esta característica de inteligencia artificial ayuda a disipar las preocupaciones de privacidad relacionadas con el posible intercambio de información confidencial de los usuarios entre los empleados de Uber y Lyft. Sin embargo, incluso las inteligencias artificiales utilizadas pueden "interactuar" entre sí, por lo que estas preocupaciones de privacidad para las empresas siguen siendo relevantes. [9]

Posibles riesgos de privacidad de los asistentes virtuales [10]

Accesibilidad de las condiciones de uso.

Los términos de uso que uno debe aprobar al adquirir su dispositivo por primera vez son los que brindan a corporaciones como Apple Corporation acceso a la información. Estos acuerdos describen tanto las funciones de los dispositivos, qué información es privada y cualquier otra información que la empresa considere necesaria para exponer. [11] Incluso para los clientes que leen esta información, la información a menudo se decodifica de una manera vaga y poco clara. El texto es objetivamente una fuente pequeña y, a menudo, se considera demasiado extenso o demasiado extenso para el usuario promedio. [11]

Privacidad por diseño

La privacidad por diseño hace que la interfaz sea más segura para el usuario. La privacidad por diseño se produce cuando el modelo de un producto incorpora aspectos de privacidad en la forma en que se crea el objeto o programa. [12] Incluso los usos de la tecnología que tienen poco que ver con la ubicación tienen la capacidad de rastrear la ubicación de uno. Por ejemplo, las redes WiFi son un peligro para quienes intentan mantener la privacidad de sus ubicaciones. Varias organizaciones están trabajando para regular más la privacidad desde el diseño para que más empresas lo hagan. [12]

Si un producto no tiene privacidad por diseño, el productor podría considerar agregar modos de privacidad al producto. El objetivo es que se formen organizaciones que garanticen que la privacidad desde el diseño se realice utilizando un estándar; este estándar haría que la privacidad por diseño fuera más confiable y digna de confianza que la privacidad por elección. [12] El estándar tendría que ser lo suficientemente alto como para no permitir lagunas de información que se puedan infringir, y tales reglas pueden aplicarse a los asistentes virtuales. [ cita necesaria ]

Varias patentes han controlado el requisito de que la tecnología, como la inteligencia artificial, incluya varios modos de privacidad por naturaleza. Estas propuestas han incluido Privacidad por diseño, que ocurre cuando se incorporan aspectos de privacidad en el diseño de un dispositivo. [13] De esta manera, las corporaciones no tendrán que incorporar la privacidad en sus diseños en el futuro; Los diseños se pueden escribir teniendo en cuenta la privacidad. Esto permitiría un método más seguro para garantizar que los algoritmos de privacidad no dejen fuera ni siquiera los casos extremos. [12]

Inteligencia artificial

La inteligencia artificial en su conjunto intenta emular las acciones humanas y proporcionar los servicios menores que los humanos brindan, pero no debería ser motivo de preocupación. [14] En el proceso de automatización de estas acciones, se forman diversas interfaces tecnológicas.

El problema que hay que resolver tiene que ver con el concepto de que para procesar información y realizar sus funciones, los asistentes virtuales curan información. [14] Es vital evaluar el uso de esta información y los riesgos de que la información se vea comprometida tanto para el campo de los asistentes virtuales como para la inteligencia artificial en general.

Controversia

Ha habido controversias en torno a las opiniones que pueden tener los asistentes virtuales. A medida que la tecnología ha evolucionado, existe la posibilidad de que los asistentes virtuales posean posiciones controvertidas sobre temas que pueden causar revuelo. Estos puntos de vista pueden ser políticos, lo que puede tener un impacto en la sociedad, ya que los asistentes virtuales se utilizan ampliamente. [15]

El crowdsourcing también es controvertido; aunque permite la innovación por parte de los usuarios, tal vez pueda actuar como una excusa para que las empresas se atribuyan el mérito cuando, en realidad, los clientes han creado una nueva innovación. [dieciséis]

Enfoque del Mago de Oz

Una forma de investigar la interacción entre humanos y robots se llama enfoque del Mago de Oz. Específicamente, este enfoque tiene como objetivo que un líder humano de un estudio reemplace a un robot mientras el usuario completa una tarea con fines de investigación. [17] Además de que los humanos evalúen la inteligencia artificial y los robots, se está introduciendo el enfoque del Mago de Oz. Cuando la tecnología se acerca a la humana, el enfoque del Mago de Oz dice que esta tecnología tiene la capacidad de evaluar y aumentar otras tecnologías de inteligencia artificial. Además, el método también sugiere que la tecnología, para ser utilizada, no necesariamente tiene que ser similar a la humana. [17] Por lo tanto, para ser utilizados, siempre que tengan características útiles, los asistentes virtuales no tienen que centrar toda su innovación en volverse más parecidos a los humanos.

Referencias

  1. ^ Sistema y método para plataformas de asistentes virtuales distribuidos (patente) , consultado el 9 de noviembre de 2018.
  2. ^ ab Sadun, Erica; Sande, Steve (2012). Hablando con Siri . Que Editorial. ISBN 9780789749734.
  3. ^ Turkle, Jerez. "Una cultura robótica naciente: nuevas complicidades para el compañerismo" (PDF) . MIT .
  4. ^ abcdefghijk Lei, Xinyu; Tu, Guan-Hua; Liu, Alex X.; Li, Chi-Yu; Xie, Tian (2017). "La inseguridad de los asistentes de voz digitales domésticos: Amazon Alexa como estudio de caso". arXiv : 1712.03327 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  5. ^ abc Zhang, Guoming; Yan, Chen; Ji, Xiaoyu; Zhang, Tianchen; Zhang, Taimin; Xu, Wenyuan (2017). "Ataque de delfines". Actas de la Conferencia ACM SIGSAC de 2017 sobre seguridad informática y de las comunicaciones - CCS '17 . págs. 103-117. arXiv : 1708.09537 . doi :10.1145/3133956.3134052. ISBN 9781450349468. S2CID  2419970.
  6. ^ abcd López, Gustavo; Quesada, Luis; Guerrero, Luis A. (2018). "Alexa, Siri, Cortana y el Asistente de Google: una comparación de interfaces de usuario naturales basadas en la voz". Avances en la interacción de sistemas y factores humanos . Avances en Sistemas Inteligentes y Computación. vol. 592, págs. 241-250. doi :10.1007/978-3-319-60366-7_23. ISBN 978-3-319-60365-0.
  7. ^ ab Andrienko, Gennady; Gkoulalas-Divanis, Aris; Gruteser, Marco; Kopp, Christine; Liebig, Thomas; Rechert, Klaus (2013). "Informe de Dagstuhl". Revisión de comunicaciones y computación móvil de ACM SIGMOBILE . 17 (2): 7. doi :10.1145/2505395.2505398. S2CID  1357034.
  8. ^ Sí, Hanlu; Malu, Meethu; Oh, Urán; Encontrar más tarde, Leah (2014). "Uso actual y futuro de dispositivos móviles y portátiles por parte de personas con discapacidad visual". Actas de la 32ª conferencia anual de ACM sobre factores humanos en sistemas informáticos: CHI '14 . págs. 3123–3132. CiteSeerX 10.1.1.453.6994 . doi :10.1145/2556288.2557085. ISBN  9781450324731. S2CID  2787361.
  9. ^ ab Ballard, Dyllan; Naik, Amar. «ALGORITMOS, INTELIGENCIA ARTIFICIAL Y CONDUCTA CONJUNTA» (PDF) . Política de Competencia Internacional .
  10. ^ Edu, Jide S., José M. Such y Guillermo Suárez-Tangil. "Asistentes personales domésticos inteligentes: una revisión de seguridad y privacidad". Encuestas de Computación ACM (CSUR) 53.6 (2020): 1-36.
  11. ^ ab Stylianou, Konstantinos K. (2010). "Un estudio evolutivo de los términos de privacidad de los servicios de computación en la nube". Revista John Marshall de derecho informático y de la información . 27 (4).
  12. ^ abcd Cavoukian, Ann; Bansal, Nilesh; Koudas, Nick. "Integración de la privacidad en el análisis de ubicación móvil (MLA) mediante la privacidad desde el diseño" (PDF) . Privacidad por diseño . FTC.
  13. ^ Asistente virtual personal (patente) , consultado el 30 de octubre de 2018.
  14. ^ ab McCorduck, Pamela (2004). Máquinas que piensan: una investigación personal sobre la historia y las perspectivas de la inteligencia artificial (edición de actualización del 25 aniversario). Natick, Massachusetts: AK Peters. ISBN 978-1568812052. OCLC  52197627.[ página necesaria ]
  15. ^ Barberá, Pablo; Jost, John T.; Nagler, Jonathan; Tucker, Josué A.; Bonneau, Richard (2015). "Tuiteando de izquierda a derecha". Ciencia psicológica . 26 (10): 1531-1542. doi :10.1177/0956797615594620. PMID  26297377. S2CID  4649581.
  16. ^ Budak, Ceren; Goel, Sharad; Rao, Justin M. (2016). "¿Justo y equilibrado? Cuantificación del sesgo de los medios mediante análisis de contenido colaborativo". Opinión Pública Trimestral . 80 : 250–271. doi :10.1093/poq/nfw007.
  17. ^ ab Dahlbäck, Nils; Jönsson, Arne; Ahrenberg, Lars (1993). "Estudios del Mago de Oz". Actas de la primera conferencia internacional sobre interfaces de usuario inteligentes: IUI '93 . Nueva York, NY, Estados Unidos: ACM. págs. 193-200. doi :10.1145/169891.169968. ISBN 9780897915564. S2CID  1611353.