stringtranslate.com

Pruebas de usabilidad

Las pruebas de usabilidad son una técnica utilizada en el diseño de interacción centrada en el usuario para evaluar un producto probándolo en los usuarios. Esto puede verse como una práctica de usabilidad irremplazable , ya que brinda información directa sobre cómo los usuarios reales usan el sistema. [1] Está más preocupado por la intuición del diseño del producto y se prueba con usuarios que no han estado expuestos previamente a él. Estas pruebas son fundamentales para el éxito de un producto final, ya que una aplicación en pleno funcionamiento que crea confusión entre sus usuarios no durará mucho. [2] Esto contrasta con los métodos de inspección de usabilidad donde los expertos utilizan diferentes métodos para evaluar una interfaz de usuario sin involucrar a los usuarios.

Las pruebas de usabilidad se centran en medir la capacidad de un producto fabricado por humanos para cumplir los fines previstos. Ejemplos de productos que comúnmente se benefician de las pruebas de usabilidad son alimentos , productos de consumo, sitios web o aplicaciones web, interfaces informáticas , documentos y dispositivos. Las pruebas de usabilidad miden la usabilidad o facilidad de uso de un objeto o conjunto de objetos específicos, mientras que los estudios generales de interacción persona-computadora intentan formular principios universales.

lo que no es

La mera recopilación de opiniones sobre un objeto o un documento es una investigación de mercado o una investigación cualitativa más que una prueba de usabilidad. Las pruebas de usabilidad generalmente implican una observación sistemática en condiciones controladas para determinar qué tan bien las personas pueden usar el producto. [3] Sin embargo, a menudo tanto la investigación cualitativa como las pruebas de usabilidad se utilizan en combinación, para comprender mejor las motivaciones/percepciones de los usuarios, además de sus acciones.

En lugar de mostrar a los usuarios un borrador y preguntar: "¿Entiendes esto?", las pruebas de usabilidad implican observar a las personas que intentan usar algo para el propósito previsto. Por ejemplo, cuando se prueban instrucciones para ensamblar un juguete, a los sujetos de prueba se les deben dar las instrucciones y una caja de piezas y, en lugar de pedirles que comenten sobre las piezas y los materiales, se les debe pedir que armen el juguete. La redacción de las instrucciones, la calidad de las ilustraciones y el diseño del juguete afectan el proceso de ensamblaje.

Métodos

Configurar una prueba de usabilidad implica crear cuidadosamente un escenario , o una situación realista, en la que la persona realiza una lista de tareas utilizando el producto que se está probando mientras los observadores observan y toman notas ( verificación dinámica ). También se utilizan varios otros instrumentos de prueba , como instrucciones escritas, prototipos en papel y cuestionarios previos y posteriores a la prueba, para recopilar comentarios sobre el producto que se está probando ( verificación estática ). Por ejemplo, para probar la función de archivo adjunto de un programa de correo electrónico , un escenario describiría una situación en la que una persona necesita enviar un archivo adjunto de correo electrónico y pedirle que realice esta tarea. El objetivo es observar cómo funcionan las personas de manera realista, para que los desarrolladores puedan identificar las áreas problemáticas y solucionarlas. Las técnicas utilizadas popularmente para recopilar datos durante una prueba de usabilidad incluyen el protocolo de pensamiento en voz alta , el aprendizaje conjunto y el seguimiento ocular .

Pruebas de pasillo

Las pruebas de pasillo , también conocidas como usabilidad de guerrilla , son un método rápido y económico de prueba de usabilidad en el que se pide a las personas, como las que pasan por el pasillo, que intenten utilizar el producto o servicio. Esto puede ayudar a los diseñadores a identificar "paredes de ladrillos", problemas tan graves que los usuarios simplemente no pueden avanzar, en las primeras etapas de un nuevo diseño. Se puede utilizar a cualquier persona excepto a los diseñadores e ingenieros del proyecto (tienden a actuar como "revisores expertos" porque están demasiado cerca del proyecto).

Este tipo de prueba es un ejemplo de muestreo por conveniencia y, por lo tanto, los resultados pueden estar sesgados.

Pruebas de usabilidad remotas

En un escenario en el que los evaluadores de usabilidad, desarrolladores y usuarios potenciales se encuentran en diferentes países y zonas horarias, realizar una evaluación de usabilidad de laboratorio tradicional crea desafíos tanto desde la perspectiva de costos como logística. Estas preocupaciones llevaron a investigar sobre la evaluación remota de la usabilidad, con el usuario y los evaluadores separados en el espacio y el tiempo. Las pruebas remotas, que facilitan que las evaluaciones se realicen en el contexto de otras tareas y tecnología del usuario, pueden ser sincrónicas o asincrónicas. El primero implica una comunicación individual en tiempo real entre el evaluador y el usuario, mientras que el segundo implica que el evaluador y el usuario trabajen por separado. [4] Hay numerosas herramientas disponibles para abordar las necesidades de ambos enfoques.

Las metodologías de prueba de usabilidad sincrónica implican videoconferencias o emplean herramientas remotas para compartir aplicaciones como WebEx. WebEx y GoToMeeting son las tecnologías más utilizadas para realizar una prueba de usabilidad remota sincrónica. [5] Sin embargo, las pruebas remotas sincrónicas pueden carecer de la inmediatez y la sensación de "presencia" deseada para respaldar un proceso de prueba colaborativo. Además, gestionar la dinámica interpersonal a través de barreras culturales y lingüísticas puede requerir enfoques sensibles a las culturas involucradas. Otras desventajas incluyen tener un control reducido sobre el entorno de prueba y las distracciones e interrupciones experimentadas por los participantes en su entorno nativo. [6] Uno de los métodos más nuevos desarrollados para realizar una prueba de usabilidad remota síncrona es mediante el uso de mundos virtuales. [7]

Las metodologías asincrónicas incluyen la recopilación automática de secuencias de clics de los usuarios, registros de usuarios de incidentes críticos que ocurren al interactuar con la aplicación y comentarios subjetivos de los usuarios sobre la interfaz. [6] De manera similar a un estudio en el laboratorio, una prueba de usabilidad remota asincrónica se basa en tareas y la plataforma permite a los investigadores capturar clics y tiempos de tareas. Por lo tanto, para muchas grandes empresas, esto permite a los investigadores comprender mejor las intenciones de los visitantes cuando visitan un sitio web o un sitio móvil. Además, este estilo de prueba de usuarios también brinda la oportunidad de segmentar los comentarios por tipo demográfico, de actitud y de comportamiento. Las pruebas se llevan a cabo en el propio entorno del usuario (en lugar de en laboratorios), lo que ayuda a simular aún más las pruebas en escenarios de la vida real. Este enfoque también proporciona un vehículo para solicitar fácilmente comentarios de los usuarios en áreas remotas, rápidamente y con menores gastos organizativos. En los últimos años, la realización de pruebas de usabilidad de forma asincrónica también se ha vuelto frecuente y permite a los evaluadores brindar comentarios en su tiempo libre y desde la comodidad de su hogar.

Revisión de expertos

La revisión de expertos es otro método general de pruebas de usabilidad. Como sugiere el nombre, este método se basa en contratar expertos con experiencia en el campo (posiblemente de empresas que se especializan en pruebas de usabilidad) para evaluar la usabilidad de un producto.

Una evaluación heurística o auditoría de usabilidad es una evaluación de una interfaz realizada por uno o más expertos en factores humanos. Los evaluadores miden la usabilidad, eficiencia y eficacia de la interfaz basándose en principios de usabilidad, como las 10 heurísticas de usabilidad definidas originalmente por Jakob Nielsen en 1994. [8]

Las heurísticas de usabilidad de Nielsen, que han seguido evolucionando en respuesta a la investigación de los usuarios y los nuevos dispositivos, incluyen:

Revisión de expertos automatizada

Al igual que las revisiones de expertos, las revisiones de expertos automatizadas proporcionan pruebas de usabilidad, pero mediante el uso de programas con reglas para un buen diseño y heurística. Aunque es posible que una revisión automatizada no proporcione tantos detalles y conocimientos como las revisiones de las personas, se pueden finalizar de manera más rápida y consistente. La idea de crear usuarios sustitutos para las pruebas de usabilidad es una dirección ambiciosa para la comunidad de inteligencia artificial.

Pruebas A/B

En el desarrollo y marketing web, las pruebas A/B o pruebas divididas son un enfoque experimental para el diseño web (especialmente el diseño de la experiencia del usuario), cuyo objetivo es identificar cambios en las páginas web que aumentan o maximizan un resultado de interés (por ejemplo, tasa de clics). para un anuncio publicitario). Como su nombre lo indica, se comparan dos versiones (A y B), que son idénticas excepto por una variación que podría afectar el comportamiento del usuario. La versión A podría ser la que se utiliza actualmente, mientras que la versión B se modifica en algún aspecto. Por ejemplo, en un sitio web de comercio electrónico, el embudo de compras suele ser un buen candidato para las pruebas A/B, ya que incluso las mejoras marginales en las tasas de abandono pueden representar una ganancia significativa en las ventas. Se pueden ver mejoras significativas probando elementos como copiar texto, diseños, imágenes y colores.

Las pruebas multivariadas o pruebas de depósitos son similares a las pruebas A/B, pero prueban más de dos versiones al mismo tiempo.

Número de participantes

A principios de la década de 1990, Jakob Nielsen , en ese momento investigador de Sun Microsystems , popularizó el concepto de utilizar numerosas pruebas de usabilidad pequeñas (generalmente con solo cinco participantes cada una) en varias etapas del proceso de desarrollo. Su argumento es que, una vez que se descubre que dos o tres personas están totalmente confundidas con la página de inicio, poco se gana viendo a más personas sufrir por el mismo diseño defectuoso. "Las pruebas de usabilidad elaboradas son un desperdicio de recursos. Los mejores resultados se obtienen al probar no más de cinco usuarios y ejecutar tantas pruebas pequeñas como sea posible". [9]

La afirmación de "Cinco usuarios es suficiente" fue descrita más tarde mediante un modelo matemático [10] que indica la proporción de problemas descubiertos U

donde p es la probabilidad de que un sujeto identifique un problema específico yn el número de sujetos (o sesiones de prueba). Este modelo se muestra como un gráfico asintótico del número de problemas reales existentes (ver figura a continuación).

En investigaciones posteriores, la afirmación de Nielsen ha sido cuestionada utilizando evidencia empírica [11] y modelos matemáticos más avanzados . [12] Dos desafíos clave a esta afirmación son:

  1. Dado que la usabilidad está relacionada con el conjunto específico de usuarios, es poco probable que un tamaño de muestra tan pequeño sea representativo de la población total, por lo que es más probable que los datos de una muestra tan pequeña reflejen el grupo de muestra que la población que pueden representar.
  2. No todos los problemas de usabilidad son igualmente fáciles de detectar. Los problemas intratables suelen desacelerar el proceso general. En estas circunstancias, el avance del proceso es mucho menor de lo previsto por la fórmula de Nielsen/Landauer. [13]

Vale la pena señalar que Nielsen no recomienda detenerse después de una sola prueba con cinco usuarios; Su punto es que probar con cinco usuarios, solucionar los problemas que descubren y luego probar el sitio revisado con cinco usuarios diferentes es un mejor uso de recursos limitados que ejecutar una única prueba de usabilidad con 10 usuarios. En la práctica, las pruebas se realizan una o dos veces por semana durante todo el ciclo de desarrollo, utilizando de tres a cinco sujetos de prueba por ronda, y los resultados se entregan a los diseñadores en un plazo de 24 horas. El número de usuarios realmente evaluados durante el proyecto puede alcanzar fácilmente entre 50 y 100 personas. Las investigaciones muestran que las pruebas de usuario realizadas por organizaciones suelen implicar el reclutamiento de entre 5 y 10 participantes. [14]

En la etapa inicial, cuando es más probable que los usuarios encuentren inmediatamente problemas que los detengan en seco, casi cualquier persona con inteligencia normal puede usarse como sujeto de prueba. En la segunda etapa, los evaluadores reclutarán sujetos de prueba de un amplio espectro de habilidades. Por ejemplo, en un estudio, los usuarios experimentados no mostraron problemas al utilizar ningún diseño, desde el primero hasta el último, mientras que los usuarios ingenuos y los usuarios avanzados autoidentificados fallaron repetidamente. [15] Más adelante, a medida que el diseño se suaviza, los usuarios deben ser reclutados entre la población objetivo.

Cuando el método se aplica a un número suficiente de personas a lo largo de un proyecto, se solucionan las objeciones planteadas anteriormente: el tamaño de la muestra deja de ser pequeño y se encuentran problemas de usabilidad que surgen sólo con usuarios ocasionales. El valor del método radica en el hecho de que los problemas de diseño específicos, una vez encontrados, nunca se vuelven a ver porque se eliminan inmediatamente, mientras que las piezas que parecen exitosas se prueban una y otra vez. Si bien es cierto que los problemas iniciales del diseño pueden ser probados por sólo cinco usuarios, cuando el método se aplica correctamente, las partes del diseño que funcionaron en esa prueba inicial pasarán a ser probadas por entre 50 y 100 personas.

Ejemplo

Un manual de Apple Computer de 1982 para desarrolladores aconsejaba sobre pruebas de usabilidad: [16]

  1. "Seleccione el público objetivo. Comience el diseño de su interfaz humana identificando su público objetivo. ¿Está escribiendo para empresarios o para niños?"
  2. Determine cuánto saben los usuarios objetivo sobre las computadoras Apple y el tema del software.
  3. Los pasos 1 y 2 permiten diseñar la interfaz de usuario para adaptarla a las necesidades del público objetivo. El software de preparación de impuestos escrito para contadores podría asumir que sus usuarios no saben nada sobre computadoras pero son expertos en el código tributario, mientras que dicho software escrito para consumidores podría asumir que sus usuarios no saben nada sobre impuestos pero están familiarizados con los conceptos básicos de las computadoras Apple.

Apple aconsejó a los desarrolladores: "Deberían comenzar a realizar pruebas lo antes posible, utilizando amigos, familiares y nuevos empleados reclutados": [16]

Nuestro método de prueba es el siguiente. Instalamos una sala con cinco o seis sistemas informáticos. Programamos dos o tres grupos de cinco a seis usuarios a la vez para probar los sistemas (a menudo sin que sepan que lo que estamos probando es el software y no el sistema). Tenemos a dos de los diseñadores en la sala. Si son menos, se perderán mucho de lo que está pasando. Un poco más y los usuarios sienten como si siempre hubiera alguien respirándoles en la nuca.

Los diseñadores deben observar a la gente usar el programa en persona, porque [16]

El noventa y cinco por ciento de los obstáculos se encuentran observando el lenguaje corporal de los usuarios. Esté atento a los ojos entrecerrados, los hombros encorvados, los movimientos de cabeza y los suspiros profundos y sinceros. Cuando un usuario tiene un problema, asumirá que es "porque no es demasiado inteligente": no lo informará; lo ocultará... No hagas suposiciones sobre por qué un usuario se confundió. Preguntarle. A menudo se sorprenderá al saber qué pensó el usuario que estaba haciendo el programa en el momento en que se perdió.

Educación

Las pruebas de usabilidad han sido un tema formal de instrucción académica en diferentes disciplinas. [17] Las pruebas de usabilidad son importantes para los estudios de composición y la instrucción de escritura en línea (OWI). [18] El académico Collin Bjork sostiene que las pruebas de usabilidad son "necesarias pero insuficientes para desarrollar OWI eficaz, a menos que también se combinen con las teorías de la retórica digital ". [19]

investigación de encuestas

Los productos de la encuesta incluyen encuestas , formularios e instrumentos digitales y en papel que el encuestado puede completar o utilizar solo o con un recolector de datos. Las pruebas de usabilidad se realizan con mayor frecuencia en encuestas web y se centran en cómo las personas interactúan con la encuesta, como navegar por la encuesta, ingresar respuestas a la encuesta y encontrar información de ayuda. Las pruebas de usabilidad complementan los métodos tradicionales de prueba previa de encuestas , como las pruebas previas cognitivas (cómo entienden las personas los productos), las pruebas piloto (cómo funcionarán los procedimientos de la encuesta) y la revisión experta por parte de un experto en la materia en metodología de encuestas . [20]

En los productos de encuestas traducidos, las pruebas de usabilidad han demostrado que se debe considerar la "aptitud cultural" en los niveles de oración y palabra y en los diseños para la entrada y navegación de datos, [21] y que la presentación de traducción y señales visuales de funcionalidades comunes (pestañas, hipervínculos , menús desplegables y URL ) ayudan a mejorar la experiencia del usuario. [22]

Ver también

Referencias

  1. ^ Nielsen, J. (1994). Ingeniería de usabilidad, Academic Press Inc, página 165
  2. ^ Mejs, Monika (27 de junio de 2019). "Pruebas de usabilidad: la clave para la validación del diseño". Equipo Mood Up - casa de software . Consultado el 11 de septiembre de 2019 .
  3. ^ Dennis G. Jerz (19 de julio de 2000). "Pruebas de usabilidad: ¿Qué es?". Blog de alfabetización de Jerz . Consultado el 29 de junio de 2016 .
  4. ^ Andreasen, Morten Sieker; Nielsen, Henrik Villemann; Schrøder, Simon Ormholt; Etapa, enero (2007). "¿Qué pasó con las pruebas de usabilidad remotas?". Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . pag. 1405. doi :10.1145/1240624.1240838. ISBN 978-1-59593-593-9. S2CID  12388042.
  5. ^ Dabney Gough; Holly Phillips (9 de junio de 2003). "Pruebas remotas de usabilidad en línea: por qué, cómo y cuándo utilizarlas". Archivado desde el original el 15 de diciembre de 2005.
  6. ^ ab Dray, Susan; Siegel, David (marzo de 2004). "¿Posibilidades remotas?: pruebas internacionales de usabilidad a distancia". Interacciones . 11 (2): 10-17. doi :10.1145/971258.971264. S2CID  682010.
  7. ^ Chalil Madathil, Kapil; Greenstein, Joel S. (2011). "Pruebas de usabilidad remotas síncronas". Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . págs. 2225-2234. doi :10.1145/1978942.1979267. ISBN 978-1-4503-0228-9. S2CID  14077658.
  8. ^ "Evaluación heurística". Usabilidad primero . Consultado el 9 de abril de 2013 .
  9. ^ "Pruebas de usabilidad con 5 usuarios (Alertbox de Jakob Nielsen)". useit.com. 2000-03-13.; referencias Nielsen, Jakob; Landauer, Thomas K. (1993). "Un modelo matemático de la búsqueda de problemas de usabilidad". Actas de la conferencia SIGCHI sobre factores humanos en sistemas informáticos . págs. 206-213. doi :10.1145/169059.169166. ISBN 978-0-89791-575-5. S2CID  207177537.
  10. ^ Virzi, RA (1992). "Refinamiento de la fase de prueba de la evaluación de usabilidad: ¿cuántos sujetos son suficientes?". Factores humanos . 34 (4): 457–468. doi :10.1177/001872089203400407. S2CID  59748299.
  11. ^ Carrete, Jared; Schroeder, voluntad (2001). "Prueba de sitios web: cinco usuarios no es suficiente" . Resúmenes ampliados de CHI '01 sobre factores humanos en los sistemas informáticos. pag. 285. doi : 10.1145/634067.634236. S2CID  8038786.
  12. ^ Caulton, DA (2001). "Relajar el supuesto de homogeneidad en las pruebas de usabilidad". Comportamiento y tecnología de la información . 20 (1): 1–7. doi :10.1080/01449290010020648. S2CID  62751921.
  13. ^ Schmettow, Martin (1 de septiembre de 2008). "Heterogeneidad en el proceso de evaluación de usabilidad". Talleres de Electrónica en Computación. doi : 10.14236/ewic/HCI2008.9 . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  14. ^ "Resultados del informe de la industria de pruebas de usuarios de 2020". www.userfountain.com . Consultado el 4 de junio de 2020 .
  15. ^ Bruce Tognazzini. "Maximizar Windows".
  16. ^ abc Meyers, Joe; Tognazzini, Bruce (1982). Directrices de diseño de Apple IIe (PDF) . Computadora Apple. págs. 11-13, 15.
  17. ^ Breuch, Lee-Ann M. Kastman; Zachry, Marcos; Spinuzzi, Clay (abril de 2001). "Instrucción de usabilidad en programas de comunicación técnica: nuevas direcciones en el desarrollo curricular". Revista de Comunicación Empresarial y Técnica . 15 (2): 223–240. doi :10.1177/105065190101500204. S2CID  61365767.
  18. ^ Miller-Cochran, Susan K.; Rodrigo, Rochelle L. (enero de 2006). "Determinación de diseños efectivos de educación a distancia mediante pruebas de usabilidad". Computadoras y Composición . 23 (1): 91-107. doi : 10.1016/j.compcom.2005.12.002.
  19. ^ Bjork, Collin (septiembre de 2018). "Integración de pruebas de usabilidad con retórica digital en OWI". Computadoras y Composición . 49 : 4-13. doi : 10.1016/j.compcom.2018.05.009. S2CID  196160668.
  20. ^ Geisen, Emily; Bergstrom, Jennifer Romano (2017). Pruebas de usabilidad para investigaciones de encuestas . Cambridge: Elsevier MK Morgan Kaufmann Publishers. ISBN 978-0-12-803656-3.
  21. ^ Wang, Lin; Sha, Mandy (1 de junio de 2017). "Aptitud cultural en la usabilidad de la encuesta de Internet del censo de EE. UU. en idioma chino". Práctica de encuesta . 10 (3). doi : 10.29115/SP-2017-0018 .
  22. ^ Sha, Mandy; Hsieh, Y. Patrick; Goerman, Patricia L. (25 de julio de 2018). "Traducción y señales visuales: hacia la creación de una hoja de ruta para que los hablantes de inglés limitado accedan a encuestas de Internet traducidas en los Estados Unidos". Traducción e Interpretación . 10 (2): 142-158. ISSN  1836-9324.

enlaces externos