El análisis temático es una de las formas más comunes de análisis dentro de la investigación cualitativa . [1] [2] Hace hincapié en la identificación, el análisis y la interpretación de patrones de significado (o "temas") dentro de los datos cualitativos. [1] El análisis temático a menudo se entiende como un método o técnica en contraste con la mayoría de los demás enfoques analíticos cualitativos, como la teoría fundamentada , el análisis del discurso , el análisis narrativo y el análisis fenomenológico interpretativo , que pueden describirse como metodologías o marcos teóricamente informados para la investigación (especifican la teoría rectora, las preguntas de investigación apropiadas y los métodos de recopilación de datos, así como los procedimientos para realizar el análisis). El análisis temático se considera mejor como un término general para una variedad de enfoques diferentes, en lugar de un método singular. Las diferentes versiones del análisis temático se sustentan en diferentes supuestos filosóficos y conceptuales y son divergentes en términos de procedimiento. Los principales defensores del análisis temático, los psicólogos Virginia Braun y Victoria Clarke [3] distinguen entre tres tipos principales de análisis temático: enfoques de confiabilidad de codificación (los ejemplos incluyen los enfoques desarrollados por Richard Boyatzis [4] y Greg Guest y colegas [2] ), enfoques de libro de códigos (estos incluyen enfoques como el análisis de marco, [5] análisis de plantilla [6] [7] y análisis de matriz [8] ) y enfoques reflexivos. [9] [10] Describieron por primera vez su propio enfoque ampliamente utilizado en 2006 en la revista Qualitative Research in Psychology [1] como análisis temático reflexivo. [11] Este artículo tiene más de 120.000 citas de Google Scholar y según Google Scholar es el artículo académico más citado publicado en 2006. [12] La popularidad de este artículo ejemplifica el creciente interés en el análisis temático como un método distinto (aunque algunos han cuestionado si es un método distinto o simplemente un conjunto genérico de procedimientos analíticos [13] ).
El análisis temático se utiliza en la investigación cualitativa y se centra en examinar temas o patrones de significado dentro de los datos. [14] Este método puede enfatizar tanto la organización como la descripción rica del conjunto de datos y la interpretación teóricamente informada del significado. [1] El análisis temático va más allá de simplemente contar frases o palabras en un texto (como en el análisis de contenido ) y explora significados explícitos e implícitos dentro de los datos. [2] La codificación es el proceso principal para desarrollar temas identificando elementos de interés analítico en los datos y etiquetándolos con una etiqueta de codificación. [4] En algunos enfoques de análisis temático, la codificación sigue al desarrollo del tema y es un proceso deductivo de asignación de datos a temas preidentificados (este enfoque es común en la confiabilidad de la codificación y los enfoques de libro de códigos), en otros enfoques, en particular el enfoque reflexivo de Braun y Clarke, la codificación precede al desarrollo del tema y los temas se construyen a partir de códigos. [3] Una de las características distintivas del análisis temático es su flexibilidad: flexibilidad con respecto a la teoría de encuadre, las preguntas de investigación y el diseño de la investigación. [1] El análisis temático puede utilizarse para explorar cuestiones sobre las experiencias vividas, perspectivas, comportamientos y prácticas de los participantes, los factores y procesos sociales que influyen y dan forma a fenómenos particulares, las normas y "reglas" explícitas e implícitas que rigen prácticas particulares, así como la construcción social del significado y la representación de objetos sociales en textos y contextos particulares. [15]
El análisis temático se puede utilizar para analizar la mayoría de los tipos de datos cualitativos , incluidos los datos cualitativos recopilados de entrevistas , grupos focales , encuestas , diarios solicitados, métodos visuales , observación e investigación de campo , investigación de acción , trabajo de memoria , viñetas , finalización de historias [16] y fuentes secundarias . Los conjuntos de datos pueden variar desde una respuesta corta y superficial a una pregunta de encuesta abierta hasta cientos de páginas de transcripciones de entrevistas. [17] El análisis temático se puede utilizar para analizar conjuntos de datos pequeños y grandes. [1] El análisis temático se utiliza a menudo en diseños de métodos mixtos: la flexibilidad teórica del TA lo convierte en una opción más sencilla que los enfoques con supuestos teóricos específicos integrados.
En ocasiones se afirma que el análisis temático es compatible con la fenomenología , ya que puede centrarse en las experiencias subjetivas de los participantes y en la construcción de sentido; [2] existe una larga tradición de uso del análisis temático en la investigación fenomenológica. [18] Un enfoque fenomenológico enfatiza las percepciones, sentimientos y experiencias de los participantes como el objeto primordial de estudio. Con raíces en la psicología humanista, la fenomenología señala que dar voz al "otro" es un componente clave en la investigación cualitativa en general. Este enfoque permite a los encuestados discutir el tema con sus propias palabras, libres de las limitaciones de las preguntas de respuesta fija que se encuentran en los estudios cuantitativos.
A veces se supone erróneamente que el análisis temático solo es compatible con la fenomenología o con los enfoques experienciales de la investigación cualitativa. Braun y Clarke sostienen que su enfoque reflexivo es igualmente compatible con los enfoques constructivistas sociales , postestructuralistas y críticos de la investigación cualitativa. [19] Destacan la flexibilidad teórica del análisis temático y su uso dentro de las ontologías realistas, realistas críticas y relativistas y las epistemologías positivistas, contextualistas y constructivistas.
Como la mayoría de los métodos de investigación, el proceso de análisis temático de los datos puede ocurrir tanto de forma inductiva como deductiva . [1] En un enfoque inductivo, los temas identificados están fuertemente vinculados a los datos. [4] Esto significa que el proceso de codificación ocurre sin intentar encajar los datos en una teoría o marco preexistente. Pero los procesos de aprendizaje inductivo en la práctica rara vez son "puramente de abajo hacia arriba"; no es posible que los investigadores y sus comunidades se liberen completamente de los supuestos ontológicos (teoría de la realidad), epistemológicos (teoría del conocimiento) y paradigmáticos (habituales) - la codificación siempre reflejará en cierta medida el punto de vista filosófico del investigador y los valores individuales/comunitarios con respecto al conocimiento y el aprendizaje. [1] Los enfoques deductivos, por otro lado, están más impulsados por la teoría. [20] Esta forma de análisis tiende a ser más interpretativa porque el análisis está explícitamente moldeado e informado por la teoría y los conceptos preexistentes (idealmente citados para la transparencia en el aprendizaje compartido). Los enfoques deductivos pueden implicar la búsqueda de temas identificados en otras investigaciones en el conjunto de datos o el uso de la teoría existente como una lente a través de la cual organizar, codificar e interpretar los datos. A veces, los enfoques deductivos se malinterpretan como una codificación impulsada por una pregunta de investigación o las preguntas de recopilación de datos. Un análisis temático también puede combinar enfoques inductivos y deductivos, por ejemplo, al poner en primer plano la interacción entre las ideas a priori de los equipos de análisis de datos cualitativos dirigidos por médicos y las que surgen de los participantes del estudio y las observaciones de campo. [21]
Los enfoques de confiabilidad de codificación [4] [2] tienen la historia más larga y a menudo son poco diferentes del análisis de contenido cualitativo. Como sugiere el nombre, priorizan la medición de la confiabilidad de codificación mediante el uso de libros de códigos estructurados y fijos, el uso de múltiples codificadores que trabajan de forma independiente para aplicar el libro de códigos a los datos, la medición de la confiabilidad entre evaluadores o el acuerdo entre codificadores (normalmente utilizando la kappa de Cohen ) y la determinación de la codificación final mediante consenso o acuerdo entre codificadores. Estos enfoques son una forma de positivismo cualitativo o investigación cualitativa de q pequeña, [22] que combina el uso de datos cualitativos con procesos y procedimientos de análisis de datos basados en los valores de investigación y supuestos del positivismo (cuantitativo), enfatizando la importancia de establecer la confiabilidad de codificación y ver la subjetividad o el "sesgo" del investigador como una amenaza potencial a la confiabilidad de codificación que debe contenerse y "controlarse" para evitar confundir los "resultados" (con la presencia e influencia activa del investigador). Boyatzis [4] presenta su enfoque como uno que puede "cerrar la brecha" entre los paradigmas cuantitativos ( positivistas ) y cualitativos ( interpretativistas ). Algunos investigadores cualitativos son críticos con el uso de libros de códigos estructurados, codificadores independientes múltiples y medidas de confiabilidad entre evaluadores. Janice Morse sostiene que dicha codificación es necesariamente burda y superficial para facilitar el acuerdo de codificación. [23] Braun y Clarke (citando a Yardley [24] ) sostienen que todo lo que demuestra el acuerdo de codificación es que los codificadores han sido entrenados para codificar de la misma manera, no que la codificación sea "fiable" o "precisa" con respecto a los fenómenos subyacentes que se codifican y describen. [15]
Los enfoques de libros de códigos, como el análisis de marcos de referencia [5], el análisis de plantillas [6] y el análisis de matrices [8], se centran en el uso de libros de códigos estructurados, pero, a diferencia de los enfoques de confiabilidad de codificación, enfatizan en mayor o menor medida los valores de la investigación cualitativa. Tanto la confiabilidad de codificación como los enfoques de libros de códigos generalmente implican el desarrollo temprano de temas: todos o algunos de los temas se desarrollan antes de la codificación, a menudo después de cierta familiarización con los datos (leer y releer datos para familiarizarse íntimamente con su contenido). Una vez que se han desarrollado los temas, se crea el libro de códigos; esto puede implicar un análisis inicial de una parte o la totalidad de los datos. Luego, los datos se codifican. La codificación implica asignar datos a los temas predeterminados utilizando el libro de códigos como guía. El libro de códigos también se puede utilizar para mapear y mostrar la aparición de códigos y temas en cada elemento de datos. Los temas suelen ser del tipo de tema compartido discutido por Braun y Clarke. [3]
Los enfoques reflexivos se centran en procesos de codificación orgánicos y flexibles: no existe un libro de códigos, la codificación puede ser realizada por un solo investigador, si hay varios investigadores involucrados en la codificación, se conceptualiza como un proceso colaborativo en lugar de uno que deba conducir al consenso. Los códigos individuales no son fijos: pueden evolucionar a lo largo del proceso de codificación, los límites del código pueden volver a trazarse, los códigos pueden dividirse en dos o más códigos, fusionarse con otros códigos e incluso promoverse a temas. [15] Los enfoques reflexivos generalmente implican un desarrollo posterior del tema: los temas se crean a partir de la agrupación de códigos similares. Los temas deben capturar el significado compartido organizado en torno a un concepto o idea central. [25]
Braun, Clarke y sus colegas han criticado la tendencia a pasar por alto la diversidad dentro del análisis temático y la incapacidad de reconocer las diferencias entre los diversos enfoques que han trazado. [26] Argumentan que esta falla conduce a "mezclas" irreflexivas de su enfoque con técnicas y enfoques incompatibles como los libros de códigos, la codificación por consenso y la medición de la confiabilidad entre evaluadores.
No existe una única definición o conceptualización de un tema en el análisis temático. [27] Para algunos defensores del análisis temático, incluidos Braun y Clarke, los temas se conceptualizan como patrones de significado compartido entre elementos de datos, respaldados o unidos por un concepto central, que son importantes para la comprensión de un fenómeno y son relevantes para la pregunta de investigación. [3] Para otros (incluidos la mayoría de los defensores de la confiabilidad de la codificación y el libro de códigos), los temas son simplemente resúmenes de información relacionada con un tema o dominio de datos en particular; no existe un requisito de significado compartido organizado en torno a un concepto central, solo un tema compartido. [3] Aunque estas dos conceptualizaciones están asociadas con enfoques particulares del análisis temático, a menudo se confunden y se combinan. Lo que Braun y Clarke llaman temas de resumen de dominio o resumen de tema a menudo tienen títulos de tema de una palabra (por ejemplo, género, apoyo) o títulos como "Beneficios de...", "Barreras para..." que indican el enfoque en resumir todo lo que dijeron los participantes, o los puntos principales planteados, en relación con un tema o dominio de datos en particular. [3] Los temas de resumen de temas se desarrollan normalmente antes de la codificación de los datos y, a menudo, reflejan preguntas de recopilación de datos. Los temas de significado compartido que se sustentan en un concepto o idea central [25] no se pueden desarrollar antes de la codificación (porque se construyen a partir de códigos), por lo que son el resultado de un proceso de codificación minucioso y sistemático. Braun y Clarke han criticado la confusión de los temas de resumen de temas con su conceptualización de los temas como captura de un significado compartido sustentado en un concepto central. [28] Algunos investigadores cualitativos han argumentado que los resúmenes de temas representan un análisis subdesarrollado o una exclusión analítica. [29] [30]
Existe controversia en torno a la noción de que “los temas emergen” de los datos. Braun y Clarke critican este lenguaje porque sostienen que posiciona a los temas como entidades que existen completamente formadas en los datos: el investigador es simplemente un testigo pasivo de los temas que “emergen” de los datos. [1] En cambio, sostienen que el investigador desempeña un papel activo en la creación de temas, por lo que los temas se construyen, se crean, se generan en lugar de simplemente surgir. Otros usan el término deliberativamente para capturar la creación inductiva (emergente) de temas. Sin embargo, no siempre está claro cómo se usa el término.
La prevalencia o recurrencia no es necesariamente el criterio más importante para determinar qué constituye un tema; los temas pueden considerarse importantes si son muy relevantes para la pregunta de investigación y significativos para comprender los fenómenos de interés. [1] La prevalencia de un tema no significa necesariamente la frecuencia con la que aparece un tema (es decir, la cantidad de elementos de datos en los que aparece); también puede significar la cantidad de datos que captura un tema dentro de cada elemento de datos y en todo el conjunto de datos. Los temas suelen ser evidentes en todo el conjunto de datos, pero una frecuencia más alta no significa necesariamente que el tema sea más importante para comprender los datos. El criterio de un investigador es la herramienta clave para determinar qué temas son más cruciales. [1]
También existen diferentes niveles en los que se pueden codificar los datos e identificar temas: semántico y latente. [4] [1] Un análisis temático puede centrarse en uno de estos niveles o en ambos. Los códigos semánticos y los temas identifican los significados explícitos y superficiales de los datos. El investigador no mira más allá de lo que dijo o escribió el participante. Por el contrario, los códigos o temas latentes capturan ideas, patrones y suposiciones subyacentes . Esto requiere una orientación más interpretativa y conceptual de los datos.
Para Braun y Clarke, existe una distinción clara (pero no absoluta) entre un tema y un código: un código captura una (o más) perspectivas sobre los datos y un tema abarca numerosas perspectivas organizadas en torno a un concepto o idea central. A menudo utilizan la analogía de una casa de ladrillos y tejas: el código es un ladrillo o teja individual, y los temas son las paredes o los paneles del techo, cada uno compuesto de numerosos códigos. Otros enfoques del análisis temático no hacen una distinción tan clara entre códigos y temas: varios textos recomiendan que los investigadores "codifiquen para temas". [31] Esto puede ser confuso porque para Braun y Clarke, y otros, el tema se considera el resultado de la codificación, no lo que se codifica. En los enfoques que hacen una distinción clara entre códigos y temas, el código es la etiqueta que se da a partes particulares de los datos que contribuyen a un tema. Por ejemplo, "LA SEGURIDAD puede ser un código, pero UNA FALSA SENSACIÓN DE SEGURIDAD puede ser un tema". [31]
Dado que el trabajo cualitativo es inherentemente una investigación interpretativa, los posicionamientos, valores y juicios de los investigadores deben reconocerse explícitamente para que se los tenga en cuenta a la hora de dar sentido al informe final y juzgar su calidad. [32] Este tipo de apertura y reflexión se considera positivo en la comunidad cualitativa. [33] Los investigadores dan forma al trabajo que realizan y son el instrumento para recopilar y analizar datos. Para reconocer al investigador como la herramienta de análisis, es útil crear y mantener un diario de reflexividad. [34]
El proceso de reflexividad puede describirse como la reflexión y documentación por parte del investigador sobre cómo sus valores, posicionamientos, elecciones y prácticas de investigación influyeron y dieron forma al estudio y al análisis final de los datos. Los diarios de reflexividad son algo similares al uso de memorandos analíticos o la redacción de memorandos en la teoría fundamentada , que pueden ser útiles para reflexionar sobre el análisis en desarrollo y los patrones, temas y conceptos potenciales. [17] A lo largo del proceso de codificación, los investigadores deben tener registros detallados del desarrollo de cada uno de sus códigos y temas potenciales. Además, los cambios realizados en los temas y las conexiones entre los temas se pueden discutir en el informe final para ayudar al lector a comprender las decisiones que se tomaron a lo largo del proceso de codificación. [35]
Una vez que se ha completado la recopilación de datos y los investigadores comienzan las fases de análisis de datos, deben tomar notas sobre sus impresiones iniciales de los datos. El registro de ideas para futuros análisis puede ayudar a plasmar por escrito los pensamientos y las reflexiones y puede servir como referencia para posibles ideas de codificación a medida que se avanza de una fase a la siguiente en el proceso de análisis temático. [17]
Las preguntas a tener en cuenta durante la codificación pueden incluir: [17]
Estas preguntas suelen plantearse a lo largo de todos los ciclos del proceso de codificación y del análisis de datos. A menudo se utiliza un diario de reflexividad para identificar posibles códigos que inicialmente no eran pertinentes para el estudio. [17]
No hay una respuesta sencilla a las preguntas sobre el tamaño de la muestra en el análisis temático; así como no hay una respuesta sencilla al tamaño de la muestra en la investigación cualitativa en general (la respuesta clásica es "depende": del alcance del estudio, la pregunta y el tema de la investigación, el método o los métodos de recolección de datos, la riqueza de los elementos de datos individuales, el enfoque analítico [36] ). Algunos defensores de la confiabilidad de la codificación y del libro de códigos brindan orientación para determinar el tamaño de la muestra antes del análisis de datos, centrándose en el concepto de saturación o redundancia de información (no hay información, códigos o temas nuevos evidentes en los datos). Estos intentos de "operacionalizar" la saturación sugieren que la saturación del código (a menudo definida como la identificación de una instancia de un código) se puede lograr en tan solo 12 o incluso 6 entrevistas en algunas circunstancias. [37] Se cree que la saturación de significados (desarrollar una comprensión "ricamente texturizada" de los problemas) requiere muestras más grandes (al menos 24 entrevistas). [38] Existen numerosas críticas al concepto de saturación de datos; muchas sostienen que está integrado en una concepción realista de significado fijo y que en un paradigma cualitativo siempre hay potencial para nuevas comprensiones debido al papel del investigador en la interpretación del significado. [39] Algunos investigadores cuantitativos han ofrecido modelos estadísticos para determinar el tamaño de la muestra antes de la recopilación de datos en el análisis temático. Por ejemplo, Fugard y Potts ofrecieron una herramienta cuantitativa prospectiva para apoyar el pensamiento sobre el tamaño de la muestra por analogía con los métodos cuantitativos de estimación del tamaño de la muestra . [40] Lowe y sus colegas propusieron medidas cuantitativas y probabilísticas del grado de saturación que se pueden calcular a partir de una muestra inicial y utilizar para estimar el tamaño de la muestra necesario para alcanzar un nivel específico de saturación. [41] Su análisis indica que los métodos de estimación del tamaño de la muestra binomial de uso común pueden subestimar significativamente el tamaño de la muestra necesario para la saturación. Todas estas herramientas han sido criticadas por investigadores cualitativos (incluidos Braun y Clarke [42] ) por basarse en supuestos sobre la investigación cualitativa, el análisis temático y los temas que son antitéticos a los enfoques que priorizan los valores de la investigación cualitativa. [43] [44] [45]
Este proceso de seis fases para el análisis temático se basa en el trabajo de Braun y Clarke y su enfoque reflexivo del análisis temático. [1] [46] [47] Este proceso cíclico de seis fases implica ir y venir entre las fases del análisis de datos según sea necesario hasta que los investigadores estén satisfechos con los temas finales. [1] Los investigadores que realizan análisis temáticos deben intentar ir más allá de los significados superficiales de los datos para darles sentido y contar una historia rica y convincente sobre lo que significan los datos. [1] Los procedimientos asociados con otros enfoques de análisis temático son bastante diferentes. Esta descripción del proceso de seis fases de Braun y Clarke también incluye un análisis de las ideas contrastantes proporcionadas por otros defensores del análisis temático. La fase inicial del análisis temático reflexivo es común a la mayoría de los enfoques: la de familiarización con los datos. Aquí es donde los investigadores se familiarizan con el contenido de sus datos, tanto con los detalles de cada elemento de datos como con el "panorama general". En otros enfoques, antes de leer los datos, los investigadores pueden crear una "lista de inicio" de códigos potenciales. [48] Como el enfoque de Braun y Clarke está pensado para centrarse en los datos y no en las concepciones previas del investigador, sólo recomiendan desarrollar códigos antes de la familiarización en enfoques deductivos donde la codificación está guiada por teoría preexistente. Para Miles y Huberman, en su enfoque matricial, los "códigos de inicio" deberían incluirse en un diario de reflexividad con una descripción de las representaciones de cada código y dónde se establece el código. [48] Analizar los datos de forma activa ayudará a los investigadores a buscar significados y patrones en el conjunto de datos. En esta etapa, es tentador apresurar esta fase de familiarización y comenzar inmediatamente a generar códigos y temas; sin embargo, este proceso de inmersión ayudará a los investigadores a identificar posibles temas y patrones. Leer y releer el material hasta que el investigador se sienta cómodo es crucial para la fase inicial del análisis. Mientras se familiariza con el material, la toma de notas es una parte crucial de este paso para comenzar a desarrollar códigos potenciales. [1]
Después de completar la recopilación de datos, el investigador puede necesitar transcribir sus datos en forma escrita (por ejemplo, datos grabados en audio, como entrevistas). [1] Braun y Clarke proporcionan un sistema de notación de transcripción para usar con su enfoque en su libro de texto Successful Qualitative Research . [49] La transcripción de calidad de los datos es imperativa para la confiabilidad del análisis. Los criterios para la transcripción de datos deben establecerse antes de que se inicie la fase de transcripción para garantizar que la confiabilidad sea alta. [2]
Algunos defensores del análisis temático –en particular aquellos que tienen un punto de apoyo en el positivismo– expresan su preocupación por la precisión de la transcripción. [2] Las inconsistencias en la transcripción pueden producir “sesgos” en el análisis de datos que serán difíciles de identificar más adelante en el proceso de análisis. [2] Para otros, incluidos Braun y Clarke, la transcripción se considera un proceso interpretativo y teóricamente integrado y, por lo tanto, no puede ser “precisa” en un sentido directo, ya que el investigador siempre toma decisiones sobre cómo traducir el texto hablado al texto escrito. [1] Sin embargo, esto no significa que los investigadores no deban esforzarse por ser minuciosos en sus transcripciones y utilizar un enfoque sistemático para la transcripción. Lo ideal sería que los autores proporcionen una clave para su sistema de notación de transcripción para que sea fácilmente evidente lo que significan las notaciones particulares. Insertar comentarios como “*voz más baja*” indicará un cambio en el discurso. Una guía general aproximada a seguir al planificar el tiempo para la transcripción es permitir dedicar 15 minutos de transcripción por cada 5 minutos de diálogo. La transcripción puede formar parte del proceso de familiarización. [1] [15]
Después de esta etapa, el investigador debe sentirse familiarizado con el contenido de los datos y debe ser capaz de comenzar a identificar patrones evidentes o problemas que se repiten en los datos. Estos patrones deben registrarse en un diario de reflexividad donde serán de utilidad al codificar los datos. Otros defensores del AT conceptualizan la codificación como el comienzo de que el investigador gane control sobre los datos. Consideran que es importante marcar los datos que abordan la pregunta de investigación. Para ellos, este es el comienzo del proceso de codificación. [2]
El segundo paso del análisis temático reflexivo consiste en etiquetar los elementos de interés de los datos con una etiqueta (unas cuantas palabras o una frase corta). Esta etiqueta debe evocar claramente las características relevantes de los datos; esto es importante para las etapas posteriores del desarrollo del tema. Esta forma sistemática de organizar e identificar partes significativas de los datos en relación con la pregunta de investigación se denomina codificación . El proceso de codificación evoluciona a través de la inmersión del investigador en sus datos y no se considera un proceso lineal, sino un proceso cíclico en el que se desarrollan y refinan los códigos.
El proceso de codificación rara vez se completa con un solo barrido de los datos. Saladana recomienda que cada vez que los investigadores trabajen con el conjunto de datos, se esfuercen por refinar los códigos agregando, restando, combinando o dividiendo los códigos potenciales. [17] Para Miles y Huberman, los "códigos de inicio" se producen a través de la terminología utilizada por los participantes durante la entrevista y se pueden usar como punto de referencia de sus experiencias durante la entrevista. [48] Para los defensores del análisis temático con una inclinación más positivista, la confiabilidad aumenta cuando el investigador usa códigos concretos que se basan en el diálogo y son de naturaleza descriptiva. [2] Estos códigos facilitarán la capacidad del investigador para localizar fragmentos de datos más adelante en el proceso e identificar por qué los incluyó. Sin embargo, Braun y Clarke instan a los investigadores a mirar más allá de un enfoque exclusivo en la descripción y el resumen y a involucrarse interpretativamente con los datos, explorando tanto el significado manifiesto (semántico) como el implícito (latente). [1] La codificación prepara el escenario para un análisis detallado posterior al permitir que el investigador reorganice los datos de acuerdo con las ideas que se han obtenido a lo largo del proceso. Las entradas del diario de reflexividad para los nuevos códigos sirven como punto de referencia para el participante y su sección de datos, recordando al investigador que debe comprender por qué y dónde incluirá estos códigos en el análisis final. [2] A lo largo del proceso de codificación, se debe prestar una atención total e igual a cada elemento de los datos, ya que ayudará a identificar patrones repetidos que de otro modo pasarían desapercibidos. Es importante codificar de la forma más inclusiva posible: codificar aspectos individuales de los datos que pueden parecer irrelevantes puede ser potencialmente crucial más adelante en el proceso de análisis. [1]
Para los sociólogos Coffey y Atkinson, la codificación también implica el proceso de reducción y complicación de los datos. [50] La reducción de códigos se inicia asignando etiquetas al conjunto de datos en función de las preguntas de investigación. En esta etapa, la condensación de grandes conjuntos de datos en unidades más pequeñas permite un mayor análisis de los datos mediante la creación de categorías útiles. Los códigos in vivo también se producen aplicando referencias y terminología de los participantes en sus entrevistas. La codificación ayuda al desarrollo, la transformación y la reconceptualización de los datos y ayuda a encontrar más posibilidades de análisis. Los investigadores deben hacer preguntas relacionadas con los datos y generar teorías a partir de ellos, ampliando más allá de lo que se ha informado previamente en investigaciones anteriores. [50]
Para algunos defensores del análisis temático, la codificación puede considerarse un medio de reducción o simplificación de datos (este no es el caso de Braun y Clarke, quienes consideran la codificación como una reducción e interpretación de datos). Para Coffey y Atkinson, utilizando códigos analíticos simples pero amplios es posible reducir los datos a una hazaña más manejable. En esta etapa del análisis de datos, el analista debe centrarse en la identificación de una forma más simple de organizar los datos. Al utilizar el reduccionismo de datos, los investigadores deben incluir un proceso de indexación de los textos de datos que podrían incluir: notas de campo, transcripciones de entrevistas u otros documentos. Los datos en esta etapa se reducen a clases o categorías en las que el investigador puede identificar segmentos de los datos que comparten una categoría o código común. [50] Siedel y Kelle sugirieron tres formas de ayudar con el proceso de reducción y codificación de datos: (a) notar los fenómenos relevantes, (b) recopilar ejemplos de los fenómenos y (c) analizar los fenómenos para encontrar similitudes, diferencias, patrones y estructuras superpuestas. Este aspecto de la codificación de datos es importante porque durante esta etapa los investigadores deben adjuntar códigos a los datos para permitirles pensar en ellos de diferentes maneras. [50] La codificación no puede verse como una reducción estricta de datos, la complicación de datos puede usarse como una forma de abrir los datos para examinarlos más a fondo. [50] La siguiente sección aborda el proceso de complicación de datos de Coffey y Atkinson y su importancia para el análisis de datos en el análisis cualitativo. [50]
Para Coffey y Atkinson, [50] el proceso de creación de códigos puede describirse como reducción y complicación de datos. La complicación de datos puede describirse como ir más allá de los datos y hacer preguntas sobre ellos para generar marcos y teorías. La complicación de datos se utiliza para expandir los datos y crear nuevas preguntas e interpretaciones de los mismos. Los investigadores deben asegurarse de que el proceso de codificación no pierda más información de la que se obtiene. [50] Tesch definió la complicación de datos como el proceso de reconceptualización de los datos dando nuevos contextos para los segmentos de datos. La complicación de datos sirve como un medio para proporcionar nuevos contextos para la forma en que se ven y analizan los datos. [50]
La codificación es un proceso de descomposición de datos a través de métodos analíticos y con el fin de producir preguntas sobre los datos, proporcionando respuestas temporales sobre las relaciones dentro de los datos y entre ellos. [50] La descontextualización y la recontextualización ayudan a reducir y expandir los datos de nuevas maneras con nuevas teorías. [50]
La búsqueda de temas y la consideración de lo que funciona y lo que no funciona dentro de ellos permite al investigador comenzar el análisis de los códigos potenciales. En esta fase, es importante comenzar examinando cómo se combinan los códigos para formar temas de gran alcance en los datos. En este punto, los investigadores tienen una lista de temas y comienzan a centrarse en patrones más amplios en los datos, combinando datos codificados con temas propuestos. Los investigadores también comienzan a considerar cómo se forman las relaciones entre los códigos y los temas y entre los diferentes niveles de temas existentes. Puede ser útil utilizar modelos visuales para clasificar los códigos en los temas potenciales. [1]
Los temas se diferencian de los códigos en que los primeros son frases u oraciones que identifican lo que significan los datos . Describen un resultado de la codificación para la reflexión analítica. Los temas consisten en ideas y descripciones dentro de una cultura que se pueden utilizar para explicar eventos causales, declaraciones y moralejas derivadas de las historias de los participantes. En las fases posteriores, es importante limitar los temas potenciales para proporcionar un tema de alcance general. El análisis temático permite que surjan categorías o temas de los datos como los siguientes: ideas repetidas; términos indígenas, metáforas y analogías; cambios de tema; y similitudes y diferencias en la expresión lingüística de los participantes. Es importante en este punto abordar no solo lo que está presente en los datos, sino también lo que falta en los datos. [17] La conclusión de esta fase debería producir muchos temas candidatos recopilados a lo largo del proceso de datos. Es crucial evitar descartar temas incluso si inicialmente son insignificantes, ya que pueden ser temas importantes más adelante en el proceso de análisis. [1]
Esta fase requiere que los investigadores comprueben sus temas iniciales con los datos codificados y el conjunto de datos completo; esto es para garantizar que el análisis no se haya alejado demasiado de los datos y proporcione una explicación convincente de los datos relevantes para la pregunta de investigación. Este proceso de revisión también permite una mayor expansión y revisión de los temas a medida que se desarrollan. En este punto, los investigadores deben tener un conjunto de temas potenciales, ya que esta fase es donde se lleva a cabo la reelaboración de los temas iniciales. Algunos temas existentes pueden colapsar entre sí, otros pueden necesitar condensarse en unidades más pequeñas o abandonarse por completo. [1]
En concreto, esta fase implica dos niveles de refinamiento y revisión de los temas. Las conexiones entre temas superpuestos pueden servir como fuentes importantes de información y pueden alertar a los investigadores sobre la posibilidad de nuevos patrones y problemas en los datos. Para Guest y sus colegas, las desviaciones del material codificado pueden notificar al investigador que un tema puede no ser realmente útil para dar sentido a los datos y debe descartarse. Ambos reconocimientos deben anotarse en el diario de reflexividad del investigador, incluyendo también la ausencia de temas. [2] Los códigos sirven como una forma de relacionar los datos con la concepción que una persona tiene de ese concepto. En este punto, el investigador debe centrarse en los aspectos interesantes de los códigos y en por qué encajan entre sí. [2]
La revisión de los extractos de datos codificados permite a los investigadores identificar si los temas forman patrones coherentes. Si este es el caso, los investigadores deben pasar al Nivel 2. Si los temas no forman patrones coherentes, es necesario considerar los temas potencialmente problemáticos. [1] Si los temas son problemáticos, es importante volver a trabajarlos y, durante el proceso, pueden surgir nuevos temas. [1] Por ejemplo, es problemático cuando los temas no parecen "funcionar" (capturar algo convincente sobre los datos) o hay una cantidad significativa de superposición entre los temas. Esto puede dar como resultado un análisis débil o poco convincente de los datos. Si esto ocurre, puede ser necesario reconocer los datos para crear temas cohesivos y mutuamente excluyentes. [1]
La siguiente etapa de la revisión es considerar la validez de los temas individuales y cómo se conectan con el conjunto de datos en su totalidad. Es imperativo evaluar si el significado potencial del mapa temático captura la información importante en los datos relevantes para la pregunta de investigación. Una vez más, en esta etapa es importante leer y releer los datos para determinar si los temas actuales se relacionan con el conjunto de datos. Para ayudar en este proceso, es imperativo codificar cualquier elemento adicional que pueda haberse omitido anteriormente en la etapa de codificación inicial. Si el mapa potencial "funciona" para capturar y contar de manera significativa una historia coherente sobre los datos, entonces el investigador debe avanzar a la siguiente fase de análisis. Si el mapa no funciona, es crucial volver a los datos para continuar revisando y refinando los temas existentes y tal vez incluso emprender una codificación adicional. Las discordancias entre los datos y las afirmaciones analíticas reducen la cantidad de respaldo que pueden proporcionar los datos. Esto se puede evitar si el investigador está seguro de que sus interpretaciones de los datos y las percepciones analíticas coinciden. [1] Los investigadores repiten este proceso hasta que están satisfechos con el mapa temático. Al final de esta fase, los investigadores tienen una idea de cuáles son los temas y cómo encajan entre sí para transmitir una historia sobre el conjunto de datos. [1]
La definición y el refinamiento de los temas existentes que se presentarán en el análisis final ayudan al investigador a analizar los datos dentro de cada tema. En esta fase, la identificación de las esencias de los temas se relaciona con la forma en que cada tema específico forma parte de la imagen completa de los datos. El análisis en esta etapa se caracteriza por la identificación de qué aspectos de los datos se están capturando y qué es interesante acerca de los temas, y cómo los temas encajan entre sí para contar una historia coherente y convincente sobre los datos.
Para identificar si los temas actuales contienen subtemas y descubrir una mayor profundidad de los mismos, es importante considerar los temas dentro del panorama general y también como temas autónomos. Braun y Clarke recomiendan tener cuidado al desarrollar muchos subtemas y muchos niveles de temas, ya que esto puede llevar a un análisis demasiado fragmentado. [51] Los investigadores deben entonces realizar y escribir un análisis detallado para identificar la historia de cada tema y su importancia. [1] Al final de esta fase, los investigadores pueden (1) definir en qué consisten los temas actuales y (2) explicar cada tema en unas pocas oraciones. Es importante señalar que los investigadores comienzan a pensar en nombres para los temas que le darán al lector una idea completa del tema y su importancia. [1] La falla en el análisis completo de los datos ocurre cuando los investigadores no usan los datos para respaldar su análisis más allá de simplemente describir o parafrasear el contenido de los datos. Los investigadores que realizan análisis temáticos deben intentar ir más allá de los significados superficiales de los datos para darles sentido y contar una historia precisa de lo que significan. [1]
Una vez que se han revisado los temas finales, los investigadores comienzan el proceso de redacción del informe final. Mientras escriben el informe final, los investigadores deben decidir sobre los temas que hacen contribuciones significativas para responder las preguntas de investigación que deben refinarse más tarde como temas finales. Para los defensores de la confiabilidad de la codificación, Guest y colegas, los investigadores presentan el diálogo conectado con cada tema en apoyo de una mayor confiabilidad a través de una descripción detallada de los resultados. [2] El objetivo de esta fase es escribir el análisis temático para transmitir la historia complicada de los datos de una manera que convenza al lector de la validez y el mérito de su análisis. [1] Un relato lógico claro, conciso y directo de la historia a través de y con temas es importante para que los lectores comprendan el informe final. La redacción del informe debe contener suficiente evidencia de que los temas dentro de los datos son relevantes para el conjunto de datos. Se deben incluir extractos en la narrativa para capturar el significado completo de los puntos en el análisis. El argumento debe respaldar la pregunta de investigación. Para algunos defensores del análisis temático, el paso final en la producción del informe es incluir la verificación de los miembros como un medio para establecer la credibilidad; los investigadores deberían considerar llevar los temas finales y el diálogo de apoyo a los participantes para obtener retroalimentación. [2] Sin embargo, Braun y Clarke son críticos de la práctica de la verificación de los miembros y, en general, no la consideran una práctica deseable en su enfoque reflexivo del análisis temático. [15] Además de destacar numerosas preocupaciones prácticas en torno a la verificación de los miembros, argumentan que solo es teóricamente coherente con los enfoques que buscan describir y resumir los relatos de los participantes de formas que sean reconocibles para ellos. [15] Dado que su enfoque de análisis temático reflexivo centra el papel activo e interpretativo del investigador, esto puede no aplicarse a los análisis generados utilizando su enfoque.
Una visión técnica o pragmática del diseño de la investigación centra a los investigadores en la realización de análisis cualitativos utilizando el método más apropiado para la pregunta de investigación. [15] Sin embargo, rara vez hay un solo método ideal o adecuado, por lo que a menudo se utilizan otros criterios para seleccionar los métodos de análisis: los compromisos teóricos del investigador y su familiaridad con métodos particulares. El análisis temático proporciona un método flexible de análisis de datos y permite que los investigadores con diversos antecedentes metodológicos participen en este tipo de análisis. [1] Para los positivistas, la "fiabilidad" es una preocupación debido a las numerosas interpretaciones potenciales de los datos posibles y la posibilidad de que la subjetividad del investigador "sesgue" o distorsione el análisis. Para quienes están comprometidos con los valores de la investigación cualitativa, la subjetividad del investigador se considera un recurso (en lugar de una amenaza a la credibilidad), por lo que las preocupaciones sobre la fiabilidad no se sostienen. No existe una interpretación correcta o precisa de los datos, las interpretaciones son inevitablemente subjetivas y reflejan el posicionamiento del investigador. La calidad se logra a través de un enfoque sistemático y riguroso y a través de la reflexión continua del investigador sobre cómo está dando forma al análisis en desarrollo. Braun y Clarke han desarrollado una lista de verificación de calidad de 15 puntos [52] para su enfoque reflexivo. Para los defensores del análisis temático de la confiabilidad de la codificación, el uso de múltiples codificadores y la medición de la concordancia de la codificación son vitales. [2]
El análisis temático tiene varias ventajas y desventajas, depende de los investigadores decidir si este método de análisis es adecuado para su diseño de investigación.