El análisis de contenido es el estudio de documentos y artefactos de comunicación, que pueden ser textos de diversos formatos, imágenes, audio o video. Los científicos sociales utilizan el análisis de contenido para examinar patrones en la comunicación de una manera replicable y sistemática. [1] Una de las principales ventajas de utilizar el análisis de contenido para analizar fenómenos sociales es su naturaleza no invasiva, en contraste con la simulación de experiencias sociales o la recopilación de respuestas de encuestas.
Las prácticas y filosofías del análisis de contenido varían entre las disciplinas académicas. Todas ellas implican la lectura u observación sistemática de textos o artefactos a los que se les asignan etiquetas (a veces llamadas códigos) para indicar la presencia de piezas de contenido interesantes y significativas . [2] [3] Al etiquetar sistemáticamente el contenido de un conjunto de textos , los investigadores pueden analizar patrones de contenido cuantitativamente utilizando métodos estadísticos , o utilizar métodos cualitativos para analizar los significados del contenido dentro de los textos .
Cada vez se utilizan más las computadoras en el análisis de contenido para automatizar el etiquetado (o codificación) de documentos. Las técnicas computacionales simples pueden proporcionar datos descriptivos, como frecuencias de palabras y longitudes de documentos. Los clasificadores de aprendizaje automático pueden aumentar en gran medida la cantidad de textos que se pueden etiquetar, pero la utilidad científica de hacerlo es un tema de debate. Además, existen numerosos programas informáticos de análisis de texto asistido por computadora (CATA) que analizan el texto en busca de características lingüísticas, semánticas y psicológicas predeterminadas. [4]
El análisis de contenido se entiende mejor como una amplia familia de técnicas. Los investigadores eficaces eligen las técnicas que mejor les ayuden a responder a sus preguntas sustantivas. Dicho esto, según Klaus Krippendorff , en todo análisis de contenido se deben abordar seis preguntas: [5]
La forma más simple y objetiva de análisis de contenido considera características inequívocas del texto, como las frecuencias de las palabras , el área de página que ocupa una columna de periódico o la duración de un programa de radio o televisión . El análisis de frecuencias de palabras simples es limitado porque el significado de una palabra depende del texto que la rodea. Las rutinas de palabras clave en contexto (KWIC) abordan este problema colocando las palabras en su contexto textual. Esto ayuda a resolver ambigüedades como las introducidas por sinónimos y homónimos .
Un paso más en el análisis es la distinción entre los enfoques basados en diccionarios (cuantitativos) y los enfoques cualitativos. Los enfoques basados en diccionarios establecen una lista de categorías derivadas de la lista de frecuencias de palabras y controlan la distribución de las palabras y sus respectivas categorías en los textos. Mientras que los métodos de análisis de contenido cuantitativo transforman de esta manera las observaciones de las categorías encontradas en datos estadísticos cuantitativos, el análisis de contenido cualitativo se centra más en la intencionalidad y sus implicaciones. Existen fuertes paralelismos entre el análisis de contenido cualitativo y el análisis temático . [6]
El análisis cuantitativo de contenido se centra en el recuento de frecuencias y el análisis estadístico de estas frecuencias codificadas. [7] Además, el análisis cuantitativo de contenido comienza con una hipótesis enmarcada con una codificación decidida antes de que comience el análisis. Estas categorías de codificación son estrictamente relevantes para la hipótesis del investigador. El análisis cuantitativo también adopta un enfoque deductivo. [8] Se pueden encontrar ejemplos de variables y constructos de análisis de contenido, por ejemplo, en la base de datos de acceso abierto DOCA. Esta base de datos recopila, sistematiza y evalúa variables de análisis de contenido relevantes de las áreas y temas de investigación de la comunicación y la ciencia política.
Siegfried Kracauer ofrece una crítica del análisis cuantitativo, afirmando que simplifica excesivamente las comunicaciones complejas para ser más fiable. Por otra parte, el análisis cualitativo se ocupa de las complejidades de las interpretaciones latentes, mientras que el cuantitativo se centra en los significados manifiestos. También reconoce una "superposición" del análisis de contenido cualitativo y cuantitativo. [7] Los patrones se examinan más de cerca en el análisis cualitativo y, en función de los significados latentes que el investigador pueda encontrar, se puede cambiar el curso de la investigación. Es inductivo y comienza con preguntas de investigación abiertas, a diferencia de una hipótesis. [8]
El instrumento de recolección de datos utilizado en el análisis de contenido es el libro de códigos o esquema de codificación. En el análisis de contenido cualitativo, el libro de códigos se construye y mejora durante la codificación, mientras que en el análisis de contenido cuantitativo, el libro de códigos debe desarrollarse y probarse previamente para comprobar su fiabilidad y validez antes de la codificación. [4] El libro de códigos incluye instrucciones detalladas para los codificadores humanos, además de definiciones claras de los respectivos conceptos o variables que se van a codificar, además de los valores asignados.
De acuerdo con los estándares actuales de buenas prácticas científicas, cada estudio de análisis de contenido debe proporcionar su libro de códigos en el apéndice o como material complementario para garantizar la reproducibilidad del estudio. En el servidor Open Science Framework (OSF) del Centro para la Ciencia Abierta, hay muchos libros de códigos de estudios de análisis de contenido disponibles de forma gratuita mediante la búsqueda "libro de códigos".
Además, la Base de Datos de Variables para Análisis de Contenido (DOCA) proporciona un archivo de acceso abierto de variables pre-probadas y libros de códigos establecidos para análisis de contenido. [9] Las medidas del archivo pueden ser adoptadas en estudios futuros para asegurar el uso de instrumentos de alta calidad y comparables. DOCA cubre, entre otras, medidas para el análisis de contenido de medios de ficción y entretenimiento (por ejemplo, medidas para sexualización en videojuegos [10] ), de contenido de medios generados por el usuario (por ejemplo, medidas para discurso de odio en línea [11] ), y de medios de noticias y periodismo (por ejemplo, medidas para el uso de fotos de archivo en informes de prensa sobre abuso sexual infantil, [12] y medidas de personalización en la cobertura de campañas electorales [13] ).
Con el auge de las instalaciones informáticas comunes como las PC, los métodos de análisis basados en computadora están creciendo en popularidad. [14] [15] [16] Las respuestas a preguntas abiertas, artículos de periódicos, manifiestos de partidos políticos, registros médicos u observaciones sistemáticas en experimentos pueden ser objeto de análisis sistemático de datos textuales.
Al tener los contenidos de la comunicación disponibles en forma de textos legibles por máquina, la entrada se analiza en busca de frecuencias y se codifica en categorías para desarrollar inferencias.
El análisis asistido por ordenador puede resultar de utilidad con grandes conjuntos de datos electrónicos, ya que permite ahorrar tiempo y eliminar la necesidad de que varios codificadores humanos establezcan la fiabilidad entre codificadores. Sin embargo, los codificadores humanos pueden seguir utilizándose para el análisis de contenido, ya que suelen ser más capaces de detectar significados latentes y matizados en el texto. Un estudio concluyó que los codificadores humanos podían evaluar una gama más amplia y hacer inferencias basadas en significados latentes. [17]
Robert Weber señala: "Para hacer inferencias válidas a partir del texto, es importante que el procedimiento de clasificación sea confiable en el sentido de ser consistente: diferentes personas deben codificar el mismo texto de la misma manera". [18] La validez, la confiabilidad entre codificadores y la confiabilidad intracodificadores son objeto de intensos esfuerzos de investigación metodológica durante muchos años. [5] Neuendorf sugiere que cuando se utilizan codificadores humanos en el análisis de contenido, se deben utilizar al menos dos codificadores independientes. La confiabilidad de la codificación humana a menudo se mide utilizando una medida estadística de confiabilidad entre codificadores o "la cantidad de acuerdo o correspondencia entre dos o más codificadores". [4] Lacy y Riffe identifican la medición de la confiabilidad entre codificadores como una fortaleza del análisis de contenido cuantitativo, argumentando que, si los analistas de contenido no miden la confiabilidad entre codificadores, sus datos no son más confiables que las impresiones subjetivas de un solo lector. [19]
De acuerdo con los estándares de información actuales, los análisis de contenido cuantitativo deben publicarse con libros de códigos completos y, para todas las variables o medidas en el libro de códigos, se deben informar los coeficientes de confiabilidad intercodificadores o interevaluadores adecuados en función de pruebas empíricas previas. [4] [20] [21] Además, debe garantizarse la validez de todas las variables o medidas en el libro de códigos. Esto se puede lograr mediante el uso de medidas establecidas que hayan demostrado su validez en estudios anteriores. Además, la validez de contenido de las medidas puede ser verificada por expertos en el campo que examinan y luego aprueban o corrigen las instrucciones de codificación, las definiciones y los ejemplos en el libro de códigos.
Hay cinco tipos de textos en el análisis de contenido:
El análisis de contenido es una investigación que utiliza la categorización y clasificación de discursos, textos escritos, entrevistas, imágenes u otras formas de comunicación. En sus inicios, utilizando los primeros periódicos a finales del siglo XIX, el análisis se hacía manualmente midiendo el número de columnas sobre un tema. El enfoque también se remonta a un estudiante universitario que estudiaba patrones en la literatura de Shakespeare en 1893. [22]
A lo largo de los años, el análisis de contenido se ha aplicado en diversos ámbitos. La hermenéutica y la filología llevan mucho tiempo utilizando el análisis de contenido para interpretar textos sagrados y profanos y, en muchos casos, para atribuirles autoría y autenticidad . [3] [5]
En los últimos tiempos, en particular con la llegada de la comunicación de masas , el análisis de contenido ha conocido un uso creciente para analizar y comprender en profundidad el contenido y la lógica de los medios de comunicación. El politólogo Harold Lasswell formuló las preguntas centrales del análisis de contenido en su versión convencional de principios y mediados del siglo XX: "¿Quién dice qué, a quién, por qué, en qué medida y con qué efecto?". [23] El fuerte énfasis en un enfoque cuantitativo iniciado por Lasswell fue finalmente llevado a cabo por otro "padre" del análisis de contenido, Bernard Berelson , quien propuso una definición de análisis de contenido que, desde este punto de vista, es emblemática: "una técnica de investigación para la descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación". [24]
El análisis de contenido cuantitativo ha gozado de una renovada popularidad en los últimos años gracias a los avances tecnológicos y la fructífera aplicación en la investigación de la comunicación de masas y la comunicación personal. El análisis de contenido de los grandes datos textuales producidos por los nuevos medios , en particular las redes sociales y los dispositivos móviles, se ha vuelto popular. Estos enfoques adoptan una visión simplificada del lenguaje que ignora la complejidad de la semiosis , el proceso por el cual se forma el significado a partir del lenguaje. Los analistas de contenido cuantitativos han sido criticados por limitar el alcance del análisis de contenido al simple recuento y por aplicar las metodologías de medición de las ciencias naturales sin reflexionar críticamente sobre su idoneidad para las ciencias sociales. [25] Por el contrario, los analistas de contenido cualitativos han sido criticados por no ser lo suficientemente sistemáticos y demasiado impresionistas. [25] Krippendorff sostiene que los enfoques cuantitativos y cualitativos del análisis de contenido tienden a superponerse y que no puede haber una conclusión generalizable sobre qué enfoque es superior. [25]
El análisis de contenido también puede describirse como el estudio de rastros , que son documentos de tiempos pasados, y artefactos, que son documentos no lingüísticos. Se entiende que los textos son producidos por procesos de comunicación en un sentido amplio de esa frase, que a menudo adquieren significado a través de la abducción . [3] [26]
El contenido manifiesto se entiende fácilmente en su sentido literal. Su significado es directo. El contenido latente no es tan evidente y requiere interpretación para descubrir su significado o implicación. [27]
Holsti agrupa quince usos del análisis de contenido en tres categorías básicas : [28]
También sitúa estos usos en el contexto del paradigma básico de la comunicación .
La siguiente tabla muestra quince usos del análisis de contenido en términos de su propósito general, elemento del paradigma de comunicación al que se aplican y la pregunta general que pretenden responder.
Como contrapunto, existen límites al alcance de uso de los procedimientos que caracterizan el análisis de contenido. En particular, si el acceso al objetivo del análisis se puede obtener por medios directos sin interferencia material, entonces las técnicas de medición directa producen mejores datos. [30] Por lo tanto, mientras que el análisis de contenido intenta describir de manera cuantificable las comunicaciones cuyas características son principalmente categóricas (normalmente limitadas a una escala nominal u ordinal) a través de unidades conceptuales seleccionadas (la unificación ) a las que se les asignan valores (la categorización ) para su enumeración mientras se monitorea la confiabilidad entre codificadores , si en cambio la cantidad objetivo es manifiestamente ya medible directamente (normalmente en una escala de intervalo o razón), especialmente una cantidad física continua, entonces tales objetivos por lo general no se enumeran entre los que necesitan las selecciones y formulaciones "subjetivas" del análisis de contenido. [31] [32] [33] [34] [35] [36] [20] [37] Por ejemplo (de investigación mixta y aplicación clínica), como las imágenes médicas comunican características diagnósticas a los médicos, la escala de volumen de accidente cerebrovascular (infarto) de neuroimagen llamada ASPECTS se unifica como 10 regiones cerebrales cualitativamente delineadas (desiguales) en el territorio de la arteria cerebral media , que clasifica como al menos parcialmente infartadas versus no infartadas en absoluto para enumerar estas últimas, con series publicadas que a menudo evalúan la confiabilidad entre codificadores mediante la kappa de Cohen . Las operaciones en cursiva anteriores imponen la forma no acreditada de análisis de contenido sobre una estimación de la extensión del infarto, que en cambio se mide con bastante facilidad y mayor precisión como un volumen directamente en las imágenes. [38] [39] ("La precisión... es la forma más alta de confiabilidad". [40] ) Sin embargo, la evaluación clínica concomitante, mediante la Escala Nacional de Accidentes Cerebrovasculares de los Institutos de Salud (NIHSS) o la Escala de Rankin modificada (mRS), conserva la forma necesaria de análisis de contenido. Reconociendo los límites potenciales del análisis de contenido en los contenidos del lenguaje y las imágenes por igual, Klaus Krippendorff afirma que "la comprensión... puede... no ajustarse en absoluto al proceso de clasificación y/o recuento por el que proceden la mayoría de los análisis de contenido", [41] lo que sugiere que el análisis de contenido podría distorsionar materialmente un mensaje.
El proceso del esquema de codificación inicial o el enfoque de codificación depende del enfoque de análisis de contenido particular seleccionado. A través de un análisis de contenido dirigido, los académicos redactan un esquema de codificación preliminar a partir de teorías o suposiciones preexistentes. Mientras que con el enfoque de análisis de contenido convencional, el esquema de codificación inicial se desarrolla a partir de los datos.
Con cualquiera de los enfoques anteriores, los investigadores pueden sumergirse en los datos para obtener una imagen general. Es vital contar con una unidad de codificación clara y coherente, con opciones que van desde una sola palabra hasta varios párrafos y desde textos hasta símbolos icónicos. Por último, los investigadores construyen las relaciones entre los códigos clasificándolos dentro de categorías o temas específicos. [42]