El análisis de contenido en perspectiva cualitativa

  • Carles-Enric Riba Campos

     Carles-Enric Riba Campos

    Doctor en Filosofía y Ciencias de la Educación por la UB (1986), profesor titular de Metodología de las ciencias del comportamiento en la Facultad de Psicología de la UB y profesor consultor de la UOC. Actualmente dirige Anuari de Psicologia, revista de psicología general publicada por la UB. Su actividad docente e investigadora está vinculada a la sistematización y aplicación de la metodología psicológica en el ámbito del trabajo de campo y la observación, con especial énfasis en la significación social del comportamiento y en la comunicación. Desde esta perspectiva, ha relacionado el enfoque semiótico con la metodología propia de las ciencias sociales y, dentro de este cruce de intereses, ha nacido su particular dedicación a la metodología cualitativa, entendida como un conjunto de estrategias y recursos dirigidos a la comprensión en profundidad y en clave intersubjetiva del comportamiento humano. Ha publicado varios libros y artículos sobre las temáticas indicadas.

PID_00166007
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

Índice

1.Bases metodológicas

1.1.Coordenadas del análisis de contenido con respecto a los ejes cualitativo y cuantitativo

La denominación "análisis de contenido" denota un conjunto de técnicas de análisis, cualitativas o cuantitativas, aplicadas a materiales significativos, textuales o icónicos.
1.1.1.Análisis de contenido cualitativo y cuantitativo
Como hemos afirmado repetidas veces, en la investigación cualitativa la actividad de análisis nace prácticamente con la propia planificación del muestreo y del registro y toma impulso con la recogida factual de información, recogida imposible de realizar sin una cierta segmentación del flujo de acontecimientos, incluso sin alguna codificación o categorización del material recolectado. Y creemos que salta a la vista que las fases de categorización interpretativa (axial o selectiva, en términos de la teoría fundamentada) que acabamos de comentar requieren ya de pleno derecho un trabajo auténticamente analítico por parte del investigador.
Igualmente, tiene que haber quedado lo bastante claro en los módulos precedentes que este trabajo de análisis cualitativo se refiere a textos, textos creados por el investigador (en calidad de transcripciones, registros narrativos, memos, etc.) o generados por el(los) sujeto(os) o las instituciones.
Ahora bien, las operaciones de análisis no sólo implican división o deconstrucción del texto, sino también síntesis y esfuerzo constructivo, los cuales son casi imposibles de realizar sin hacer comparaciones y establecer y justificar relaciones, a diferentes niveles, entre las categorías propuestas al final de la fase que acabamos de exponer; o sin llegar a aislar reglas o principios que permitan una interpretación holística del material estudiado. Este establecimiento de relaciones puede exigir una cierta cuantificación, apoyada –eso sí– en el análisis previo, categorial y cualitativo, de los textos.
El análisis de contenido produce resultados, interpretaciones o conclusiones como cualquier otro análisis científico. La mayor parte de los moldes metodológicos en los que se acomoda cualquier tipo de investigación psicológica pueden acomodar también un análisis de contenido. Así, podemos hacer análisis de contenido experimental (con intervención) u observacional (sin intervención), podemos obtener el texto mediante observación participante o no participante, podemos comparar sujetos o grupos o no hacerlo, podemos hacer una investigación longitudinal o transversal, etc. Sin embargo, nada de eso es específico del análisis de contenido, sino que forma parte de la panoplia de recursos metodológicos que un psicólogo tiene que conocer.
No obstante, si consultáis algunos de los textos más conocidos sobre análisis de contenido veréis que, a menudo, con un probable afán corporativista, esta técnica se presenta como una metodología absoluta y dentro de auténticos tratados donde se repasa la totalidad de la metodología de las ciencias sociales y del comportamiento, como si fuera específica o propia del análisis de contenido. Pero una cosa es que ciertos procedimientos adquieran una apariencia particular cuando se aplican dentro del análisis de contenido y otra, bien diferente, que estos procedimientos tengan que presentarse y tratarse como parte constituyente de esta técnica.
Ejemplo de aplicación del análisis de contenido
En un estudio de 2002, Karsenti y sus colaboradores aplicaron análisis de contenido convencional a los materiales obtenidos en chats y correos electrónicos de estudiantes que habían recibido un curso por Internet. Naturalmente, la mejora tenía que ser detectada y valorada mediante un seguimiento del proceso de aprendizaje, obligadamente longitudinal. Las cuatro categorías centrales del análisis serían:
  • "Cursos" (mensajes relacionados con los contenidos del curso),

  • "Escollos" (mensajes que comunicaban diversas dificultades de comprensión o ejecución),

  • Trabajos" (mensajes sobre las memorias o informes que los estudiantes tenían que elaborar y entregar a través de la red) y

  • "Diversos" (una categoría cajón de sastre pero que agrupaba mensajes que no tenían una relación directa con el curso).

El análisis se intensificó en lo concerniente a la categoría "escollos", por razones obvias. La evolución de las frecuencias de esta categoría y de las subbcategorías que la integraban ("escollos técnicos", "escollos de autonomía", "otros") fue seguida a lo largo de quince semanas revelando, al menos desde este punto de vista, el éxito del curso, ya que su disminución fue drástica a partir de la cuarta semana, a pesar de un pequeño repunte en la última.
Es evidente que un procedimiento de registro y evaluación como éste se hubiera podido utilizar en un estudio transversal, comparando, por ejemplo, los mensajes de diferentes grupos de estudiantes (chicos y chicas, pongamos por caso).
Actualmente, el análisis de contenido se contempla como una denominación suficientemente amplia, que reúne todas las técnicas de análisis textual cuantitativo, aplicadas a documentos, transcripciones e incluso mensajes no estrictamente textuales, pero significativos, como los icónicos (comunicación no verbal, pintura, cómics, cine, publicidad, etc.). Sobre esta base cuantitativa, el análisis de contenido puede fundamentar, orientar y prolongar las inferencias que el investigador cualitativo hace al estudiar los textos. Por lo tanto, el análisis de contenido no es, en rigor, una técnica puramente cualitativa, pero puede adoptar orientaciones cualitativas y puede también ponerse al servicio de muchas investigaciones cualitativas, siendo el complemento de técnicas de registro y codificación como las que hemos explicado hasta aquí.
Mirando las cosas así, el debate sobre si el análisis de contenido es una técnica cuantitativa o cualitativa deja de tener sentido: todo depende de cuáles de sus aspectos adquieren más peso en el análisis y cuáles son las vías de desarrollo preferidas y potenciadas.
A veces, el análisis de contenido tendrá un valor totalmente cuantitativo, en tanto que técnica marcada por la voluntad de objetividad (en la acepción más positivista de este término), centrada en los números, en la tabulación del material textual, poco dispuesta a los relativismos, poco atenta a los significados o a los mensajes. Esta orientación será extensiva y se ocupará de grandes volúmenes de material textual. Justamente, una de las aportaciones de la técnica será la reducción o simplificación de todo este material mediante variables muy generales, antes de computar frecuencias y probabilidades de aparición y calcular correlaciones entre ellas.
Otras veces, el análisis de contenido revelará una intención completamente contraria, en tanto que técnica genuinamente cualitativa, atenta a los matices de la significación, a la complejidad, profundidad y carácter relativo de los mensajes textuales, muy cerca entonces de la teoría fundamentada, la fenomenología, la etnometodología o el análisis del discurso. Entonces no será tan importante la frecuencia u otros parámetros con los que aparece un elemento en un texto, como el hecho de que aparezca o no aparezca en comparación con otros textos. Será una inmersión intensiva, en profundidad, en el texto, atenta al detalle y a la complejidad, a texto y a contexto, y tanto a aquello que aparece explícitamente como a aquello que no se hace patente. Este tipo de aproximación exigirá, a menudo, que el análisis se limite a uno o pocos casos, de manera que el análisis de contenido cualitativo acaba siendo una herramienta más en los estudios de caso.
Propuesta purista de Philip Mayring
La posición adoptada aquí es bastante ecléctica con respecto a la posibilidad de realizar análisis de contenido cualitativos con componentes cuantitativos, o análisis esencialmente cuantitativos pero con elementos cualitativos. No obstante, existen posiciones más "puristas" en relación con la verosimilitud de análisis de contenido genuinamente cualitativos, aunque ni siquiera estas posiciones excluirían totalmente los recursos cuantitativos. Una de ellas correspondería a la propuesta de Philip Mayring, en la cual la apertura del análisis es hace compatible con una cierta canalización de las operaciones realizadas, gracias a la ruta teórica seguida por el investigador. Esta apuesta por la combinación entre apertura y teoría, junto con una cuidadosa aplicación secuencial de los protocolos, coloca esta propuesta cerca de la teoría fundamentada que hemos manejado en el módulo "Las técnicas cualitativas en la selección y tratamiento de la información", teniendo en cuenta, además, que la construcción teórica tiene su núcleo generatriz en sistemas de categorías como los que también hemos visto. Ahora bien, Mayring pone siempre un énfasis muy especial en el carácter muy sistemático y riguroso de los protocolos aplicados, los cuales, según él, harían cualquiera de estos análisis replicables, aunque radicalmente cualitativos.
Por otra parte, aunque los análisis no se tendrían que limitar exclusivamente al estudio de casos, sin embargo nos atrevemos a decir que éste es el terreno donde la metodología de Mayring funciona mejor. Otros rasgos fundamentales del enfoque cualitativo son igualmente contemplados por Mayring, que entiende el mensaje textual en la dimensión comunicativa, en la cual el sujeto es el emisor o autor y, por consiguiente, hace falta llegar y entenderlo para poder interpretar su texto.
Lecturas recomendadas

P. Mayring (2000). Qualitative content analysis. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 1(2), junio, art. 20. Recuperado el 5 de octubre del 2004 de https://www.qualitative-research.net/fqs-texte/2-00/2-00mayring-e.htm

También podéis consultar: F. Kohlbacher (2006). The Use of Qualitative Content Analysis in Case Study Research. Forum Qualitative Sozialforschung / Forum: Qualitative Social Research, 7 (1), enero, art. 21. Recuperado el 10 de enero del 2009 desde

1.1.2.Definiciones del análisis de contenido
Una definición lo bastante general del análisis de contenido, que permite incluir perspectivas diferentes, podría ser la de Weber.

"El análisis de contenido es una metodología de investigación que utiliza un conjunto de técnicas con el fin de hacer inferencias válidas a partir de los textos."

R. P. Weber (1990). Basic Content Analysis (p. 9).

Sin embargo, este tipo de definiciones son tan amplias que carecen de sustancia. Es el caso de la que proponen Penalva y Mateo.

"El análisis de contenido es una técnica de análisis textual que se utiliza para observar de manera indirecta a una sociedad. Como técnica basada en la documentación, esta observación no se lleva a cabo ni mediante la observación del comportamiento de los sujetos, ni tampoco conversando con ellos, sino con el estudio de los textos que esta sociedad produce".

C. Penalva y M. Á. Mateo (2006). Tècniques qualitatives d'investigació.Alacant: Universitat d'Alacant, Departament de Sociologia II, Psicologia, Comunicació i Didàctica / Universitat d'Alacant, Secretariat de Promoció del Valencià / Conselleria de Cultura, Educació i Ciència.

La definición de Penalva y Mateo parece más completa pero, como está compuesta con una óptica sociológica, tendríamos que añadir a "sociedad" los términos "persona", "grupo" o "institución". Fijaos en el calificativo de "indirecta" y en la referencia a la documentación. Efectivamente, al situarnos con respecto al análisis de contenido, tendríamos que recuperar conceptos como el de observación indirecta así como los de documento y transcripción y las tipologías asociadas a ellos.
Contexto
Habrá que matizar otro punto, que completa las anteriores definiciones del análisis de contenido: estas observaciones e inferencias, sea cual sea el prisma a través del cual se haga el análisis, se realizan a través del contexto; mejor dicho, de los distintos tipos de contexto, intratextual o extratextual, tal como esperamos aclarar pronto.
1.1.3.Tipos de análisis de contenido
Ya conocemos las líneas principales de aplicación del análisis de contenido. Ahora distinguiremos las orientaciones de esta técnica en un marco menos general y considerando no tanto sus posibilidades teóricas, como los desarrollos más frecuentes y conocidos en la práctica investigadora.
  • El análisis temático. Es la orientación más inmediata del análisis de contenido a partir de definiciones básicas como las que hemos expuesto más arriba, centrada precisamente (valga el juego de palabras) en el "contenido". El analista en estos casos se ocupa de los significados denotativos (significado nuclear o "de diccionario") o connotativos (asociaciones, significación periférica y más personal) del texto. Dentro del análisis temático encontramos dos modalidades principales:

    • El análisis categorial que, después de clasificar categorialmente los materiales textuales, computa la frecuencia sobre la base de la juiciosa hipótesis de que la frecuencia con que aparece un cierto tema, referencia, alusión, etc., a lo largo del texto, correlaciona de alguna manera con la importancia que posee dentro del sistema de denotaciones del autor.

    • El análisis evaluativo, que prolonga la línea de análisis categorial en la dirección de valorar, no sólo temas o referencias, sino también los juicios y opiniones del autor, en clave connotativa además de denotativa, tratando de calcular la intensidad de los contenidos además de su presencia en el texto.

  • El análisis formal. Dirigido al "cómo" más que al "què" de los mensajes textuales, en su apariencia expresiva o comunicativa, y tanto a escala de las unidades como de su encadenamiento. Las orientaciones principales son:

    • El análisis de la expresión, que se ocupa de la forma del texto y del discurso que es incorporado. La forma proporcionaría indicaciones globales sobre las características del autor (desde su talante o estado de ánimo hasta su ideología). El analista no haría sino aplicar el vieja dicho de que "el estilo es el hombre" (o, evidentemente, "la mujer") y los indicadores concretos sobre los que apoyaría serian la elección del vocabulario (más o menos culto, más o menos directo, con más o menos adjetivos, etc.), el grado de complicación de las frases (con más o menos puntos y aparte, más o menos oraciones coordinadas o subordinadas), los recursos retóricos (interrogantes, admiraciones), y así sucesivamente.

    • El análisis de la enunciación, que se ocupa de la forma del texto y del discurso que incorpora en sí mismos, en tanto que poseedores de una dinámica propia hasta cierto punto independizada del estado y rasgos de su autor y más sujeto a las convenciones culturales y a las reglas sociales del discurso. Ahora el analista se fijará más en el orden general del texto (por ejemplo, en la organización ritual del discurso de un político), en sus retrocesos y avances, en las repeticiones, cambios de ritmo, etc.

  • El análisis estructural. Pone todo el esfuerzo en descubrir las reglas de construcción del texto o del discurso, reglas a menudo no manifiestas. Por lo tanto, este campo del análisis de contenido está totalmente comprometido en la búsqueda de relaciones, en dos direcciones diferentes:

    • La del análisis estructural propiamente dicho, abocado al descubrimiento de los principios generadores del texto, en profundidad, ya sea desde el punto de vista del autor (cómo ha organizado la tarea de producción del texto), ya desde el punto de vista del intérprete (cómo se tiene que representar o "modelizar" el texto con el fin de hacerlo plenamente inteligible).

    • La del análisis de contingencias, también denominado de asociaciones o de concomitancias. Éste, de entrada, sería un análisis más superficial que el anterior, al menos en su primera fase, ya que en fases posteriores puede conducir a profundizaciones y a la localización de los principios organizadores del texto. Es un análisis eminentemente secuencial y consiste en relacionar cada unidad de análisis con elementos antecedentes o consiguientes, a diferentes distancias dentro del texto. Como esta línea de trabajo dispone de recursos técnicos bastante estandarizados, eso nos permitirá concretar y dedicar más adelante una parte de este módulo a exponerlos con un poco de detalle.

A menudo, en los manuales se suele diferenciar entre los análisis que se conforman con el significado manifiesto o evidente y los que pretenden buscarlo en capas más profundas del discurso, en tanto que significado latente u oculto. Pero estas dos opciones se ofrecen transversalmente a todas las modalidades descritas, aunque, ciertamente, el acceso a las capas generatrices o más profundas de significado estará siempre mejor garantizado por aquellos análisis cuyas inferencias se apoyan sobre la búsqueda y el establecimiento de relaciones.
Ved también
A continuación presentaremos los rasgos básicos de esta técnica, entendida como una vía de acceso a los textos, a su preparación y análisis, complementaria a las que ya hemos detallado en el módulo anterior: algunas facetas del muestreo, segmentación y categorización expuestas dentro de la teoría fundamentada son compartidas por el análisis de contenido en su acepción más general; otras se añadirán ahora. Recordemos, por otra parte, que el análisis de contenido ya fue presentado y globalmente caracterizado en la asignatura Métodos de investigación cualitativa. Lo que haremos aquí es ampliar lo que allí se decía, desarrollando los aspectos más específicos del análisis. Y organizaremos los siguientes subapartados sobre la base de un esquema parecido al que nos ha servido de guía hasta aquí, abordando primero el muestreo de materiales textuales, continuando con la segmentación y la categorización de los documentos y transcripciones analizados y acabando con una breve incursión en las medidas e índices útiles en este ámbito metodológico.
A pesar de ser una técnica original y esencialmente cuantitativa, el análisis de contenido se puede poner al servicio de la investigación cualitativa.

1.2.El muestreo en el análisis de contenido

La primera operación en el análisis de contenido consiste en establecer un corpus de textos y, dentro de éste, la elección de la muestra que será efectivamente estudiada.
Un análisis de contenido empieza, como no podría ser de otra manera, con una delimitación del objeto de estudio y con la selección y fijación de los materiales que se pretende analizar. En el lenguaje típico del análisis de contenido se dice que estos materiales seleccionados pueden haber sido recogidos mediante:
  • La recopilación de documentos ya existentes,

  • la producción de textos o transcripciones ad hoc.

Esta distinción coincide con la que se aplica, como sabéis, a los documentos, separando aquellos creados espontáneamente de los creados por encargo.
Una vez realizada esta primera selección de textos, podemos optar por estudiarlos en su totalidad, o bien limitar nuestra indagación a una parte de cada uno de ellos solamente. Si preferimos esta segunda opción, tenemos que llevar a cabo operaciones de muestreo sobre el material recogido en primera instancia. Los criterios para establecer qué partes del texto se analizan efectivamente y cuáles no pueden ser de diversas clases: estadísticos, teóricos, prácticos, normativos, etc.
Observación discontinua de un texto
De la misma manera que en una sesión de observación el comportamiento de un sujeto no tiene por qué observarse y registrarse de una manera continua, en todo momento o en toda unidad temporal de registro, sino que a menudo se contabiliza sólo en determinados intervalos o puntos de tiempo previamente fijado, también un texto puede ser "observado" de manera discontinua, centrando el registro en segmentos privilegiados y previamente escogidos en función de diferentes tipos de criterios. Con todo, el paralelismo entre la observación del comportamiento y la de textos tiene innegables limitaciones, a las que aludiremos más adelante.
Parece justificado referirse a dos tipos de operaciones de muestreo textual que establecen, al final, las fuentes de datos propiamente dichas: por un lado, el investigador de textos tiene la posibilidad de realizar un muestreo intertextual, que comporta la selección de los escritos de los que se ocupará la investigación en curso; por otro, puede o no llevar a cabo un muestreo intratextual que fije las partes del texto ya escogido, que serán de verdad registradas, categorizadas, medidas y analizadas, segregándolas de aquellas que se dejarán de lado.
1.2.1.Muestreo intertextual
Cuando es necesaria, la selección de los documentos que entran dentro del objeto de estudio depende evidentemente de éste y de los objetivos que se marca la investigación en curso. Los intereses y metas del investigador acotan el universo documental donde tienen que encontrar su rumbo: las cartas de un político, los relatos de los participantes en una crisis familiar, las entrevistas hechas para elaborar una historia de vida, etc. Y los documentos separados y escogidos dentro de este universo tienen que ser pertinentes o relevantes con vistas a las preguntas que aquel investigador quiera responder.
Lo primero que hay que hacer es establecer contacto con este universo documental. Eso quiere decir que se tienen que leer los textos, probablemente no una vez, sino varias. Si los documentos tienen que ser producidos, y no simplemente recopilados, el primer trabajo del investigador será, claro está, construir instrumentos que generen las respuestas adecuadas para obtener el material buscado. Los más habituales, como ya sabemos, son los protocolos de entrevista.
Libertad de selección de los documentos
No es inusual que los documentos utilizados vengan señalados por los propios objetivos de la investigación o por los patrocinadores de ésta. Ésta es la situación normal en investigación aplicada. Por ejemplo, una empresa de perfumería encarga a un equipo de analistas la comparación entre los textos de su publicidad de una colonia con los correspondientes de la competencia. El encargo es provocado por un bajón de ventas. En casos así, obviamente, el científico o el profesional no pueden escoger sus materiales.
Cuando los planteamientos son más amplios, el margen de libertad –y de incertidumbre– es mayor. Supongamos que nos preguntan cuáles son los ejes de transformación del discurso oficial sobre educación de la juventud durante los últimos años. Las posibilidades en cuanto al material disponible son enormes: podemos recurrir a decretos y notas de prensa del ministerio o la consejería, a discursos del ministro o del consejero, a los discursos en las entregas de títulos o premios, a los artículos de diarios y revistas, a los libros de texto, etc.
Después de leer y conocer los tipos de documentos con los que hay que trabajar, ya se puede hacer la selección definitiva sobre la que se realizará de verdad el análisis. Esta selección definitiva dará lugar a un corpus.
El corpus es el conjunto de materiales textuales que tiene en cuenta el científico social con el fin de responder a la pregunta de investigación a la que se enfrenta, los escritos que generan la información que después aquél procesa.
Una vez decididos los criterios selectivos que determinan un corpus, el número de elementos que éste contiene tiene que ser máximo respecto de los mencionados criterios. En otras palabras: el corpus tiene que ser exhaustivo en el sentido de que ninguno de los elementos previsibles sobre la base de los criterios de selección puede faltar.
Hablemos finalmente de estos criterios de selección. La muestra de textos final tiene que ser representativa respecto del universo del que proviene. Esta representatividad apunta al número de documentos que habrá en el corpus y que tiene que cubrir la variabilidad que éste exhibe en diferentes ejes.
En algunos casos, pero no en todos, la selección de materiales se puede resolver mediante criterios estadísticos, los utilizados en la investigación nomotética o poblacional. Si sabemos la distribución de los elementos de la muestra con respecto a alguna variable, podemos realizar un muestreo al azar, estratificado, por cuotas, etc.
Otras veces, cuando el horizonte de la investigación es cualitativo, los principios que guían la selección son de carácter más teórico que estadístico, o están soldados a los mismos objetivos de la investigación. Así, si dentro de un epistolario, nos interesan sólo las misivas escritas durante las fiestas de Navidad, las destinadas a ciertas personas, o las que tratan un tema concreto, estableceremos el corpus sobre esta base, sin ulteriores complicaciones; y si de una entrevista a un político tan sólo nos interesan las preguntas y respuestas relacionadas con temas económicos, entonces nos ceñiremos a éstas.
Ejemplo de muestreo
No sería imposible, pongamos por caso, conocer el número de anuncios de coches en los diarios de Cataluña durante el 2009, clasificados por su tamaño, el nombre de la publicación, el mes de aparición, la marca y modelo del coche, etc.; y teniendo en cuenta todas estas fuentes de variación, coger una muestra ajustada a una distribución normal.
Finalmente, en un tercer tipo de situación de partida, la representatividad del corpus queda asegurada por el simple hecho de que universo y corpus coinciden o –lo que es lo mismo– porque el investigador estudia todos los documentos disponibles relacionados con el tema que lo ocupa. Esta solución es característica de la investigación idiográfica o del estudio de casos.
1.2.2.Muestreo intratextual
Por lo pronto, el texto fijado en el corpus tiene que estar preparado. Esta preparación no es estrictamente una operación de muestreo, pero la hace posible o la facilita. La preparación tiene que ser material y formal.
  • La preparación material pretende "poner en limpio" el texto cuando éste no reúne las condiciones de claridad o legibilidad que se le pueden exigir. Una carta escrita con letra difícil puede ser mecanografiada; lo mismo que un autoinforme o un relato manuscritos. Los documentos antiguos suelen requerir una considerable preparación antes de prestarse al desciframiento y al análisis. Las transcripciones de entrevistas o interacciones grabadas en magnetófono o vídeo pueden también incluirse dentro de las operaciones de "limpieza" a que nos estamos refiriendo.

  • La preparación formal alude a la edición de los textos. Así, por comodidad del analista, los párrafos se pueden separar, línea a línea, desglosando las oraciones completas en sus componentes y numerando éstos; o se pueden fijar márgenes muy anchos para posteriores codificaciones; o se puede marcar el texto de diversas maneras. Ni que decir tiene que, hoy día, esta preparación se puede hacer y se hace a través de los recursos que suministran el software de análisis cualitativo.

Con respecto al muestreo intratextual propiamente dicho, el principio orientativo que hay que seguir es el de que, una vez delimitado el corpus, cuantos más segmentos de texto analicemos dentro de éste, tanto más valiosos serán los resultados. De hecho, el ideal es estudiar la totalidad de cada documento, dado que un texto es semánticamente coherente pero no homogéneo a lo largo de su curso, por lo cual la selección de fragmentos representativos puede ser problemática y, por descontado, no siempre puede responder a criterios estadísticos.
Si, en cualquier caso, hay que hacer un muestreo intratextual, el analista tendrá que tener muy presente la estructura del texto o lo que ya conozca de ella. El texto, sin duda, exhibe una estructura.
Un discurso presidencial de toma de posesión muestra una organización ritual: hay una introducción y una clausura bien marcadas con fórmulas usualmente tradicionales; los asuntos internos y los económicos se tratan antes que los internacionales; etc. Una autobiografía suele consagrar más páginas a la vida adulta que a la niñez. Un relato manifestará una progresión temática muy dependiente de la personalidad de su autor/a y del tema sobre el que se extiende: una persona compulsiva introducirá las cuestiones centrales enseguida (sobre todo si son conflictivas), mientras que una más tranquila tal vez hará un largo preámbulo de preparación.
Por consiguiente, será prudente realizar el muestreo dentro de cada sector de esta estructura, la cual se tendrá que conocer desde el principio, al menos en cierta medida. En un discurso, por ejemplo, habrá que hacer una selección de fragmentos en la introducción, otra en el cuerpo central de la exposición y otra en la clausura.
Además, los fragmentos escogidos tendrán que poseer una cierta unidad: la de un párrafo o la de una sección dentro de un capítulo, pongamos por caso. En ninguna circunstancia será conveniente separar oraciones o palabras aisladas, sacándolas de su contexto y haciendo así la interpretación difícil, si no imposible.
De forma parecida al muestreo intertextual, también en el intratextual podemos recurrir a diferentes tácticas con el fin de hacer la selección final de segmentos de texto:
  • Podemos seguir criterios estadísticos. En este tipo de muestreo, como el conjunto de textos seleccionados tiene que permitir un repertorio y una clasificación exhaustivos de segmentos de registro y de categorías de análisis, el investigador se puede servir de técnicas habitualmente utilizadas en la observación del comportamiento. Efectivamente, en ésta última se puede calcular la cantidad de observaciones necesarias a fin de que el número de unidades de registro y de categorías medidas pueda considerarse completo y no ampliable. Así, en una primera fase del análisis, una vez alcanzada una clasificación categorial provisional a partir del repertorio de segmentos de texto registrados, podemos calcular si hemos seleccionado suficiente material dentro del texto en cuestión (suficientes líneas, párrafos, páginas, etc.) a través de la fórmula

    10525_m3_01.gif

    donde N1 es el número de categorías detectadas solamente una vez hasta el momento de la decisión y T el número de segmentos o unidades de registro recogidas también hasta este mismo momento. Cuando la expresión toma valores próximos a la unidad, consideramos que el número de segmentos seleccionados para el análisis ya es suficiente.

  • Podemos seguir criterios teóricos o prácticos, derivados de la misma naturaleza del objeto de estudio o del encargo que ha motivado la investigación, tal como ya hemos hecho notar más arriba.

Efectos de final de página
Supongamos la siguiente indagación. En los álbumes de cómics clásicos se nota a menudo que, originalmente, los textos serían entregados a publicaciones periódicas, página a página o tira a tira. El principal indicio de eso en los álbumes publicados completos con posterioridad se encuentra en los llamados efectos de final de página o de final de tira, recursos textuales o visuales con los que los autores pretendían –y conseguían– mantener el interés del lector hasta el día siguiente, la semana siguiente o el día en que tocaba la subsiguiente entrega de material. Se habla también, en relación con estos recursos, del efecto "continuará".
Pues bien, imaginad que alguien quiere estudiar a fondo los efectos de final de página. Obviamente, la selección de partes del texto –en este caso, viñetas– obedecerá a este objetivo; el estudio no se hará en toda la superficie de la historieta sino, como máximo, en las dos o tres viñetas finales de cada página. De manera que las operaciones de muestreo intratextual no requerirán otra consideración fuera de ésta –atender al final de página–, coincidente con los objetivos de la investigación.
Ved Riba, C. (1986). Sobre la utilización de la página en Tintín. Neuróptica, 4, 100-109.
  • Por último, como ya hemos dicho, el investigador puede estudiar la totalidad de cada uno de los textos seleccionados, opción practicable si éstos no son muchos ni muy extensos. En cualquier caso, esta solución, que era típica de las aproximaciones idiográficas y cualitativas a los textos en el terreno del muestreo intertextual, también lo es en el del muestreo intratextual.

Los criterios de muestreo inter e intratextual pueden ser estadísticos, teóricos o derivados de los objetivos de la investigación.

1.3.Principios de segmentación y creación de unidades en el análisis de contenido: texto y contexto

La segmentación inherente al análisis de contenido contempla el aislamiento tanto de unidades textuales como contextuales, ya que las primeras adquieren sentido dentro de las segundas.
1.3.1.Texto y contexto
Una vez disponemos de un corpus y de una selección de textos dentro de éste, los principios que guían la diferenciación sistemática de segmentos de texto y la creación de unidades textuales no son muy diferentes, en el análisis de contenido, de los que hemos mencionado y comentado a propósito de la codificación en general de cualquier texto, ni siquiera de los principios específicos aplicados en la teoría fundamentada. Sin embargo, vista la mayor sujeción a protocolos del análisis de contenido, y teniendo en cuenta que, por su filiación cuantitativa, en él la subjetividad y creatividad del analista puede quedar muy neutralizada, los procedimientos de segmentación están mucho más sometidos a norma. Y, por otra parte, como suele pasar en las ciencias sociales, el dialecto especializado de esta técnica ha introducido términos que no siempre son coincidentes con lo que hemos visto hasta aquí.
Por todas estas razones, tenemos que dedicar unas páginas a fijar la acepción de algunos términos aplicados a la segmentación en el análisis de contenido, los cuales no se contradicen con los que ya hemos fijado en el módulo anterior, sino que los completan con exigencias de estandarización. Ahora bien, como el análisis de contenido, a pesar de ser una técnica esencialmente cuantitativa, pretende hacer inferencias e interpretaciones textuales, no puede dejar éstas al arbitrio del analista, sino que trata de establecer un patrón o esquema primario sobre el cual sostener estas inferencias e interpretaciones.
Este patrón o esquema se configura sobre la relación texto-contexto. Un segmento de texto será interpretado en función de un correspondiente segmento de contexto, que será el que le otorgará significado relacional. Y cada segmento de texto se asignará a unos o más segmentos de contexto según reglas de adscripción que suelen ser de tipo metodológico, no teórico (a diferencia de la táctica dominante en la teoría fundamentada). La regla de asignación suele coincidir, de manera más o menos exacta, con la de la interpretación contextual clásica, en la que cada segmento o unidad considerada se enlaza, como hemos visto, o bien con un elemento antecedente (referencial o causal), o bien con uno consiguiente (funcional o intencional). No obstante, el contexto también puede ser de otros tipos, no anclado en elementos antecedentes o consiguientes, sino englobando o abrazando el elemento a interpretar.
Este esquema interpretativo se puede aplicar tanto a secuencias de acciones como a secuencias de texto y hay que aclarar igualmente que, así como en todo lo que hemos dicho hasta ahora estaba implícito que el contexto pertenecía a la misma secuencia que el elemento interpretado, también puede ocurrir que quede fuera de ella. Y finalmente, como enseguida precisaremos, el contexto también puede estar fuera del texto.
En cualquier caso, la segmentación en el análisis de contenido reclamará dos tipos de criterio, uno referido a los segmentos de texto, y otro, a los segmentos de contexto, aunque los dos tipos de segmentos sean asociados o acoplados. Nos harán falta unidades de texto, las unidades de registro propiamente dichas en tanto que piezas o elementos del texto; y también unidades de contexto.
Ejemplo de contextualización
Incluimos un primer ejemplo de contextualización, como aperitivo de los que veremos después. Lo hemos tomado de E. López-Aranguren (1989). El análisis de contenido. En M. García Ferrando, J. Ibáñez y F. Alvira (Comp.), El análisis de la realidad social. Métodos y técnicas de investigación (2.ª ed., pp. 383-414). Madrid: Alianza.
Considerad esta noticia traducida, aparecida en el New York Times en tiempo de la dictadura, el 10 de mayo de 1970 (omitimos la cabecera):
"El Gobierno anunció formalmente hoy la destitución del jefe de la Escuela Militar de Estado Mayor, que había hablado públicamente de la injusticia social en España.
La orden de destitución del General de Brigada Narciso Ariza García fue firmada por el Generalísimo Franco y publicada en el Boletín Oficial del Estado. La orden no daba razón alguna para la destitución.
Sin embargo, fuentes militares han dicho que el general ha sido cesado por su crítica del sistema social español en un discurso pronunciado en la Escuela el pasado domingo."
En esta noticia podemos distinguir dos niveles de contextualización en torno al núcleo de la noticia, que es el elemento a interpretar: la destitución de un general. Tomando como unidad de análisis el párrafo, es obvio que, globalmente, el tercer párrafo hace de contexto consiguiente de los otros dos, remachando el argumento introducido en el primero e interpretando explícitamente el sentido de la destitución. Ahora bien, si tomamos como unidad la oración (entre comas o puntos), tendremos tres contextos consiguientes, uno por párrafo. Dos de ellos estarán marcados por la interpretación del hecho en términos de castigo, igual que en la interpretación anterior ("...que había hablado públicamente de la injusticia social en España", en el primer párrafo; "...fuentes militares han dicho que el general ha sido cesado por su crítica del sistema social español en un discurso pronunciado en la Escuela el pasado domingo", en el tercero). Por el contrario, el contexto consiguiente "La orden no daba razón alguna para la destitución", es un contexto nulo, que sólo permite constatar la falta de información, pero que queda compensado por los otros dos.
1.3.2.Unidades textuales
Las unidades textuales corresponden a los segmentos y forman el nivel más elemental de referencia del análisis.
Claro está que el límite inferior de su tamaño es la palabra o el monema, límite más allá del cual está la pérdida de significación. Es decir, aduciendo un argumento de relevancia o pertinencia, un análisis de contenido de carácter cualitativo no puede prescindir de la significación y, por lo tanto, la palabra es el suelo desde el que tiene que hacer remontar cualquier interpretación. Más allá de esta consideración, las características y el tamaño de las unidades textuales dependen, como es preceptivo, de los objetivos de la investigación y del nivel de análisis al cual interese adoptar.
Las unidades textuales tienen que ser perfectamente discernibles en tanto que segmentos de escritura y poder relacionarse entre sí. Las más utilizadas son:
  • Palabra. Es la pieza mínima de significado. Como unidad se distingue por ser una forma gráfica (o sonora, antes de la transcripción), simple o compuesta. La palabra es fácilmente contextualizable en frases, oraciones, etc., y se presta al tratamiento informatizado (desde hace años los ordenadores son capaces de entregarnos listas o recuentos de palabras, catálogos de las frases donde figura una palabra, etc.). El problema surge cuando una misma palabra en tanto que forma gráfica brinda diferentes significados, o diferentes palabras poseen el mismo; es decir, cuando existen homónimos o sinónimos. Por eso la palabra se puede tratar de dos maneras:

    • como unidad multívoca, que presenta diferentes valores o significados;

    • como unidad unívoca, que va asociada a un solo valor o significado.

La palabra como unidad multívoca o unívoca
La palabra mesa como unidad multívoca podría proporcionar dos unidades de registro diferentes, según su significado fuera "mueble con patas que soportan una superficie horizontal y que sirve para comer, escribir, etc.", o bien "formato gráfico de clasificación de doble entrada, con filas y columnas". Como unidad unívoca, en cambio, sólo proporcionaría una.
  • Frases con unidad semántica, como las frases hechas ("caer muy bajo", "dar por supuesto") y los refranes y dichos.

  • Oraciones. De cualquier tipo, simples, coordinadas, subordinadas; activas o pasivas. Los criterios de delimitación de la oración tienen que ser, inevitablemente, sintácticos o gramaticales. Probablemente, después de la palabra ésta es la unidad de registro más utilizada.

  • Temas. Un tema puede referirse a hechos, situaciones, estados de ánimo; puede ser de alcance individual o colectivo. Esta unidad, a diferencia del anterior, es más semántica que gramatical y, por lo tanto, de delimitación más complicada. En general, sin embargo, será posible fijar en un texto los límites del tratamiento de un tema.

  • Párrafos. Ésta es una unidad formal, aunque también tiene connotaciones semánticas, ya que un cambio de párrafo suele corresponder a un cambio de tema o de matiz temático. Reduce el esfuerzo de registro, al ser un segmento de texto generalmente grande. En contrapartida, la tarea de categorización de párrafos suele ser más arriesgada.

  • Texto entero. Esta solución es practicable si el corpus entero es escaso, como cuando se analizan las cabeceras de diarios, grafitis o anuncios. Entonces, cada texto puede ser contemplado como una unidad de registro, comparable con las otras, y el conjunto del corpus puede verse como su contexto de referencia.

1.3.3.Unidades contextuales
La unidad contextual o contexto mínimo es el menor segmento de texto necesario con el fin de interpretar una unidad textual.
Las unidades textuales, por sí mismas, pueden ser descritas, pero no interpretadas. Para ser interpretadas o para atribuirles un significado habría que ponerlas también en contexto, en relación con segmentos de nivel superior en el entorno textual o fuera de él. Porque los contextos no tienen que pertenecer necesariamente al texto. Si pertenecen, entonces la interpretación se realiza dentro de la cadena de segmentos textuales, tal como hemos indicado más arriba. En caso contrario, la interpretación tiene que recurrir al entorno o las circunstancias en las que fue fabricado o publicado un texto. De manera que tenemos que distinguir dos tipos de unidades o marcos contextuales: contextos intratextuales (o textuales a secas) y contextos extratextuales (o no textuales).
Contextos intratextuales
Los contextos intratextuales son aquellos que se vinculan a las unidades textuales dentro del mismo texto seleccionado del corpus.
Ejemplo de contexto intratextual
El grueso de una noticia de diario sobre la condena a muerte de un disidente en un estado dictatorial puede contextualizarse en el párrafo precedente, dedicado a explicar cómo esta persona hizo declaraciones contra el régimen, o en el siguiente, que describiría las revueltas populares resultado de la sentencia.
Integramos también aquí los nombrados a veces contextos intertextuales, es decir, aquellos textos, no incluidos en el corpus, que podrían servir como contextos de interpretación del texto analizado. En cualquier caso, estos contextos continúan siendo textos, que es lo que ahora nos ocupa, ya que la posibilidad alternativa, como enseguida mencionaremos, es marcharse del universo textual y trasladarse al mundo "real".
Ejemplo de contexto intertextual
Una noticia de un diario de una cadena mediática entendida en el contexto de otro diario, más importante, de la misma cadena mediática, pero no analizado en el mismo estudio, es un ejemplo de contexto intertextual.
Estos contextos son, pues, unidades insertadas en el entorno escrito, documental, que las contiene. Pueden ser antecedentes o consiguientes, en conformidad con la pauta global de interpretación contextual a la que ya hemos aludido repetidas veces y que en la jerga del análisis de contenido se designa como "unidad-palabra-en-contexto (1) ".
En un registro de grupo focal, cada intervención supondrá un turno y estará flanqueada por la intervención anterior de otro miembro del grupo y por otra posterior, del mismo miembro que había intervenido antes o de otro. En una transcripción de entrevista, el contexto precedente de cada respuesta del sujeto puede ser la pregunta previa del entrevistador, mientras que el consiguiente puede localizarse en la siguiente pregunta. En un diario personal, cada fragmento correspondiente a una fecha estaría entre el fragmento de la fecha anterior y el de la fecha posterior, aunque también podríamos contextualizar párrafos u oraciones de cada anotación diaria entre los párrafos u oraciones precedentes y consiguientes de la misma fecha.
Estos contextos, por lo tanto, tendrán una amplitud variable. El contexto de una palabra puede ser la palabra que le precede y la que le sigue; o las dos palabras que le preceden y las dos que le siguen; o las tres palabras que le preceden y las tres que le siguen; o las frases u oraciones que le preceden y le siguen, también en número variable. A propósito del contexto de una frase o de una oración, podríamos repetir el mismo ejercicio: una frase podría estar contextualizada entre la frase antecedente y la consiguiente; o entre las dos antecedentes y las dos consiguientes; etc.
De todas maneras, la amplitud del contexto está en parte determinada por el tamaño de la unidad textual considerada. Hay una correspondencia notoria entre la escala en la que se definen las unidades textuales y la escala en la que se definen las unidades de contexto intratextual. El contexto de una palabra (otras palabras, una frase, una oración) tenderá a ser de menor tamaño que el de una oración (otras oraciones, párrafos), y el de una oración tendrá seguramente menos alcance que el de un párrafo (páginas, secciones).
A mayor abundamiento, la distancia en la que el analista intérprete sitúe el contexto también puede ser variable. Establecido un determinado nivel de segmentación, un segmento en particular puede vincularse con segmentos situados inmediatamente después (o antes), o bien un segmento más allá, dos segmentos más allá, etc.
Trastorno límite de personalidad
Fijaos en el siguiente texto, que informa sobre una conferencia en torno al trastorno límite de personalidad, una patología que acapara cada vez más la atención de psicólogos clínicos y psiquiatras, debido a su gran incidencia en la sociedad actual.

"El Turó organizó ayer una conferencia para conocer el trastorno límite de la personalidad. Este trastorno afecta a un 2% de la población y todavía está poco investigado."

La asociación de familiares y amigos de personas con enfermedad mental La Colina organizó ayer una charla sobre el trastorno límite de la personalidad, un trastorno mental con importantes repercusiones clínicas y sociales que ha experimentado un aumento de la incidencia en nuestra sociedad estos últimos años.

La charla corría a cargo de Carme Sánchez Gil, psicóloga clínica de los centros asistenciales Doctor Emili Mira, que trabaja en el programa "Trastorno Límite de la Personalidad" de Sta. Coloma de Gramenet. Sánchez explicó a los asistentes que el trastorno límite de la personalidad provoca en la persona enferma una inestabilidad que se manifiesta en diversos ámbitos de su conducta, su pensamiento y sus relaciones sociales. Para ellas, las relaciones son más intensas y tienen miedo a ser abandonadas. Tienden a hacerse daño a sí mismos e, incluso, al suicidio.

El problema de este tipo de trastornos es que afectan a mucha más gente de la que pensamos, hasta llegar al 2% de la población. Eso está provocando que se destinen cada vez más recursos a paliar sus efectos en las personas que lo padecen. Las personas que sufren un trastorno límite de la personalidad precisan de un tratamiento intensivo y de larga duración, además de estar en manos de un equipo multidisciplinar".

Hemos extraído estos párrafos, modificando ligeramente la distribución del texto, de una noticia presentada por Martínez, Goretti (29 de abril de 2008). "El trastorno límite de personalidad afecta cada vez a más personas". RTVVilafranca.Cat, Diario Multimedia del Alto Penedés. Recuperado el 4 de mayo del 2009 desde https://www.rtvvilafranca.com/noticies-rtvvilafranca/societat/16385-el-transtorn-limit-de-la-personalitat-afecta-cada-cop-mes-persones.html

1.1
"El Turó organizó ayer una conferencia para conocer el trastorno límite de la personalidad.
1.2
Este trastorno afecta a un 2% de la población y todavía está poco investigado."
2.3
La asociación de familiares y amigos de personas con enfermedad mental La Colina organizó ayer
2.4
una charla sobre el trastorno límite de la personalidad, un trastorno mental con importantes
2.5
repercusiones clínicas y sociales que ha experimentado un aumento de la incidencia en nuestra
2.6
sociedad estos últimos años.
3.7
La charla corría a cargo de Carme Sánchez Gil, psicóloga clínica de los centros asistenciales
3.8
Doctor Emili Mira, que trabaja en el programa "Trastorno Límite de la Personalidad" de Sta. Coloma
3.9
de Gramenet. Sánchez explicó a los asistentes que el trastorno límite de la personalidad provoca
3.10
en la persona enferma una inestabilidad que se manifiesta en diversos ámbitos de su
3.11
conducta, su pensamiento y sus relaciones sociales. Para ellas, las relaciones son más
3.12
intensas y tienen miedo a ser abandonadas. Tienden a hacerse daño a sí mismas y, incluso, al
3.13
suicidio.
4.14
El problema de este tipo de trastornos es que afectan a mucha más gente de la que pensamos,
4.15
hasta llegar al 2% de la población. Eso está provocando que se destinen cada vez más recursos
4.16
a paliar sus efectos en las personas que lo padecen. Las personas que sufren un
4.17
trastorno límite de la personalidad precisan de un tratamiento intensivo y de larga duración, además
4.18
de estar en manos de un equipo multidisciplinar".
1
"El Turó organizó ayer una conferencia para conocer el trastorno límite de la personalidad.
2
Este trastorno afecta a un 2% de la población y todavía está poco investigado.
4
una charla sobre el trastorno límite de la personalidad, un trastorno mental con importantes
8
Doctor Emili Mira, que trabaja en el programa "Trastorno Límite de la Personalidad" de Sta. Coloma
9
de Gramenet. Sánchez explicó a los asistentes que el trastorno límite de la personalidad provoca
14
El problema de este tipo de trastornos es que afectan a mucha más gente de la que pensamos,
17
trastorno límite de la personalidad precisan de un tratamiento intensivo y de larga duración, además
Fuente: R. P. Weber (1990). Basic content analysis (p. 45).
1
young people want the opportunity to exercise the
rights
and responsabilities of adults. The Republican Party
2
of their school systems. We will respect the
rights
of state and local authorities in the management
3
and that new laws with guarantees of individual
rights
are possible and will work. Republicans believe
4
it's rethoric. The most flagrant offenders of human
rights
including the Soviet Union will not be ignored
5
an economic security. Hispanics seek only the full
rights
of citizenship - in education or in law enforcement
6
t reaffirm our party' s historic commitmment to equal
rights
and equality for women. We also recall you
7
xemption from the military draft. We support equal
rights
and equal opportunities for women, without taking
8
their emigration is a findamental affront to human
rights
and the decline in exit visas
9
policy must be based on the primacy of
rights
and responsabilities.
 
...
...
...
Supongamos que nos interesa analizar y, por lo tanto, contextualizar la palabra trastorno. Por lo pronto, la primera cuestión a considerar podría ser si la contextualizamos por oración, frase o unidad temática; o si lo hacemos por línea o por párrafo. Escogemos estas últimas opciones que, ahora mismo, entrañarán menos dificultades. Dentro de los párrafos distinguimos líneas. Numeramos las líneas y párrafos mediante dos dígitos con el fin de disponer de referencias claras sobre la posición de cada elemento textual que pueda interesar (el primer dígito es el párrafo y el segundo la línea).
El arreglo por párrafos y líneas podría aparecer así:
Limitando primero la contextualización de "trastorno" a las líneas donde aparece:
Lógicamente, el hecho de trabajar a una escala u otra determinará el alcance del contexto considerado. Si nos servimos de un contexto tan global que agote todo el marco de referencia, sea la línea o el párrafo, el contexto será entonces, precisamente, la línea entera o la frase entera. Si recurrimos a antecedentes y/o consiguientes, con una estrategia tipo KWIC, tendremos que fijar el número de unidades que utilizaremos como contexto.
En el caso de trabajar por líneas podríamos establecer, pongamos por caso, tres palabras por delante o por detrás, como contexto, en el supuesto de que nuestra unidad fuera la palabra. Así, en la primera línea, el contexto antecedente de trastorno sería "a conocer el" y el consiguiente "límite de la"; en la segunda el antecedente sería "este" mientras el consiguiente sería "afecta a un 2%"; etc.
Puesto que ahora trabajaríamos la contextualización dentro de cada párrafo, podríamos continuar definiendo el contexto palabra a palabra o bien línea a línea, a otro nivel. Así, en el párrafo 4, línea 17, la palabra "trastorno" podría ser contextualizada por las tres palabras consiguientes ("límite de la") pero por ningún antecedente, ya que está al principio de la línea; pero, por otra parte, podría contextualizarse entre la línea 16, encima ("a paliar sus efectos en las personas que lo padecen. Las personas que sufren un") y la 17, debajo ("de estar en manos de un equipo multidisciplinar"). Etc.
Detengámonos un poco más en las contextualizaciones tipos KWIC, cambiando de ejemplo. Ved una pequeña parte de una lista de contextualizaciones de la palabra rights, generada por ordenador, a partir de documentos de las plataformas electorales del partido republicano el año 1980, con Reagan de candidato. Éste es el mismo tipo de contextualización del ejemplo precedente, de nuevo el esquema interpretativo "unidad-palabra-en-contexto". Aquí se trataría, más precisamente, de una unidad de registro en forma de palabra-entre-palabras ya que los contextos antecedentes y consiguientes están formados por 8 palabras cada uno, aunque la palabra inicial o final puede aparecer cortada. En la selección que hemos hecho del listado, la palabra rights es una unidad textual unívoca, dado que es portadora de un solo significado (el correspondiente a derechos humanos, de los ciudadanos, etc.).
Ved también Grbich. C. (2007). Qualitative data Analysis. An Introduction (pp. 116 y ss.). Los Angeles: Sage.
Las unidades de contexto, por lo tanto, tienen un estatuto relativo dentro de la jerarquía de escalas posibles. Eso permite que, cambiando la escala o el nivel de análisis, una unidad de contexto intratextual pueda convertirse en una unidad textual. Así, la oración puede ser la unidad contextual de la palabra pero, a su vez, puede utilizarse también como unidad de registro, encuadrada entonces en el párrafo –pongamos por caso– como unidad de contexto.
Estos diferentes niveles o tamaños de contexto otorgan matices de significado, también diferentes, a las unidades de texto que engloban. No es lo mismo asignar significado a una palabra por su posición dentro de una oración que hacerlo a partir de su valor dentro de la totalidad de un escrito.
Aplicación del contexto intratextual
El contexto intratextual es el que prefiere el estructuralismo y el que utilizan las investigaciones lingüísticas y semióticas y, en general, las aproximaciones cualitativas.
En la oración "Yo nunca dejo de comprar el regalo de cumpleaños para mi madre", el valor de la palabra comprar se fija principalmente en relación con la destinataria de la acción (la madre) y la condición de la acción (el cumpleaños). Se trata de una compra marcada por los vínculos familiares y por afectos u obligaciones. Pero supongamos que esta misma palabra, dentro de la misma oración, tuviera que interpretarse dentro del diario de un adicto al consumo. Entonces, claro está, la interpretación cambiaría y en el contexto general del documento la palabra comprar adquiriría otras connotaciones.
Contextos extratextuales
Los contextos extratextuales son aquéllos a los cuales se vinculan las unidades textuales desde dentro a fuera del texto.
Los contextos extratextuales corresponden a las circunstancias en que fue compuesto el texto, a sus condiciones de producción. En estas últimas, se materializan los factores pragmáticos que inciden sobre el texto, su entorno comunicativo y social, incluyendo aspectos como la personalidad del autor y las vicisitudes que sufría cuando escribió el documento o cuando verbalizó el discurso que se analiza; la personalidad o el perfil del destinatario; las motivaciones subyacentes a la creación del documento; su trasfondo histórico; etc.
Aplicación del contexto extratextual
El contexto extratextual es el preferido por los estudios sociológicos y por la crítica social e ideológica.
Los contextos extratextuales no son acordes con unidades textuales relativamente molares o grandes. Eso es de sentido común. En general, no parece muy prometedor relacionar el uso de una palabra, por ejemplo, con la crisis familiar en medio de la cual alguien lo puso sobre el papel; parece más fructífero ligar esta crisis a unidades temáticas o a documentos enteros. Tampoco parecería muy lógico querer interpretar una frase de un personaje público en el marco de su afiliación a un partido político. Sería el texto entero lo que se adaptaría mejor a un marco tan amplio.
1.3.4.Las unidades textuales de registro y su codificación
Recapitulando, diremos que, normalmente, una unidad textual de registro en el análisis de contenido es una unidad de texto-en-contexto, como la de palabra-entre-palabras que veíamos en el ejemplo del subapartado 1.3.3. El contexto pertinente en perspectiva cualitativa es el intratextual. Dicho de otra manera, la unidad de registro es una unidad textual interpretada o en vías de interpretación gracias a su contextualización, ya sea en contextos antecedentes, ya en consiguientes, ya en ambos.
Estas unidades de registro así entendidas son las que se codifican siguiendo un proceso parecido al que hemos ilustrado en el módulo "Las técnicas cualitativas en la selección y tratamiento de la información", y forman la base sobre la que se edificará el sistema de categorías que permitirá proseguir el análisis de contenido en una determinada dirección.
Ahora tocará revisar, por tanto, el concepto de categoría en el ámbito del análisis de contenido.
Ejemplo de codificación de las unidades textuales de registro
En el ejemplo del subapartado 1.3.3 de los textos de las plataformas electorales de Reagan podemos vincular la palabra rights con diversos marcos de referencia: la emigración, la mujer, el ejército, las leyes, el castrismo y así sucesivamente. Supongamos que lo vinculamos con palabras que denoten igualdad –"equal", "equality", etc.–, interpretando entonces la referencia a los derechos en términos de igualdad, ya sea de las mujeres respecto de los hombres, ya de los emigrantes respecto de la población autóctona, etc. Hay dos unidades de registro que pueden ser codificadas o precategorizadas así, la 6 y la 7, ya que las mencionadas claves contextuales están presentes, tanto en el contexto antecedente como en el consiguiente. En el registro podrían ser marcadas con una "Q" (de "equal" o "equality").
Actividad
Leed primeramente con atención el siguiente extracto de El pensamiento salvaje (C. Lévi-Strauss, 1991, Barcelona: Ediciones 62; traducción de Miquel Martí i Pol), centrado en la relación entre magia y ciencia.

"No obstante, no volvamos a la tesis vulgar –y por otra parte admisible en la perspectiva estrecha en que se sitúa– según la cual la magia sería una forma tímida y balbuciente de la ciencia: pues uno se privaría de todo medio de comprender el pensamiento mágico si se pretendiera reducirlo a un momento, o a una etapa, de la evolución técnica y científica. Más bien la sombra que anticipa su cuerpo, es, en un sentido, completa como él, tan acabada y coherente, en su inmaterialidad, como el ser sólido precedido sólo por ella. El pensamiento mágico no es un principio, un comienzo, un esbozo, la parte de un todo todavía no realizado: forma un sistema bien articulado... En vez, pues, de oponer magia y ciencia, lo mejor sería ponerlos en paralelo...".

A partir de este texto, escoged la unidad de registro "magia" tomando como contexto las 9 palabras anteriores y posteriores a ella; después, escribid los registros resultantes. A continuación haced lo mismo con contextos de 8, 7 y 6 palabras, antes y después. Tenéis que notar que la dificultad de interpretación o de comprensión crece a medida que reducimos el marco contextual. Repetid el mismo ejercicio con la unidad tipo frase "el pensamiento mágico", tomando ahora contextos antecedentes y consiguientes de 5, 4 y 3 palabras.
Orientaciones y pistas para la solución de la actividad
En los dos casos podéis coger como ejemplo orientativo el de Weber, expuesto en el texto. Considerando que la palabra magia sale dos veces en el extracto de Lévi-Strauss, lógicamente os tienen que salir también dos contextualizaciones para cada uno de los marcos contextuales de 9, 8 y 7 palabras que solicitamos.
En el caso de "El pensamiento mágico" os tienen que salir igualmente dos registros para cada una de las contextualizaciones de 5, 4 y 3 palabras que hagáis.
Los contextos pertinentes con respecto a un análisis de contenido pueden ser intratextuales (o intertextuales) y extratextuales.

1.4.Las categorías en el análisis de contenido

A través del prisma del análisis de contenido, la categorización es sobre todo un procedimiento para reducir y sistematizar el material textual escogido, operaciones que sin embargo implican una interpretación.
1.4.1.La categorización sistemática de segmentos textuales
La información ya segmentada y codificada (cada clase de segmento con su código) de un registro textual, en tanto que recopilación de unidades de texto dentro de su contexto, es heterogénea y compleja. Sobre esta diversidad o riqueza, el analista difícilmente podría definir y medir variables, ni hacer inferencias sin riesgo de equivocarse. Con el fin de salvar este obstáculo, la información en cuestión tiene que ser clasificada o, lo que es lo mismo, categorizada a partir de sus similitudes y diferencias. Ahora, sin embargo, tendremos que redefinir esta operación con una óptica más ajustada a las necesidades del análisis de contenido.
En esta óptica, la categorización no es tanto un recurso flexible para construir un modelo teórico de aquello que se investiga y profundizar o revelar significados, como un procedimiento que permite condensar el material textual y reducirlo sistemáticamente, haciendo los datos accesibles y tratables. Así, tal vez perdamos información de detalle, a pequeña escala pero, en cambio, ganamos capacidad de realizar generalizaciones a gran escala, acomodando la información recogida en una especie de tabla con sus filas y columnas, en un sistema de categorías, en definitiva.
Dentro del carácter sistemático y relativamente cerrado de las técnicas de análisis de contenido, conviene ahora recordar y completar los conceptos relativos a los sistemas de categorías textuales.
Ved también
Los sistemas de categorías textuales sólo han sido mencionados de paso en el módulo "Las técnicas cualitativas en la selección y tratamiento de la información" de esta asignatura, que se centraba principalmente en el proceso de la codificación y no tanto en su producto final: un sistema de categorías.
Ya sabemos que los materiales verbales tienen una naturaleza sustancialmente diferente de la de los no verbales. Son materiales que ya están interpretados por su emisor o –también– por su receptor, antes de que el científico ensaye su interpretación.
  • Una acción no verbal tiene que ser definida verbalmente, en un código y en un medio que no son los que le corresponden; no son los que modelan originalmente la acción en tanto que movimiento, cambio, etc.

  • Por el contrario, una acción verbal o una frase ya presentan su propia definición o caracterización o –al menos– son definibles en el mismo lenguaje en que fueron pronunciadas o escritas.

Todo eso, al lado de otros factores que iremos citando, añade dificultades específicas a la categorización de textos, dificultades que suelen tratarse dentro del análisis de contenido aunque pueden ser compartidas por otras orientaciones del análisis.
1.4.2.Criterios para la creación de categorías y la construcción de sistemas de categorías en análisis de contenido
Nos encontramos con tres puntos de partida bien diferenciados:
1) Existe ya un sistema de categorías o clasificación adecuado al material que se quiere analizar.Su aplicación corresponde, por lo tanto, a una estrategia "up-down" o hipotético-deductiva. El sistema ha surgido de estudios previos sobre materiales parecidos a los que ahora se quieren categorizar. De la misma manera que no hay que construir un nuevo test cada vez que se quiere medir un rasgo de personalidad, habida cuenta de que ya hay otros disponibles –e idóneos– en el mercado, tampoco habrá que construir un sistema de categorías cuando ya hay otros adecuados al alcance del investigador.
A menudo estos sistemas ya consagrados han recibido una cierta estandarización, ventaja que los vuelve muy rentables cuando se desea hacer comparaciones entre los resultados de diferentes investigaciones que se han servido de ellos.
Diccionario categorial
Hoy día, estos protocolos estandarizados suelen estar implementados en programas informáticos y entonces se denominan diccionarios o índices. Un diccionario categorial está organizado como un thesaurus: las entradas se concentran en conceptos clave y, dentro de cada una de ellas, aparecen las palabras o expresiones relacionadas de alguna manera con los conceptos.
2) No existe un sistema de categorías adecuado al material codificado. Entonces, el analista tiene que construirlo, colocándose indefectiblemente en una perspectiva analítico-inductiva.
3) Una parte del texto ya está categorizada, mientras que la otra no lo está. El caso más corriente es el de la transcripción de una entrevista.
Transcripción de una entrevista
Por una parte, las preguntas del entrevistador pueden verse como categorías de su actividad verbal, sobre todo si forman parte de un cuestionario preparado. En lo tocante a estas preguntas, pues, estaríamos en la primera situación de partida.
Por otra parte, las respuestas del entrevistado tienen que ser todavía contextualizadas, codificadas y -finalmente- clasificadas. Así, en lo tocante a las respuestas estaríamos como en la segunda situación de partida, es decir, sin sistema de categorías.
Ahora bien, si las preguntas correspondieran a una entrevista abierta, en la cual no están fijadas previamente, nos acercaríamos de nuevo a la segunda situación de partida, aquélla en la que todo el trabajo está por hacer.
Los criterios de clasificación utilizados para categorizar un texto vendrán dictados, como suele ocurrir, por los objetivos del análisis, pero también por el entorno de intereses, incluidos los teóricos, en el que se mueve el científico. Antes hemos dicho que las categorías en el análisis de contenido no son herramientas para la profundización teórica, como, por ejemplo, sí lo son en el caso de la teoría fundamentada. No obstante, eso no impide que a la hora de escoger criterios con el fin de fijar de una vez por todas el sistema de categorías, el investigador recurra a un marco teórico o, si la investigación es inductiva, a las microhipótesis y suposiciones que van surgiendo en el curso de su investigación.
Con todo, desde un punto de vista general, estos criterios pueden considerarse semióticos o comunicacionales, aunque esta adscripción no siempre se haga explícita. Pero es indiscutible que un texto posee siempre un valor expresivo o comunicativo y, en cualquier caso, de transmisión intencional de información (el texto no aparece por generación espontánea), valores que se realizan en el momento en que un lector o un intérprete se pone en frente. Nos concentraremos, pues, en este aspecto fundamental del texto y de las categorías que se pueden derivar, y distinguiremos entre criterios de categorización:
  • Sintácticos. En el plano comunicacional corresponderían a la forma o estructura del mensaje. Dentro de éstos encontramos las distinciones gramaticales o sintácticas estrictas (sujeto/predicado/complemento/ ...; nombre/adjetivo/verbo/adverbio/...). También caen en este epígrafe las categorías llamadas "de forma", referidas más bien a aspectos retóricos o estilísticos. Lasswell, por ejemplo, distinguía entre declaraciones de identificación ("Yo soy comunista"), de preferencia ("Los comunistas tienen razón al querer hacer la revolución") y de hecho ("Los comunistas conquistarán el mundo"). En términos retóricos, podemos diferenciar argumentaciones que recurren a autoridades de otras argumentaciones que hacen valer la lógica.

  • Semánticos. En el plano comunicacional corresponderían al contenido del mensaje. Aquí se incluyen las clasificaciones basadas en temas y en conceptos, así como las de tipo léxico (agrupaciones de sinónimos, homónimos). En la literatura estos criterios se aplican a categorías llamadas "de materia", que contemplan temas de conversación (la moda, el deporte, la política, hombres versus mujeres, la salud, el dinero); temas de programas radiofónicos (noticiarios, chismes, música, tertulias, magazines); televisivos ("seriales", telediarios, películas, concursos, tele-basura); etc. Igualmente podemos meter en este apartado las categorías llamadas de "apreciación"o de "valores", las cuales engloban dimensiones como "aprueba-desaprueba, afirma-niega", "bien-mal", y así sucesivamente.

  • Pragmáticos. En el plano comunicacional se referirían al emisor, a la situación de emisión, al canal de transmisión, al receptor, a los efectos captados en este último. Entre estos criterios contaríamos los que afloran cuando hay diferentes utilizaciones del mismo texto en diferentes contextos (por ejemplo, diferentes usos de un mismo mensaje según los propósitos del emisor o su punto de vista). Las tácticas seguidas por el autor del texto con el fin de conseguir los efectos buscados también dan lugar a categorizaciones pragmáticas, como "propaganda", "negociación", "exhibición de poder", "seducción", "soborno", "adulación", etc. Asimismo, incluimos aquí las clasificaciones hechas sobre la base de la intensidad de los efectos en el receptor. En este sentido habrá textos o mensajes más potentes que otros. Finalmente, forman parte igualmente de los criterios pragmáticos aquellos que residen en los rasgos diferenciales de los actores o protagonistas del texto (los personajes de la narración) y los que permiten establecer perfiles de emisores o de fuentes de procedencia, así como de receptores.

Clasificaciones de Lasswell y de Stewart
En el ámbito de los estudios clásicos, encontramos la clasificación propuesta por Lasswell para el análisis de los fenómenos políticos en los textos. La lista hace gala de una clara orientación pragmática.
1) Actores o personas dedicados a la política ("políticos" en clave popular).
2) Comunidades de referencia que figuran en los textos (americanos, judíos, comunistas, partidos, sindicatos).
3) Organizaciones presentes en los textos (Congreso, Parlamento, Senado, Tribunal Supremo).
4) Estados o situaciones de la política (guerra/paz, crisis, reformas).
5) Ideologías o sistemas políticos (democracia, dictadura, liberalismo).
En los estudios –también clásicos– de Stewart sobre la prensa americana se distingue de antemano entre hechos y comentarios según que el prisma sea más semántico o más pragmático y, dentro de cada una de estas clases, se separan diferentes subcategorías:
1. Hechos.
1.1. Hechos presentados como ciertos.
1.2. Hechos presentados como posibles.
1.3. Hechos cuya certeza se valora por un juicio.
1.4. Hechos cuya incertidumbre es objeto de valoración.
2. Comentarios.
2.1. Personal del autor o de la fuente directa de procedencia.
2.2. Indirectas de emisor o fuente determinados.
2.3. Indirectas de emisor o fuente no determinados.
2.4. Cita directa de fuente determinada.
2.5. Cita directa de fuente no determinada.
Ved M. Duverger (1975). Métodos de las ciencias sociales (8.ª ed., pp. 182-183). Barcelona: Ariel.
Con respecto a la estructura lógica de los sistemas de categorías de análisis de contenido no difiere esencialmente de la que presenta un sistema de categorías conductual o de la que hemos mostrado en los ejemplos de la teoría fundamentada. No obstante, en el análisis de contenido, las exigencias formales se ponen en primer plano y por eso conviene recordarlas de nuevo y con un cierto énfasis:
  • La organización lógica de las categorías textuales tiene la forma de un árbol clasificatorio. La exigencia básica que se aplica a la clasificación es que ésta satisfaga las condiciones semánticas o conceptuales de exclusividad y exhaustividad. La condición de exhaustividad establece que el sistema de categorías cubrirá todo el texto seleccionado para el análisis, por lo cual ningún segmento de éste podrá escapar a la clasificación. La condición de exclusividad exige que las definiciones de cada categoría no se encabalguen o se confundan, lo cual en la práctica equivale a pedir que los rasgos, componentes o indicadores de cada categoría, o su combinación, sean diferentes para cada una de ellas.

  • En cambio, la organización temporal de las categorías a lo largo del registro, vertiente importante en el uso de un sistema de categorías conductual, no es en general pertinente en un sistema de categorías textual. Las exigencias de exclusividad y exhaustividad temporales no se aplican al texto. Entendemos que la secuencia de segmentos textuales está "limpia", una vez fijado el texto, y eso equivale a decir que los segmentos del texto no se pueden encabalgar en el tiempo (no pueden ser simultáneos), ni pueden dejar espacios vacíos (2) . Ciertamente, en la transcripción de una conversación o de una entrevista puede ocurrir que dos interlocutores hablen a la vez, pero, a nivel textual, la simultaneidad tampoco existirá, si no se quiere, y si la notación del registro indica este encabalgamiento, se referirá al fenómeno en sí, no a la transcripción en forma de texto: los segmentos se podrán considerar uno a uno.

En el interior de un sistema de categorías de análisis de contenido encontramos, como en cualquier otra clasificación, una serie de pisos o estratos correspondientes a diferentes niveles de organización. Ya hemos dicho que el enlace entre estos sucesivos niveles no puede prescindir, ni siquiera en las orientaciones más cuantitativas del análisis de contenido, de alguna apuesta teórica o hipotética que le dé apoyo, al menos provisional.
Por lo tanto, la construcción de un sistema así supone inevitablemente una serie de decisiones previas en cuanto al tipo de relaciones verticales que enlazan los diferentes niveles jerárquicos de organización. Estas relaciones son eminentemente semánticas, dado que suponen atribuciones de significado. Haciendo un recorrido de arriba abajo, partiendo del nivel superior correspondiente al objeto de estudio, descenderíamos hasta el nivel de las categorías propiamente dichas, después bajaríamos al de las subcategorías y finalmente al de los segmentos o subsegmentos, en tanto que unidades de registro o componentes de las categorías donde están clasificados. A una unidad de registro se le otorga un significado que la clasifica dentro de una cierta categoría o subcategoría; y a su vez, las categorías poseen un significado que configura el objeto de estudio. Por eso, en determinados ámbitos, estas unidades con un vector de significado dirigido a la categoría se llaman indicadores. Sea como sea, lo que hacemos siempre es asignar una serie de significados, a diferentes niveles, al segmento o unidad de registro.
Categorías extraídas de mensajes electrónicos
En la siguiente figura hemos ilustrado estos puntos con el ejemplo de tres categorías extraídas de mensajes electrónicos de un adolescente. Éstas, según a quien atribuya la responsabilidad o la comisión de la acción el autor del texto, pueden reducirse a tres: las atribuidas al propio escritor del mensaje, las atribuidas a cualquier otra persona o las que remiten al mundo físico o a la naturaleza en general. Cada una de estas categorías, al atribuir la acción, pueden tener una valencia positiva (apoyada en indicadores –palabras, frases, oraciones– de mérito, éxito, beneficio, mejora, juicio moral o ideológico positivo, etc.) o negativa (indicadores de demérito, fracaso, daño, empeoramiento, juicio moral o ideológico negativo, etc.), pero no neutra. La categoría "En el mundo" podría considerarse una categoría cero como las que hemos caracterizado al final del módulo "Las técnicas cualitativas en la selección y tratamiento de la información", ya que el interés del sujeto, y del investigador, apunta a la dimensión de socialización (yo/los demás) y no tanto al mundo en general. Es indiscutible que la distribución de segmentos por subcategoría y categoría y la forma cómo éstas llenan el objeto de estudio obedecen a juicios de valor del investigador, juicios siempre revisables pero que a partir de la constitución del sistema de categorías guiarán su análisis, por muy cuantitativo que ésta sea.
10525_m3_02.gif
1.4.3.Funciones de inferencia
Es obvio que uno de los objetivos metodológicos del investigador tiene que ser el de validar estas relaciones entre indicadores y categorías, antes de encontrar regularidades o confirmar hipótesis. Tengamos presente que la validación de estas relaciones es, de hecho, una validación de la interpretación, ya que las categorías son siempre interpretativas y las que configuran el objeto de estudio; y a menudo, es también una confirmación del significado latente u oculto asignado al texto o a partes del texto, dado que las categorías validadas precisamente incorporan esta interpretación más arriesgada.
Al margen de eso, el investigador cualitativo tiene ante sí diversos caminos de validación:
  • Uno, típicamente cualitativo, es consensuar con el autor del texto y/o con otros analistas la categorización definitiva, practicando una validación émica. Eso no siempre es posible, dado que el autor puede estar ausente o ser anónimo o reticente a cumplir este papel de informante.

  • Otro, también genuinamente cualitativo, y en el espíritu de las técnicas exploradas en el módulo "Las técnicas cualitativas en la selección y tratamiento de la información", requiere un itinerario en espiral, en el cual el autor vuelve una y otra vez al texto, modificando y ajustando las categorías según la coherencia de las conclusiones a las que haya llegado.

  • Otro es el de recurrir a técnicas multivariantes similares a las que sirven para dotar a los tests de validez discriminante y consistencia estructural (análisis factorial, componentes principales, escalamiento multidimensional, agrupaciones o clusters, alfa de Cronbach, etc.). Éste será típico de las aproximaciones más "duras" del análisis de contenido.

Ni que decir tiene que las tres vías son, en principio, compatibles.
Una vez garantizada la estructura del sistema de categorías hace falta plantearse una cuestión bien diferente, como es la de qué inferencias se pueden hacer a partir de las medidas realizadas. Como veremos pronto, las medidas (por ejemplo, la frecuencia de ocurrencia) se pueden tomar:
  • En el ámbito de segmentos o unidades de registro. Su función es justificar el sistema en tanto que instrumento consistente y coherente de análisis, en línea con lo que acabamos de comentar en los anteriores párrafos.

  • En el ámbito de categorías o subcategorías. Su función es propiciar explicaciones e inferencias al comparar partes de un texto o diversos textos entre sí.

Ejemplos de líneas de inferencia
Os ofrecemos algunos ejemplos de líneas de inferencia, precedidas o no por hipótesis, compatibles con el análisis de contenido.
  • A partir de recortes de prensa, en fase de conflicto prebélico, deducir y predecir si un país A atacará a un país B.

  • Sobre la base de la transcripción de una entrevista, saber si el sujeto ha intentado seducir, y gustar al investigador o, por el contrario, le ha hecho el boicot y lo ha mantenido a distancia.

  • Establecer los rasgos psicológicos del autor de un diario (por ejemplo, el de Sylvia Plath, poetisa inglesa que se suicidó en 1963).

  • Detectar el nivel de sinceridad en un autoinforme.

  • Reconstruir las líneas maestras de una estrategia de negociación a través del epistolario entre dos políticos, empresarios, etc.

  • Averiguar en qué aspectos de la expresión textual se manifiesta el racismo o el sexismo en artículos periodísticos, novelas, libros de texto, etc.

  • Detectar la percepción que un/a niño/a tiene de los inmigrantes a partir de relatos escritos que se le han pedido en la escuela.

El sistema de categorías creado se puede validar a través de los autores de los documentos o de los sujetos registrados, a través de reiterados análisis del texto o por procedimientos estadísticos.

1.5.Medidas e índices básicos en el análisis de contenido

La medida básica del análisis de contenido es la frecuencia y se puede aplicar a cualquier código utilizado: unidades de registro o segmentos y categorías.
1.5.1.Medidas básicas de frecuencia y reglas de enumeración
Acabábamos el subapartado 1.4 diciendo que el análisis de contenido realiza medidas en dos niveles bien definidos: el de las unidades de registro y el de las categorías. Y en cada uno de estos niveles la función de la medida es diferente: en el primero sirve para ponderar la importancia o incidencia de cada molécula textual, para legitimar su incorporación a una u otra categoría; en el segundo, apoya las inferencias o permite confirmar hipótesis de trabajo.
Las auténticas variables, pues, son las categorías, ya que es a partir de ellas como se generan los resultados de la investigación. Son, eso sí, variables cualitativas, dicotómicas o politómicas, lo cual equivale a decir que no toman valores continuos, sino binarios de presencia/ausencia, sí/no, 1/0. Son las variables que aparecían en los ejemplos que hemos ido viendo. Un autor, locutor, emisor, etc., "enuncia hechos" o "no enuncia hechos"; "hace comentarios" o "no hace comentarios"; "traza una imagen ridícula de su padre" o "no traza una imagen ridícula de su padre".
En el interior de esta poderosa restricción, la medida más adecuada y más rentable es la frecuencia absoluta de ocurrencia o frecuencia a secas, un recuento dentro de la serie de números naturales. Contabiliza el número de veces que una categoría está presente en un texto o en zonas seleccionadas del texto.
Armonía entre el estilo cualitativo y el cuantitativo
Daos cuenta de que el uso conjunto de
  • variables categoriales construidas sobre la dicotomía presencia/ausencia y

  • medidas frecuenciales de estas variables

es el núcleo de una armoniosa sintonía entre el estilo cualitativo y el cuantitativo. Efectivamente, el uso de tablas de presencia/ausencia, por un lado, y de medidas continuas, por otro, es uno de los rasgos que marcan el contraste principal entre los métodos cualitativos y los cuantitativos, por lo cual su utilización conjunta tiene que interpretarse como un avance hacia la integración metodológica.
Sin embargo, esta promesa de integración sigue sin eliminar la limitación esencial de los métodos cuantitativos y, en particular, de la cuantificación frecuencial y otras medidas. Y es que no son capaces de asignar valor a la categoría o el fenómeno que no está presente, que "brilla por su ausencia". El enfoque cuantitativo se enfrenta a enormes dificultades para dar sentido al cero.
Por otra parte, la preeminencia de la frecuencia también es un rasgo de la metodología observacional en general, la cual también hace descansar sus medidas sobre categorías. Así pues, como metodología de observación indirecta o documental, el análisis de contenido se caracterizará por la utilización, no sólo de la frecuencia como medida principal, sino también de un lote de medidas derivadas de ella o construidas sobre ella, de las cuales la frecuencia relativa o proporción de ocurrencias es la abanderada.
Por comodidad, a partir de ahora, expresaremos la frecuencia de una categoría de contenido C como fC y su frecuencia relativa (que permite calcular probabilidades de ocurrencia) como pC:
La frecuencia, fC, es el número de veces que una unidad de registro codificada o una categoría está presente en un texto o sección de texto.
La frecuencia relativa, PC es la proporción de veces que una unidad de registro codificada o una categoría está presente en un texto o sección de texto con respecto a la frecuencia total de ocurrencias. Por lo tanto,
10525_m3_03.gif
siendo el denominador el total de ocurrencias. El circunflejo sobre la p indica que la frecuencia relativa se puede utilizar como estimador de probabilidad.
Si se hace un análisis de contenido sobre un sistema de categorías S tal que S = {W, X, Y, Z}, entonces frecuencia total, fT =fW + fX + f Y + fZ. Así, si hemos obtenido fW = 56; fX = 14; fY = 23 y fZ= 102,obtendríamos fT = 195. Entonces
pW = 56 / 195 = 0,29
pX = 14 / 195 = 0,07
pY = 23 / 195 = 0,12
pZ = 102 / 195 = 0,52
Naturalmente, pW + pX + pY + pZ = 1, como podéis comprobar.
Obviamente, si multiplicamos pC por 100 obtendremos el porcentaje de ocurrencia correspondiente a cada categoría (en este ejemplo, 29%, 7%, 12% y 52%, respectivamente).
En cambio, por razones que ya hemos señalado, el análisis de contenido no hace uso de medidas de tiempo, ya que el texto es estático desde el punto de vista microtemporal. Es decir, aunque algunos textos puedan transformarse a lo largo de meses, años o siglos (de borradores en textos definitivos, de una versión a otra, de una formulación de leyes o estatutos a otra, de un cuerpo doctrinal a otro), no obstante se dan al analista de una sola vez, no progresivamente, como se da el comportamiento a lo largo de una sesión.
Por consiguiente, tampoco tiene sentido decir que ha aparecido una categoría en un texto 15 veces por minuto o que ha ocupado un 24% del tiempo de registro, afirmaciones que sí tienen sentido en un registro observacional de sesiones: un niño/a puede cambiar de actividad 2 veces por minuto por término medio; un obrero puede soldar 26 piezas por hora.
La frecuencia es una clase de medida que no tiene valor si no es enmarcada en un espacio o en un tiempo de referencia.
Importancia del espacio y del tiempo para la frecuencia
No quiere decir casi nada declarar que un niño/a ha cambiado de actividad dos veces. Nos preguntaremos enseguida en cuánto tiempo ha hecho estos dos cambios de actividad, porque no tiene el mismo significado que los haya hecho en un minuto, en una hora o en un día. Tampoco tiene demasiado valor la afirmación de que "Al espectáculo asistieron 200 personas", dado que estas 200 personas pueden ocupar totalmente un local con ese aforo, o bien llenar tan sólo un sector de una platea con 1.000 asientos. En el análisis de contenido, descartado el tiempo, es obligada la misma exigencia en relación con el espacio. Si en la transcripción de una entrevista terapéutica contabilizamos 6 descalificaciones de la pareja, habrá que situar este número en el contexto de la entrevista, saber cuál ha sido su extensión y cómo se han distribuido las descalificaciones a lo largo de todo su desarrollo.
Advertid, pues, que es capital contextualizar la medida, ponerla en un contexto. Ahora bien, éste no es un contexto de interpretación, sino de referencia de la medida; o, simplemente, uncontexto de medida. En el vocabulario del análisis de contenido decimos que no solamente hay que establecer las medidas de un texto sino también sus reglas de enumeración. Éstas se refieren al fondo o marco en el interior del cual cobra significado la medida.
Frecuencia de trastornos
En el análisis de contenido, las reglas de enumeración más corrientes dan, como marco de referencia de la frecuencia y otras medidas, la línea y la página. A veces, las medidas también se sitúan respecto de la oración, el párrafo, el capítulo.
Podemos decir así que una categoría C ha aparecido dos veces en una línea o 7 veces en una página, con lo que, más que con una frecuencia, trabajamos con una tasa (sin embargo continuaremos manteniendo el mismo símbolo):
fC/línia = 2 o fC/pàgina = 7
Más habitualmente, podemos afirmar que una categoría C ha aparecido una media de fC veces por línea o de fC veces por página. En el ejemplo utilizado en el subapartado 1.3.3, la frecuencia de "trastorno" era 8 y sus frecuencias medias, por línea o párrafo, eran:
10525_m3_04.gif
Podríamos haber dado estas frecuencias y medias por oración, página o capítulo, pero, aunque estos denominadores pueden estar justificados en ciertas condiciones, no permiten una estandarización de la medida tal como la hacen posible marcos de referencia fijos, como la línea o la página. Si consideramos la frecuencia respecto de contextos de extensión variable como la oración, la tasa resultante es difícil de interpretar.
Finalmente, las frecuencias, sean de la clase que sean, también se pueden calcular con respecto a grandes tramos de texto, delimitados de manera arbitraria, u objetiva (según el número de palabras, líneas), o de acuerdo con la estructura que se adivina. Por ejemplo, el texto de una narración puede dividirse en 10 partes iguales, desde el principio hasta el final, y computar la frecuencia de las diversas categorías previstas en cada una de estas divisiones. Eso ayudará, en una aproximación inductiva, a averiguar cómo se reparten las categorías a lo largo y ancho del texto, antes de aventurar hipótesis sobre su organización.
En un ejemplo extraído del libro de Grbich (2007, p. 119), las frecuencias de la categoría arraigada en la palabra love, a lo largo de las 10 partes de un texto de Shakespeare son:
Parte 1: 17
*****************
Parte 2: 8
********
Parte 3: 11
***********
Parte 4: 10
**********
Parte 5: 5
*****
Parte 6: 25
*************************
Part7 7: 9
*********
Parte 8: 5
*****
Parte 9: 5
*****
Parte 10: 4
****
Obviamente, por razones dramáticas, la palabra se utiliza sobre todo en el 60% inicial de la obra, decayendo en picado su uso en el 40% final (Grbich, 2007, p. 119).
Como es natural, podemos calcular también, si nos interesa, desviaciones típicas, varianzas, etc.
1.5.2.Otras medidas derivadas de la frecuencia o que la presuponen
Frecuencia ponderada
El uso del la frecuencia como medida saca partido de una serie de supuestos, entre los que uno de los más importantes es el siguiente: en principio, todas las unidades o categorías son equivalentes y virtualmente tienen la misma probabilidad de aparecer en el texto. Es, por así decirlo, como si todas las categorías arrancaran de la misma línea de partida en una carrera y ninguna de ellas se adelantara a las otras hasta que empezara ésta. Sobre la base de este supuesto inicial, la relevancia de una unidad o categoría crecerá a medida que crezca su frecuencia.
Este supuesto, sin embargo, topa a menudo con diversas limitaciones. Ya hemos citado una: a veces, la circunstancia de que un elemento del texto tenga frecuencias bajas o no aparezca es tan significativa como su contraria.
Otro obstáculo, que comentaremos a continuación, es que esta condición de equivalencia puede, sencillamente, no cumplirse, dado que hay palabras, frases, expresiones, temas que, en un determinado tipo de texto, tienen más presencia a priori que otros. Incluso podemos hacer una estimación teórica de la incidencia de estos elementos en el texto, ya que existen, afortunadamente, registros de uso en muchas lenguas que nos dicen cuál es la frecuencia con la que podemos esperar encontrarlos. Entonces, la incidencia de una palabra o de una categoría en un texto se tiene que poner en relación con su incidencia estadística media en materiales estándar del mismo tipo.
Debido a razones como la que acabamos de exponer y a otras semejantes, a menudo se utilizan medidas de frecuencia ponderada.
Las medidas de frecuencia ponderada son medidas de frecuencia en la que cada unidad o categoría registrada no tiene el mismo "peso" o relevancia, sino que unas tienen más que otras. El peso es asignado multiplicando cada frecuencia empírica por un valor decidido previamente, a partir de consideraciones teóricas o de datos anteriores.
Ejemplo de uso de frecuencias ponderadas
Si tenemos un sistema de categorías S = {X , Y, Z} y consideramos que Y tiene el doble de peso que X, y Z el triple, entonces las frecuencias ponderadas fpond que contabilizaremos serán:
f pond X = fX; fpond Y = 2(fY); fpond Z = 3(fZ)
Si fX = 61, fY = 20, fZ = 14, entonces fpond X = 61; fpond Y = 20 × 2; fpond Z = 3 × 14.
Intensidad
Un desafío serio dentro del análisis de contenido es la medida de la intensidad, esencialmente vinculada a las categorías semánticas. Este desafío, hoy por hoy, es difícilmente afrontable fuera de procedimientos psicométricos.
Asumir la medida de la intensidad quiere decir, en el fondo, trascender el planteamiento dicotómico o binario de la cuantificación categorial y pasar, como mínimo, a una cuantificación politómica. O sea, que las cosas, si se desea medir la intensidad de una categoría, no son blancas o negras, sino que pueden ofrecer una gama de grises, gama graduada en forma de escala ordinal cuando menos.
Ejemplo de medida de la intensidad
A modo de ilustración, comparad estos tres enunciados correspondientes a tres unidades de registro clasificables en una categoría que podríamos etiquetar como "rechazo de la política presidencial" por parte de políticos de la oposición:
a) "Podríamos llegar a considerar la posibilidad de desaprobar la política del presidente".
b) "Hay que denunciar, con pena, la actual orientación política del presidente".
c) "Ciertamente, en el pasado estuvimos a menudo en desacuerdo con la política del presidente".
Claro está que convendría situar cada una de estas afirmaciones en una escala de intensidad en cuanto al grado de rechazo que expresa o quiere expresar. Un procedimiento artesanal (pero muy utilizado) sería asignar ponderaciones a cada ítem a, b y c, tratándolas como si fueran subcategorías ordenadas de una categoría general de rechazo. Los criterios en los que nos apoyaríamos podrían ser diversos y combinables: semántica de los verbos tal como los define el diccionario o los usuarios, tiempo de estos mismos verbos, adverbios –especialmente los de modo– que refuerzan o suavizan el contenido verbal, adjetivos calificativos, signos de admiración. En el ejemplo anterior podríamos ensayar la ponderación a = 2, b = 3, c = 1.
Más adelante, nos detendremos en un ejemplo de análisis evaluativo en el que se utilizan ponderaciones de intensidad. Más allá de procedimientos como éste, la construcción de una escala de intensidad obliga a aplicar todas las fases y requisitos de un escalamiento psicométrico.
Dirección
Buena parte de lo que hemos dicho a propósito de la intensidad es también aplicable a la dirección. Muchas interpretaciones del sentido o valor de un texto se vuelven más ricas y completas si se sitúan en una dimensión de medida, entre un mínimo y un máximo. Por ejemplo, en un estudio sobre integración de niños/as inmigrantes en la población autóctona podríamos servirnos de una categoría de "deseo de convivencia" y medir ésta entre un deseo mínimo, nulo o negativo, y uno máximo, con un número de valores intermedios.
Históricamente, estas medidas han sido resueltas a partir de escalas de estimación, de Likert, y en general de cuestionarios a los que el sujeto tiene que responder escogiendo un valor dentro de una serie, de uno a cinco, de uno a siete, de uno a diez, etc. Charles Osgood ha sido uno de los paladines de esta clase de estrategia.
Otras resoluciones de las medidas de dirección
Otra vía de resolución de las medidas de dirección es la creación de índices con un ámbito de variabilidad adecuado a este tipo de investigación.
1.5.3.Índices
Diversidad
Un índice muy popular es el de diversidad de unidades o categorías. Tradicionalmente se ha utilizado una sencilla proporción entre el número de unidades o categorías diferentes (Dif) y el número total de unidades o de categorías (T).
10525_m3_05.gif
Si invertimos el cociente, tendremos un índice de pobreza o monotonía, I m :
10525_m3_06.gif
Cálculo de la diversidad y del índice de pobreza
Considerad el párrafo siguiente: "Un índice muy popular es el de diversidad de unidades o categorías. Tradicionalmente se ha utilizado una sencilla proporción entre el número de unidades o categorías diferentes y el número total de unidades o categorías".
En este segmento, el valor de Id para unidades textuales tipo "palabra" sería Id = 23/35 = 0,657 ("s"y "d" han sido contados como una palabra). El valor de Im sería Im = 35/23 = 1,52.
Índice y teoría de la información
Actualmente, esta clase de índices se suelen calcular recurriendo a la teoría de la información. En el ámbito de la observación de campo, se toma como fórmula de la relación entre D y T la ecuación D = CTz, donde C y z son, precisamente, las constantes que hay que averiguar en cada investigación. Esta relación puede transformarse en lineal sobre escala logarítmica, ya que
log D = log C + z log T.
Por lo tanto, en un gráfico logarítmico la relación entre el número de categorías o unidades diferentes y el número total de ellas registradas hasta un cierto momento es una recta, que se puede dibujar mediante técnicas de regresión simple.
Densidad
El índice de densidad hace una evaluación diferente. La densidad de un texto es la suma de las frecuencias de todas las categorías o códigos (Fc) dividida por la suma total de todas las palabras, segmentos o unidades básicas de análisis contabilizadas (Fu) (este denominador coincidiría prácticamente con el de Id). Si el sistema de categorías tiene una estructura tal que la exclusividad se cumple en todos sus niveles, entonces este cociente será 1, ya que a cada segmento o unidad corresponde una sola categoría. Pero, como sabemos, a menudo la relación entre categorías y segmentos es de carácter combinatorio, de manera que una misma unidad o segmento puede pertenecer a diferentes categorías y la identidad de cada categoría se establece a partir de la constelación particular de segmentos que la caracterizan. Entonces, el valor de la densidad puede ser diferente de 1.
10525_m3_07.gif
Frecuencia de uso de diferentes categorías gramaticales
Veamos dos ejemplos de índices dedicados a cuantificar la relación entre la frecuencia de uso de diferentes categorías gramaticales. El cociente adjetivos/verbos (con denominador habitualmente fijado en 100) ha permitido distinguir la locución esquizofrénica de la normal o no patológica. Para algunos autores, el cociente (nombres + verbos)/(adjetivos + adverbios) es un buen indicador del talante del discurso político, dinámico o descriptivo según que la fractura supere la unidad o quede por debajo.
Otra popular familia de índices es la de los dedicados a cuantificar la relación entre la frecuencia de uso de diferentes categorías gramaticales.
Las frecuencias y otras medidas derivadas de ella se tienen que contextualizar mediante reglas de enumeración.

1.6.Medidas de contingencia y secuenciales en el análisis de contenido

Las medidas de contingencia y secuenciales establecen relaciones entre unidades textuales (códigos, categorías) o entre unidades textuales y de contexto.
1.6.1.Medidas de co-ocurrencia
La frecuencia de contingencia o co-ocurrencia es una variante de la frecuencia de ocurrencia, por la que sabemos el número de veces que dos o más unidades de texto coinciden en un mismo contexto de interpretación, o el número de veces que una unidad de registro codificada o una categoría coincide en un mismo contexto de medida (línea, párrafo, página, capítulo; frase, oración, tema).
Esta medida es la clave de bóveda de una determinada línea de análisis ya citada: el análisis de contingencias, asociaciones o concomitancias. Cuando la coincidencia se refiere particularmente a la contigüidad secuencial o sucesión entre antecedentes y consiguientes (en relación texto-contexto o bajo otras ópticas), entonces el análisis de contingencias es otro nombre del análisis secuencial, del que nos ocuparemos enseguida.
Ejemplo de uso de la frecuencia de contingencia
Podemos utilizar la frecuencia de contingencia para hacer afirmaciones, como la de que, en un material como el del ejemplo de Weber visto en el subapartado 1.3.3, la unidad textual "derechos" y la unidad textual "igualdad" han coincidido 21 veces en el contexto de oraciones que son enunciados de leyes. Formalmente, si a "derechos" lo nombramos w y a "igualdad" la llamamos x, y este tipo de oración lo designamos L, tendremos que
fw,x / L = 21
O, igualmente, podríamos servirnos de esta frecuencia para decir que la categoría Y y la categoría Z han coincidido 17 veces en una línea o 34 veces en una página, ahora refiriéndonos al contexto de medida más que al de interpretación.
Frecuencia de contingencia del trastorno límite de personalidad
Volvamos al ejemplo "Trastorno límite de personalidad" del subapartado 1.3.3 de este mismo módulo. Si buscáramos la concurrencia, por párrafo, de la categoría centrada en "trastorno" (referencias a la patología en cuestión) con otra categoría que apuntara al nivel de incidencia poblacional de la enfermedad y a su importancia social (referencias al 2% de incidencia, al aumento de la incidencia, etc.), nos encontraríamos con que las dos coinciden:
  • en el primer párrafo ("trastorno" y "afecta a un 2% de la población");

  • en el segundo párrafo ("trastorno" y "aumento de la incidencia en nuestra sociedad... ");

  • y en el cuarto ("trastorno" y de nuevo "al 2% de la población").

Podríamos afirmar, pues, que con respecto a esta minúscula muestra de 4 párrafos, la frecuencia relativa de contingencia del par "trastorno-incidencia poblacional de la enfermedad" es de 3/4. Si la muestra fuera mayor, podríamos incluso calcular que la probabilidad de que ambas categorías se presenten juntas es justamente de 3/4, es decir, 0,75. Lógicamente, para obtener esta cifra dividimos el número de casos favorables, aquéllos en los que realmente se ha presentado la asociación buscada, por el número de casos posibles, proporcionado por el número de párrafos considerado. Ésta es una probabilidad condicionada, ya que subordinamos la ocurrencia de "trastorno" a la de otro hecho, a saber, que haya un párrafo que lo incluya. Evidentemente, podríamos repetir este ejercicio con todas las categorías utilizadas en el análisis del texto, examinando las diferentes combinaciones en pares, tríos, etc. Asimismo, podríamos tomar como referencia la línea, la página, etc.
Esta orientación del análisis tiene muchas más posibilidades que las sugeridas aquí pero, con el fin de no repetirnos, las desarrollaremos a continuación y en relación con el enfoque secuencial. Éste constituiría la otra cara de la moneda del análisis que acabamos de presentar: en vez de computar e interpretar la coincidencia de dos o más elementos en un mismo espacio del texto, computaríamos e interpretaríamos los nexos antecedente-consiguiente con diferentes distancias entre ambos. La mecánica del procedimiento puede ser la misma y ahora la detallaremos un poco más.
1.6.2.Medidas secuenciales
Las medidas secuenciales son de hecho medidas del orden o de la organización de la secuencia textual. El orden en que se manifiestan secuencialmente unidades de registro o categorías es otra vertiente de la información que admite cuantificación. En este terreno, el análisis de contenido comparte recursos, una vez más, con la metodología observacional, en el interior de la cual se ha desarrollado una multitud de técnicas destinadas a la medida y modelización del orden de los elementos de una serie o secuencia.
En un enfoque de análisis de contenido puede interesarnos saber el grado de organización secuencial de un texto, las reglas subyacentes, el patrón nuclear que le confiere su forma aparente. En perspectiva plenamente cualitativa, el investigador pretenderá a menudo descubrir la matriz de ritual o ceremonia que conforma el material verbal o textual, tal como se pone especialmente de manifiesto en los enfoques etogénicos y etnometodológicos. Con el fin de llegar a averiguar este orden, hay que empezar encontrando qué vínculos hay entre los elementos (unidades, códigos, categorías) que componen la cadena del texto.
El punto de partida de la búsqueda de patrones de orden consiste en el cómputo de frecuencias de transición. Éstas son las frecuencias con las que cada una de las categorías de un sistema sigue en la secuencia textual al resto de categorías del sistema, incluida ella misma. En general, pues, son frecuencias de pares de elementos contiguos, fIJ. De hecho, se podrían computar tanto frecuencias de precedencia (I precede a J) como de seguimiento (J sigue a I), o ambas a la vez. Ya sabemos que, desde el punto de vista cualitativo, la categoría que precede a otra categoría puede entenderse como su contexto antecedente; y la que sigue a esta misma categoría, como su contexto consiguiente. Observaréis que las frecuencias de transición son una variante de las frecuencias de asociación o contingencia, tal como hemos declarado antes.
Ahora bien, aunque en las líneas anteriores hemos estado pensando siempre en precedencias o seguimientos inmediatos, de elementos contiguos, recordamos que eso no tiene por qué ser así: las dependencias entre los elementos de una cadena textual pueden establecerse a más distancia, entre una categoría y la que le precedía o le seguía dos, tres o cuatro posiciones más atrás o más adelante. El número de unidades o pasos que separan cada elemento del antecedente o del consiguiente con el que se le quiere relacionar recibe el nombre de retardo (en inglés, lag) y se incorpora a la frecuencia de transición como un tercer subíndice K. La expresión completa de una frecuencia de transición será, pues, fIJK. Si un par de categorías AB han sido asociadas como antecedentes y consiguientes inmediatos (retardo 1) 17 veces en un texto, entonces fAB1=17.
De forma parecida al procedimiento explicado en el caso de las frecuencias de contingencia, ahora estas frecuencias de transición también pueden ser transformadas en frecuencias relativas de transición pJ/I , las cuales, a su vez, pueden servir de estimadores de probabilidad condicionada. Estas probabilidades son las que propiamente nos permiten establecer las regularidades de la secuencia.
Supongamos que la categorización y vaciado de un texto, a partir de un sistema de categorías S = {A, B, C, D} suministra una secuencia como ésta:
D, A, B, C, D, A, B, C, B, A, B, A, C, A, D, C, B, D, B, C, B, D
Entonces, con retardo 1 (cuyo símbolo omitimos),
f AB = 3; f BA = 2; f CB = 3; f BC = 3; f AD = 1; f DA = 2, etc.
En forma tabular y más sintética, ponemos las cuatro categorías tanto en filas como en columnas, y en las casillas podemos consignar la frecuencia de transición de cada par. Naturalmente, podríamos buscar asociaciones entre tríos o cuartetos, pero aquí nos limitaremos a los pares. Así, como ya sabíamos, AB ha aparecido 3 veces mientras que BA sólo 2. Los totales de fila fI+ equivaldrán al número de veces que cada categoría ha estado en posición antecedente y los totales de columna f+J al número de veces que cada categoría ha figurado en posición consiguiente. En esta tabla, la diagonal principal es 0 porque las repeticiones AA, BB, etc., no están permitidas. En una entrevista en la que cada intervención de entrevistador o entrevistado diera lugar a una sola categoría, no podría haber dos respuestas, ni dos preguntas, seguidas. Pero lo contrario es perfectamente factible y veremos después tablas donde esta diagonal tiene valores distintos de 0.
   
Consiguiente (retardo 1)
fIJ
A
B
C
D
Total
(fI+)
A
 
0
///
3
/
1
/
1
 
5
B
//
2
 
0
///
3
//
2
 
7
Antecedente
C
/
1
///
3
 
0
/
1
 
5
(Retardo 0)
D
//
2
/
1
/
1
 
0
 
4
Total
(f+J)
 
5
 
7
 
5
 
4
 
21
 
Consiguiente (retardo 1)
f j / y
A
B
C
D
A
0
0,60
0,20
0,20
B
0,29
0
0,43
0,29
Antecedente
C
0,20
0,60
0
0,20
(Retardo 0)
D
0,50
0,25
0,25
0
Claro está que las frecuencias de transición no nos dicen gran cosa por sí mismas. Que dos categorías hayan sido enlazadas un cierto número de veces no informa sobre reglas de orden de la cadena, dado que esta frecuencia depende de la frecuencia global de cada elemento en solitario dentro de dicha cadena. Tampoco nos serviría una probabilidad absoluta o incondicionada. Por ejemplo, podríamos calcular la probabilidad del par CB, que sería p CB = 3/21, es decir, su frecuencia dividida por el número total de pares. Pero este resultado no nos informaría sobre la fortaleza del enlace entre C y B, porque también estaría supeditado a la frecuencia global de C y de B por separado.
Lo que nos convendría sería saber con qué probabilidad se da B suponiendo que antes se haya dado C. Esta probabilidad puede ser calculada como frecuencia relativa de transición, dividiendo el número de veces que ha figurado B detrás de C por el número de veces que ha aparecido C en posición antecedente. Este último número no siempre será igual a la frecuencia total de C en la cadena, ya que C puede estar en el último lugar de la secuencia y entonces ya no sería estrictamente un antecedente. En definitiva, p B/C estimaría la probabilidad de que en la cadena se produzca B dado que antes se haya producido C y se calcularía por el cociente f CB /f C+ = 3/5.
Como podéis apreciar, este cálculo se puede realizar directamente a partir de una tabla como la anterior, ya que el numerador del cociente es la frecuencia de cada par y el denominador el total de fila correspondiente. Entonces obtendríamos una tabla de probabilidades condicionadas como la siguiente:
Estas cifras ya nos suministran información más aprovechable sobre los vínculos entre categorías. Así vemos que el vínculo entre A y B es mucho más fuerte que el que hay entre B y A o que el enlace entre C y B es mucho más consistente que el que hay entre D y B. A mayor abundamiento, la regla de asociación que nos suministra una probabilidad condicionada permite construir un modelo de relaciones en el corpus o fragmento analizado. Con el fin de encontrar este modelo, la aproximación correcta sería encontrar la significación estadística de estos enlaces aislados, punto que tocaremos en un ejemplo próximo. Pero, ahora, para poder ilustrar esta posibilidad recurriremos de momento a una opción no tan correcta pero que ayuda sin embargo a visualizar el sistema de relaciones que expresan las probabilidades.
La opción consiste en marcar un mínimo por encima del cual se tienen en cuenta las relaciones. En este ejemplo podría ser 0,4. Eso quiere decir que las asociaciones por encima de este valor serían incorporadas al modelo mientras que las otras no. Obviamente, los pares AB, BC, CB, DA serian los beneficiados. Si representáramos estas relaciones mediante un diagrama de flujo y cada intervalo de 10 puntos (entre 0,40 y 0,49; entre 0,50 y 0,59; y entre 0,60 y 0,69) con flechas de un grueso diferente, obtendríamos un esquema como el de la siguiente figura.
10525_m3_08.gif
Podemos sospechar que la categoría B es candidata a ser un "atractor", por la fortaleza de la convergencia de A y C hacia ella. A parece tener un vínculo moderado y específico con D, que tiende hacia ella. La relación de B con C ya es de menor importancia. En este esquema hemos indicado en gris las relaciones descartadas por su debilidad.
Ni que decir tiene que este ejemplo es totalmente insuficiente de cara a extraer conclusiones. El ejercicio que acabamos de hacer se tiene que llevar a cabo con cadenas textuales mucho más largas y con frecuencias mucho más altas de categorías.
Por la vía del análisis secuencial podemos llegar a saber, pongamos por caso, que en una entrevista a una madre cada pregunta sobre sus hijos tiende a ir seguida, en primera o segunda opción, de categorías de respuesta clasificables como "afectivas" y, después, en tercera posición, por una negación de las anteriores. En este caso, la constatación sería meramente descriptiva y abarcaría los retardos 1, 2 y 3.
Por la vía del análisis de contingencias podemos averiguar que, en un diario adolescente, las anotaciones que abren cada entrada del diario suelen ser expresivas cuando el texto continúa después narrando conflictos o dramas (familiares, escolares, sentimentales), mientras que se inclinan por la descripción cuando los acontecimientos que llenan la página de aquel día son más bien neutros.
Las medidas de contingencia y secuenciales pueden llegar a coincidir cuando los elementos o unidades relacionadas son antecedentes y consiguientes.

2.Ejemplos desarrollados de análisis de contenido

2.1.Ejemplo 1: Recuentos de frecuencia en general

En el análisis de contenido es importante saber cómo se distribuyen las frecuencias de las categorías a lo largo del texto y cómo se asocian a las otras categorías o a los diferentes contextos de ocurrencia.
Os proponemos un relato etogénico que ilustra esta perspectiva documental. Se trata de un párrafo en el que un marido propietario de un piso expresa su extrañeza respecto del incumplimiento de las expectativas de venta del inmueble, expectativas que, tanto él como su mujer, se habían hecho después de la visita de una pareja de supuestos compradores.
m3_101.gif
Arreglado en líneas numeradas:
m3_102.gif
Fijaos, en primer lugar, en que el texto presenta dos partes bien diferenciadas: una en la que el narrador expresa o cree confirmar diversas expectativas de venta, y otra, a partir de la línea 7, en la que el autor manifiesta su desencanto al ver estas expectativas frustradas, introduciéndolo con la conjunción adversativa "pero". Eso se puede captar a simple vista, aunque los instrumentos de análisis también lo tendrían que manifestar.
Las unidades de registro podrían ser palabras o frases en contexto de oraciones. Las palabras son indicadores categoriales que cobran todo su sentido en el contexto de las oraciones. Las oraciones (olvidando ahora las líneas) vienen delimitadas o definidas operacionalmente,
a) cuando son simples, por el hecho de estar comprendidas entre puntos y seguido consecutivos, o entre inicio y punto seguido, o entre punto seguido y punto final;
b) cuando están colocadas dentro de una coordinada copulativa, tienen que estar comprendidas entre un punto y el conector "y" o viceversa (otros tipos de oraciones no se ven aquí).
Las categorías vienen informadas por diferentes palabras o frases –sus indicadores– y son de dos tipos: categorías de expectativa confirmada, E+, y categorías de expectativa frustrada, E-.
Así, las frases "muy interesados" y "buenos compradores", en los contextos respectivos de "Parecían muy interesados" y "parecían buenos compradores" se codifican como E+. "No dijeron nada" en el contexto de "pero no dijeron nada en todo el día" se codifica como E-. Etc.
En resumen, llegamos a la siguiente lista de codificaciones y, por lo tanto, de categorías (indicadores en cursiva):
  • Esta gente, cuando la agencia nos avisó de que nos los enviaban, vinieron enseguida: E+

  • Casi no tuvimos tiempo de ordenar el piso: E+

  • Parecían muy interesados: E+

  • parecían buenos compradores: E+

  • Al principio yo hubiera jurado que estaban a punto de decidirse: E+

  • De hecho, incluso hablaron (ellos dos) de cambiar algunas cosas del piso: E+

  • Comentaron que las ventanas las harían todas nuevas: E+

  • Pensamos que tenían dinero de sobra: E+

  • (pensamos) que serían buenos pagadores: E+

  • Estuvieron mucho rato: E+

  • cuando se marcharon parecía que ya se encontraban como en casa: E+

  • Yo le dije a Cintia (mi mujer) que llamara a la agencia para que los presionase: E+

  • (Yo le dije a Cintia [mi mujer]) que llamara a la agencia para estuviesen al acecho: E+

  • Pero no dijeron nada en todo el día: E-

  • (... no dijeron nada en todo el día) (Ni) al día siguiente: E-

  • (... no dijeron nada en todo el día) (ni) en el resto de la semana: E-

  • No entendíamos nada: E-

  • la agencia, tampoco: E-

  • Al final, les llamé personalmente: E-

  • encima creo que les molestó: E-

  • Ya no les interesaba: E-

  • ¡Quien lo entiende!: E-

A partir de esta codificación de categorías podemos utilizar diversas medidas:
fE+= 13; fE- = 9; pE+ = 13 / 22 = 0,59; pE- = 9 / 22 = 0,41
Podemos establecer direccionalidad mediante un índice sencillo como
10525_m3_09.gif
El índice está comprendido entre -1 y 1, es decir: -1 > I > +1. Entendemos, pues, que en este segmento de texto, sin considerar el orden secuencial, las expectativas positivas dominan ligeramente sobre las negativas.
En cuanto al índice de diversidad Id, referido a categorías, es fácil de computar, dado que sólo tenemos 2 categorías y ya conocemos el número total de categorías contabilizadas, fE+ + fE- = 13 + 9 = 22. Así Id = 2/22 = 0,09.
Con respecto a la ordenación secuencial vemos, a primera vista, que este párrafo presenta una organización muy rígida y dicotomizada. Todas las categorías E+ se agrupan en las 8 primeras líneas, mientras que las E- se concentran en las 3 finales. Eso se debe a la retórica de "hacerse la víctima" que utiliza al narrador y que consiste en insistir muy al principio en su confianza en un curso de acontecimientos positivos (para él) para pasar después, abruptamente, a exponer su desilusión final. Así, el lector recibe al final la misma "ducha de agua fría" que ha recibido él. Es obvio que el análisis tiene que ir orientado al autor o emisor del mensaje, que deja de forma conspicua su impronta en el texto.
A la vista de esta ordenación tan rígida, el sentido común cualitativo nos dice que no hace falta hacer ningún cómputo de frecuencias de transición. No obstante, para amortizar el ejemplo, observad cómo se computarían estas frecuencias fIJ mediante una tabla de contingencia secuencial:
Categoría consiguiente
E +
E -
Total
Categoría precedente
E +
12
1
13
E -
0
8
8
Total
12
9
21
La lectura de esta tabla nos dice que la transición o par secuencial E+E+, se ha producido 12 veces, E+E-, 1 vez, E-E+, 0 veces y E-E-, 8 veces. La única transición E+E- articula las dos partes del texto a las que hacíamos alusión más arriba.
Las probabilidades condicionadas serían
0,92
0,08
0
1
Éstas, por si hiciera falta, nos dicen que en esta muestra es imposible una transición E-E+, mientras que con E- como antecedente, es obligada la transición hacia E-, y que la transición E+E+ es altamente probable mientras que la E+E- lo es muy poco. Pero, como ya hemos dicho, las reglas de asociación ya eran evidentes en la tabla original de frecuencias.
En un análisis de asociaciones o de relaciones secuenciales las probabilidades condicionales son las que proporcionan las reglas de aparición o de orden.

2.2.Ejemplo 2: Análisis de contingencia y análisis secuencial

Los análisis de contingencia y los secuenciales se basan en la valoración estadística de residuales, es decir, de las diferencias entre las frecuencias o probabilidades de asociación observadas y las esperadas.
Supongamos ahora que nos enfrentamos con las transcripciones de las respuestas de un/a paciente anoréxico/a a las preguntas del/la terapeuta. Se trataría ahora de averiguar las asociaciones de dos únicas categorías, "Crítica" y "No crítica" (se entiende que la crítica es negativa), correspondientes a segmentos tipo oración, con dos posibles contextos de ocurrencias correspondientes a párrafos (marcados por pausas orales), donde el tema dominante era, o bien la figura de la madre, o bien la figura del padre. Por lo tanto, se trataría de un análisis de contingencia o de concurrencia y habría que saber la distribución de las frecuencias de las dos categorías entre los dos contextos previstos. La tabla de contingencia sería la siguiente:
 
Contextos de ocurrencia
 
Madre (M)
Padre (P)
Total
Categorías
Crítica (C)
27
4
31
No crítica (NC)
18
11
29
 
Total
45
15
60
Ante esta distribución de frecuencias, una primera indagación que tendríamos que hacer es si puede ser debida al azar o no, con un determinado riesgo de error. Como sabéis, esta información la podemos derivar de la prueba de χ2.
Con el fin de aplicar la fórmula, lo primero que tenemos que hacer es calcular las frecuencias esperadas si la distribución por casillas estuviera hecha al azar. Con este objetivo, entendemos que los cuatro acontecimientos C, NC, M y P son independientes y que, por lo tanto, su encuentro, por pares, en cada una de las cuatro casillas depende de un producto de probabilidades. Así, la probabilidad de que se dé la asociación CM será igual a la probabilidad de que se dé C multiplicado por la probabilidad de que se dé M. Por consiguiente, pC pM = 31/60 × 45/60 = 0,3875. Lógicamente, con el fin de calcular la frecuencia esperada con esta probabilidad, habrá que multiplicarla por el número de casos observados, es decir, 60. En definitiva, la frecuencia esperada de CM será 60 × 0,3875 = 23,25 (esta fórmula se suele presentar mediante la receta mecánica "total de filas × total de columnas / total general).
Realizando estos cálculos, obtendremos la siguiente tabla de frecuencias esperadas:
 
Contextos de ocurrencia
 
Madre (M)
Padre (P)
Total
Categorías
Crítica (C)
23,25
7,75
31
No crítica (NC)
21,75
7,2
29
 
Total
45
15
60
Sustituyendo en la fórmula de χ2,
10525_m3_10.gif
El numerador es el residual de las diferencias entre las frecuencias observadas y las esperadas por casilla, elevado al cuadrado. Tendremos que
χ2 = [(27 - 23,25)2 / 23,25] + [(4 - 7,75)2 / 7,75] + [(18 - 21,75)2 / 21,75] + [(11 - 7,25)2 / 7,25] = 0,60 + 1,81 + 0,65 + 1,94 = 5
La significación de este valor se tiene que juzgar con 1 grado de libertad, ya que η = (2 - 1) (2 - 1) = 1. Vistas las tablas, encontramos que es estadísticamente significativo con un riesgo de 0,05. De manera que podemos concluir que, tal como sospechábamos, la distribución de frecuencias obedece a alguna regla o modelo propio de las verbalizaciones de la paciente en situación terapéutica; no se debe al azar.
Conocido este punto, podemos retroceder a la tabla inicial y hacer una fácil lectura. Sabemos que:
f C = 31; f NC = 29; f M = 45; f P = 15.
Y, además, en lo tocante a frecuencias relativas,
p C = 31/60 = 0,52; p NC = 29/60 = 0,48; p M = 45/60 = 0,75; p P = 15/60 = 0,25.
A través de estas sencillas proporciones corroboramos lo que las frecuencias ya nos decían, es decir, que las categorías de "Crítica" y "No crítica" prácticamente se reparten al 50% y que hay tres veces más referencias a la madre que al padre, independientemente de cómo se distribuyen las críticas. También podríamos establecer que las probabilidades absolutas de dirigir críticas o no dirigirlas, a padre y madre, son respectivamente p CM = 27/60 = 0,45; p CP = 4/60 = 0'07; p NCM = 18/60 = 0,3; p NCP = 11/60 = 0,18.
Como ya hemos observado en páginas anteriores, estas cifras permiten estimar con qué probabilidad se darán los pares de asociaciones en este ejemplo, pero no nos permiten inferir una regla de asociación concreta. Con esta finalidad, tendremos que calcular probabilidades condicionadas: las probabilidades de que, dado que la paciente hable del padre o de la madre, sus frases vayan acompañadas, o no, de una crítica negativa. Recordad que estas probabilidades condicionadas se expresarán como p M/C , p M/NC , p P/C y p P/NC y se computarán dividiendo el valor de frecuencia observada de cada casilla por el total de la fila correspondiente. Así,
Madre (M)
Padre (P)
Crítica (C)
27/31 = 0,87
4/31 = 0,13
No crítica (NC)
18/29 = 0,62
11/29 = 0,38
Ahora, en vez de recurrir a un criterio arbitrario como el que hemos utilizado en el ejemplo del subapartado 2.1, estimaremos la significación de cada una de estas cuatro probabilidades mediante la z binomial.
Nos serviremos de la modalidad de computación que se basa directamente en probabilidades, y no en frecuencias.
z = (probabilidad observada - probabilidad esperada) / desviación típica
El numerador es también un residual, entendido ahora como diferencia de probabilidades.
Si designamos por I la categoría o condición y por J el contexto asociado a esta condición, la probabilidad observada será p J/I o, lo que es lo mismo, la probabilidad condicionada que consta en la tabla anterior.
La probabilidad esperada para cada casilla se calcula a partir del valor de p J , o sea, de la probabilidad de que se produzca cada uno de los dos contextos previstos independientemente de que se asocien a una u otra categoría. Así, en la primera casilla correspondiente a la asociación CM, la probabilidad esperada de que se dé M será p M = 45/60 = 0,75 (su frecuencia relativa), dado que hacemos el cálculo sobre la base del número total de ocurrencias de M con respecto al total de 60, y sin tener en cuenta la mayor concentración de frecuencias en la casilla CM.
Desviación típica hipergeométrica
De las diversas expresiones de z utilizamos aquí la hipergeométrica, la menos conservadora, en un formato adaptado a tablas de contingencia. Ved R. Bakeman y J. M. Gottman (1989). Observación de la interacción: introducción al análisis secuencial (pp.196-197). Madrid: Morata.
La desviación típica de z es la siguiente:
10525_m3_11.gif
Acabamos de explicar cómo se computa p J y por lo tanto 1 - p J . La otra probabilidad que aparece en la fórmula, p I , corresponderá a la otra cara de la moneda: a la probabilidad de que aparezca cada una de las dos categorías previstas independientemente de que se asocien a uno u otro contexto. Ejemplarizándolo de nuevo con la primera casilla, esta probabilidad será p C = 31/60 = 0,5166 ≅ 0,52 (de nuevo, su frecuencia relativa).
Realizando la totalidad del cálculo de z para la primera casilla, tenemos que:
Probabilidad observada - probabilidad esperada = 0,87096 - 0,75 = 0,12096
10525_m3_12.gif
Esta z es significativa, ya que supera el valor crítico de 1,96 con un riesgo de error menor de 0,05. Además, es positiva; en consecuencia, la asociación correspondiente CM tiene que interpretarse de la misma manera; C y M tienden a asociarse, "se atraen" en tanto que categoría y contexto de ocurrencia.
Calculando el resto de z por idéntico procedimiento, obtendríamos cuatro valores que hacemos constar en la misma tabla:
Madre (M)
Padre (P)
Crítica (C)
2,24
-2,24
No crítica (NC)
-2,24
2,24
Traduciendo lo que es obvio: la paciente tiene una tendencia clara a criticar a la madre y a no criticar al padre en situación de terapia o, al contrario, inhibe cualquier alabanza o comentario neutro con respecto a la madre y cualquier comentario crítico con respecto al padre.
Nota
Las técnicas del tipo que acabamos de explicar u otras semejantes sirven tanto para el análisis de asociaciones en forma de concurrencias o co-ocurrencias, como para el análisis de asociaciones secuenciales entre antecedentes y consiguientes. Ahora bien, este ejemplo ha sido relativamente cómodo de presentar debido a que sólo hemos considerado dos categorías y dos contextos. En el subapartado 2.1 hemos desarrollado el ejemplo del relato etogénico, en el cual rastreábamos los vínculos secuenciales de solamente dos categorías. Quizás no hace falta añadir que, en la práctica real del análisis, el número de elementos que integran una tabla de contingencia como las que hemos visto puede ser mucho mayor.
2.2.1.Ejemplo de análisis secuencial con una tabla de contingencia compleja
Añadamos, para acabar, un ejemplo de análisis secuencial apoyado sobre una tabla con ocho categorías de referencia. Se trata ahora del diario de un niño de 13 años, escrito durante el curso, y analizado oración a oración (entre puntos seguidos o entre puntos aparte). Las categorías son de carácter pragmático y se basan en la persona a la que hace referencia la oración en tanto que unidad textual, sobre el criterio de que figuran como su sujeto gramatical.
La tabla de frecuencias observadas en el diario, entendiendo que la sucesión antecedente-consiguiente es con retardo 1, es la siguiente.
Consiguientes
   
Maestro
Monitor
Madre
Padre
Él
mismo
Hermano
Abuelo
Abuela
Total
Antecedentes
Maestro
3
0
0
0
4
0
0
2
9
Monitor
0
0
0
1
0
1
0
0
2
Madre
0
0
161
38
68
1
2
20
290
Padre
1
0
11
11
184
4
2
22
235
Él mismo
2
1
81
140
541
15
6
108
894
Hermano
0
0
7
6
12
4
1
7
37
Abuelo
0
1
2
3
1
1
6
10
24
Abuela
3
0
33
36
84
11
7
37
211
Total
9
2
295
235
894
37
24
206
1.702
Calculamos las probabilidades condicionadas en cada casilla, que ya nos orientarán con respecto a los nexos secuenciales que unen las categorías entre sí.
Consiguientes
   
Maestro
Monitor
Madre
Padre
Él
mismo
Hermano
Abuelo
Abuela
Total
Antecedentes
Maestro
0,33
0,00
0,00
0,00
0,444
0,00
0,00
0,222
1
Monitor
0,00
0,00
0,00
0,50
0,00
0,50
0,00
0,00
1
Madre
0,00
0,00
0,55
0,131
0,235
0,003
0,007
0,069
1
Padre
0,004
0,00
0,047
0,047
0,783
0,017
0,009
0,094
1
Él mismo
0,002
0,001
0,091
0,157
0,605
0,017
0,007
0,121
1
Hermano
0,0
0,00
0,189
0,162
0,324
0,108
0,027
0,189
1
Abuelo
0,0
0,042
0,083
0,125
0,042
0,042
0,25
0,417
1
Abuela
0,014
0,00
0,156
0,171
0,398
0,052
0,033
0,175
1
Y calculamos las z mediante el mismo algoritmo que antes. Ahora, con el fin de asegurarnos más contra el riesgo que la vez anterior fijaremos un criterio de significación de 2,58, correspondiente a un riesgo p < 0,01. Los valores significativos están marcados en negrita.
Consiguientes
   
Maestro
Monitor
Madre
Padre
Él
mismo
Hermano
Abuelo
Abuela
Antecedentes
Maestro
13,6
-0,1
-1,4
-1,2
-0,5
-0,4
-0,4
0,9
Monitor
-0,1
0,0
-0,6
1,5
-1,5
4,6
-0,2
-0,5
Madre
-1,4
-0,6
18,9
-0,4
-10,9
-2,3
-1,1
-3,0
Padre
-0,2
-0,6
-5,5
-4,4
8,5
-0,5
-0,8
-1,4
Él mismo
-1,8
-0,1
-9,5
2,3
6,9
-1,5
-2,7
0,0
Hermano
-0,4
-0,2
0,3
0,4
-2,5
3,6
0,7
1,3
Abuelo
-0,4
5,8
-1,2
-0,2
-4,8
0,7
9,9
4,5
Abuela
1,9
-0,5
-0,7
1,5
-4,0
3,2
2,5
2,6
Actividad
Delante de la tabla de las z, y ya con talante plenamente cualitativo, tratad de averiguar cuáles son las reglas que influencian la concatenación de categorías en el diario del niño. Así, para iniciar el análisis, es bastante evidente que cualquier referencia al maestro tiende a ir seguida de otra referencia al maestro según un enlace que habría que estudiar más en detalle. O que cuando habla de él mismo, la oración suele ir precedida por comentarios en torno al padre o sobre todo a él, pero no a la madre ni a los abuelos, los cuales parecen inhibirse ante esta categoría (o al revés: las referencias a sí mismo tienden a suprimirse después de las realizadas en torno a la madre o los abuelos). Podéis continuar este ejercicio a partir del valor cimentador entre categorías sucesivas que poseen las "z positivas" (y de acuerdo con su magnitud), o del valor "inhibidor" de las z negativas.
Podéis tratar de dibujar igualmente un diagrama de flujo a partir de las probabilidades condicionadas con valores significativos de z, siguiendo la pauta de lo que hemos dibujado en páginas anteriores.
Solución
Trasladando simplemente las z significativas al gráfico, obtendríamos un dibujo como el de la siguiente figura, que es un modelo icónico de las reglas que ordenan el texto con retardo 1, tomando como elementos las categorías utilizadas en este ejemplo. Las z entre 2,58 y 7 han sido representadas con un trazo más fino; las z entre 7,1 y 12, con una línea un poco más gruesa; finalmente, las z superiores a este valor tienen el trazo más grueso. Las relaciones positivas se representan con flechas, según la convención más habitual; las relaciones negativas o de inhibición con baquetas.
10525_m3_13.gif
Hay que destacar que, como ya hemos subrayado, cualquier referencia al maestro es doble en el sentido antecedente-consiguiente y que, curiosamente, lo mismo pasa con la madre. Las sucesiones madre-niño (él mismo) o niño-madre están bastante inhibidas. Las referencias al padre no suelen ir seguidas por una segunda referencia, a diferencia de las del abuelo, pero el vínculo padre-niño es bastante consistente en el texto. Las referencias del niño a sí mismo no tienen ningún seguimiento significativo: detrás de las referencias que hace a sí mismo no introduce de manera sistemática ninguna alusión a otros miembros de su círculo, aunque sí las continúa a menudo con alusiones a él mismo, etc.
Naturalmente, este baile de cifras sólo es el soporte técnico sobre el que el analista tiene que explorar los sustratos de estos vínculos, gracias a una profundización mayor de los contenidos de los segmentos implicados en los enlaces. Habría que saber por qué las citas del monitor de deporte, pongamos por caso, se asocian al hermano. Se nos pueden ocurrir muchas hipótesis al respecto, pero cualquiera de ellas tendría que ser validada sobre contenidos del diario o sobre datos complementarios obtenidos del niño en cuestión.
Un análisis de contingencia o secuencial puede evidenciar la presencia de vínculos positivos o negativos entre categorías, o entre categorías y contextos, según que las unidades analizadas tiendan a asociarse o a repelerse.

2.3.Ejemplo 3: Análisis evaluativo

El análisis evaluativo implica el juicio del analista ya en la misma ponderación de las frecuencias.
En este último ejemplo, trataremos de sacar provecho de las frecuencias ponderadas. La ponderación puede ser una de las puertas de entrada de la huella cualitativa en la medida y el análisis, dado que implica una asignación de valor, un juicio de intensidad, de dirección o de ambas cosas por parte del analista y, por lo tanto, una interpretación subjetiva por parte de éste en el sentido metodológicamente más favorable del término, el de amortizar la experiencia y los conocimientos del científico en la evaluación del fenómeno estudiado. En los ejemplos anteriores, esta experiencia y conocimientos se aplicaban a las cifras generadas por las operaciones estadísticas o probabilísticas; en la ponderación, en cambio, ya dejan su huella en la misma operación de medida.
Uno de los terrenos donde con más sentido se utiliza la ponderación de frecuencias es el del análisis evaluativo, al que ya hemos aludido al enumerar las líneas principales de trabajo del análisis de contenido. Esta línea manifiesta características particulares, tanto en su lenguaje técnico como en sus puntos de aplicación. Ante un texto, el investigador evaluativo sólo se ocupa de aquellas oraciones que tienen un significado valorativo, y es con respecto a este significado que lleva a cabo la evaluación.
Lecturas recomendadas

El análisis evaluativo hunde sus raíces en la obra del psicolingüista americano Charles E. Osgood. Un libro bien conocido en el ámbito de la docencia académica donde encontraréis un ejemplo inteligible de este análisis es el de:

R. Mayntz, K. Holm, y P. Hübner (1975). Introducción a los métodos de la sociología empírica (pp. 211-214). Madrid: Alianza.

También L. Bardin (1996). El análisis de contenido. Madrid: Akal.

En general:
  • La evaluación se refiere a actitudes u opiniones valorativas con respecto a ciertos "objetos" o temas presentes en el texto, las cuales pueden estar alimentadas por emociones, intereses, ideologías, etc. Estos objetos se suelen simbolizar en las operaciones de análisis mediante OA ("Objetos de actitud").

  • Las actitudes se ponen de manifiesto en unidades textuales de significación, habitualmente oraciones o frases. Estas unidades se simbolizan mediante EV, es decir, "Expresiones valorativas". "La psicología no tiene mucho de científica" es una EV aplicada al OA de la Psicología. Sin embargo, naturalmente, también podríamos haber escogido "La psicología es una disciplina científica".

  • Los OA y las EV se relacionan mediante conectores verbales, ya sea con la forma de oraciones sustantivas o simples, sin complementos (como "El árbitro es un inútil", "Este jugador promete"), ya con la forma de oraciones completas, con complementos ("El árbitro silbó un penalti injusto contra los locales", "Un actor como éste merecía desde hace años el Óscar"). El análisis también se puede centrar en oraciones compuestas, coordinadas o subordinadas, pero entonces éstas se descomponen de la manera que indicaremos más abajo. Hay que puntualizar igualmente que la ponderación de los verbos, por una parte, y de los predicados o complementos, por otra, se hace por separado y después se multiplica, como también veremos.

  • A partir de los ejemplos precedentes, tiene que entenderse que las valoraciones se mueven en un espacio dimensional bipolar, entre dos extremos: positivo-negativo; a favor-en contra; alto-bajo; etc. La evaluación, pues, tiene una dirección, dentro de una polaridad o de una oposición. Éste es el primer componente de la evaluación.

  • Finalmente, dentro de la oración tiene que haber elementos gramaticales y semánticos que permitan ponderar efectivamente la intensidad de la actitud, a través del juicio que la expresa. Éste es el segundo componente de la evaluación. Es evidente que "La psicología es una disciplina científica", "La psicología es indudablemente una disciplina científica" y "La psicología tal vez sea una disciplina científica" son enunciados que incorporan cargas diferentes de opinión en lo tocante a la firmeza de quienes la expresan o a la intensidad de la actitud. En una práctica bastante habitual la ponderación se hace sobre una escala de 3 valores, positivos o negativos según la dirección en la que se apliquen. En este caso podríamos asignar, en la dirección positiva, +1 a "La psicología tal vez sea una disciplina científica", +2 en "La psicología es una disciplina científica" y +3 en "La psicología es indudablemente una disciplina científica". Por el contrario, la frase antes citada de "La psicología no tiene mucho de científica" merecería una ponderación –1, y frases como "La psicología no es científica" y "La psicología no tiene nada de científica" un –2 y un –3, respectivamente.

La temporalización del proceso de análisis es la siguiente:
1) En primer lugar, se identifican los OA en el texto. Ya hemos indicado que el análisis evaluativo no practica una exploración exhaustiva del texto sino que se concentra en las unidades que pueden ser consideradas valorativas según determinados criterios.
2) Después se sustituyen los OA por símbolos "neutrales", habitualmente letras mayúsculas, con la finalidad de que el desconocimiento de qué OA se trata en cada caso impida sesgos en la ponderación del analista. Así, la frase "La psicología no tiene nada de científica" se transformaría en "X no tiene nada de científica", evitando de esta manera que psicólogos de diferentes tendencias, u otros científicos sociales, se proyectaran en el contenido de la frase.
3) A continuación, se hace una lista con todas las frases con OA, convirtiéndolas en enunciados más o menos estandarizados con el fin de ayudar en su ponderación. Ya hemos dicho que estos enunciados son básicamente de dos tipos: oraciones sustantivas, intransitivas o transitivas pero sin complementos, en las cuales el OA se conecta solamente con un predicado nominal o un verbo; y oraciones que llevan complementos con diferentes funciones gramaticales (directas, indirectas, circunstanciales). Esta fase comporta también la descomposición de las oraciones compuestas en simples.
4) Para cada OA se elabora una "tarjeta de codificación" independiente, en la cual se hacen constar las ponderaciones asignadas a conectores verbales, por un lado, y a predicados o complementos, por otro. Como también hemos dicho, la asignación se sitúa entre +3 y –3, según la dirección de la valoración del OA. La asignación depende de los argumentos que aplique el investigador. Una manera de dotar de consistencia a la ponderación es realizarla entre dos o más analistas, intentando después llegar a un acuerdo entre ellos mediante técnicas que expondremos en apartados próximos.
Ejemplificación de las fases del análisis evaluativo
Ilustraremos las facetas y fases del análisis con un pequeño ejemplo. Prestad atención al siguiente texto, supuesto producto de un informe en el contexto de un conflicto sociolaboral:
"A pesar de que el jefe de sección, que intenta pasar por justo, apoyó aparentemente a Rovira en su insistente denuncia de unos servicios de seguridad sospechosos, no obstante no confiaba plenamente en él".
Sustituimos los OA por símbolos:
  • Jefe de sección = X

  • Rovira = Y

  • Servicios de seguridad = Z

Descomponemos las oraciones:
  • X intenta pasar por justo.

  • X apoyó aparentemente a Y en su denuncia.

  • Y ha denunciado insistentemente a unos Z.

  • Z son sospechosos.

  • X no confiaba plenamente en Y.

Elaboramos las tarjetas de ponderaciones:
OA
Verbo
Ponderación
(dirección y valor)
Predicado o complemento
Ponderación
(dirección y valor)
Producto total
X
intenta
+1
Pasar por justo
+1
+1
X
apoyó
+2
aparentemente Y
+2
+4
X
no confiaba
–1
plenamente en Y
+3
–3
Y
ha denunciado
–3
insistentemente unos Z
+3
–9
Z
Son
+3
sospechosos
–2
–6
La carga de ponderación es responsabilidad de la sensibilidad al lenguaje del analista, aunque decisiones como las de las tablas anteriores están inspiradas por el sentido común. Es justificable ponderar "intenta" con +1 cuando el autor del texto disponía de verbos mucho más potentes como "pretende", "quiere" o "se propone", que merecerían un +2 o un +3. "Apoyó" recibe un +2 porque también tiene espacio semántico por encima, el que correspondería a conectores como "promovió" o "impulsó" o "hizo", que recibirían un +3. "No confiaba" se queda con un –1 dado que hay verbos mucho más contundentes en la dirección negativa, como "vigilaba," criticaba" (–2) o "perseguía", "atacaba" (–3).
En la columna de los predicados y complementos podríamos esgrimir argumentos parecidos. "Intentar pasar por justo" se tiene que quedar en puntuación por debajo de "Ser justo" (+3) o "Actuar justamente" (+2). "Aparentemente" introduciría un matiz reductor respecto de "Decididamente" o "Incondicionalmente", pero permanecería por encima de "Tibiamente" o "Hasta cierto punto", etc.
El análisis evaluativo comporta la detección de los "Objetos de actitud" en el texto y de las "Expresiones de valoración" que permiten evaluarlos, habitualmente de +3 a –3, en dirección positiva o negativa.

3.La calidad de los datos en el análisis de contenido

3.1.El marco general de la calidad de datos en el análisis de contenido: recordatorio

Los tres frentes en los que se plantea la calidad de los datos en el análisis de contenido son los mismos que plantea la metodología cualitativa en general: validez, fiabilidad y precisión.
3.1.1.Fiabilidad, precisión, validez y generalización
Ya hemos tratado los puntos capitales de la calidad de los datos en la investigación cualitativa. El único tema que habrá que tratar ahora es el de la fiabilidad, el cual, de manera correspondiente, es el más estudiado en la literatura metodológica sobre análisis de contenido. Y, muy cerca de la fiabilidad, nos referiremos de pasada a la precisión, dos conceptos que son sólo variantes de una misma manera de entender la calidad de la información obtenida.
Ved también
Los puntos capitales de la calidad de los datos en la investigación cualitativa fueron tratados suficientemente en el módulo 6 de la asignatura Métodos de investigación cualitativa. Allí se establecía el marco general en el que hay que considerar los problemas de calidad de los datos en este ámbito metodológico, señalando las distinciones necesarias entre fiabilidad, precisión y validez, por un lado, y las cuestiones relativas a la generalización, por otro.
La validez, en perspectiva cualitativa, se remite a la definición de las categorías de análisis; en general es –conviene que sea– una validez "de contenido", más que "de constructo". Eso significa que el problema de si estamos realmente midiendo o contando lo que queremos a través de las categorías aplicadas al análisis se puede plantear al contrario: lo que estamos midiendo o contando es aquello definido y comprendido dentro de las categorías; no pretendemos empezar la casa por el tejado; no queremos estudiar lo que piensa o imagina la gente, sino lo que verbaliza o escribe. Con eso no queremos insinuar que el analista renuncie a hacer inferencias, pero éstas se realizarán a partir de los registros codificados por las categorías, mientras que las categorías tienen que estar arraigadas en el texto.
Efectivamente, en el caso del análisis de contenido lo que hay dentro de las categorías son segmentos concretos de texto a los que les ponemos una etiqueta y asignamos –eso sí– una significación más o menos arriesgada, interpretándolos sobre la base de una teoría, de hipótesis de trabajo, de códigos culturales, etc. Sin embargo, cuanto más nos alejemos de la concreción del texto, más problemas de validez tendremos que afrontar. Si definimos una categoría de "agresividad" a partir de verbos y oraciones de contenido agresivo dirigidas a personas o instituciones ("pegar", "matar", "disparar", "trinchar", "destrozar", "fusilar", etc.) o a partir de la mención de armas, instrumentos de tortura, prisiones, también con implicación de sujetos sociales, entonces el significado de esta categoría no planteará demasiados problemas de validez. Si no hacemos eso e intentamos justificar la definición de las categorías en función de contenidos ocultos o latentes, o en función de un desciframiento de frases más allá de su significado aparente, entonces nos complicaremos la vida. Ciertamente –insistimos–, podemos y debemos hacer a menudo inferencias en profundidad; pero éstas tienen que realizarse sobre la base del registro o la medida, no en el mismo acto de registro o medida. En definitiva, se tienen que hacer a través de la comparación, combinación y análisis de la información categorial, tal como hemos explicado en el módulo "Las técnicas cualitativas en la selección y tratamiento de la información", dentro de los procedimientos de la teoría fundamentada. Ahora bien, la información atribuida a cada una de las categorías utilizadas en el análisis, en sí misma, tendría que estar ligada al texto de la manera más inmediata posible.
Aparte de estas consideraciones, no hay que olvidar tampoco que el investigador cualitativo se permite la opción de la validación émica, tanto fuera como dentro del análisis de contenido. Los sujetos, grupos o instituciones que son autores de los textos, en su papel de informantes, pueden contribuir a crear o fijar el sentido de las categorías propuestas por el investigador. Ésta es sin duda una forma bien cualitativa de otorgar validez a las unidades de análisis utilizadas, las categorías, y por consiguiente, a la frecuencia, que constituye la modalidad natural de medida que permite cuantificarlas.
En cuanto a la generalización, plantea problemas metodológicos de un alcance que desborda con mucho el área del análisis de contenido. Podríamos decir que el análisis de contenido tiene los mismos problemas o condiciones de generalización que cualquier otra técnica o metodología cualitativa, ni más ni menos.
Ved también
Todo lo que se discutió en la parte final del módulo 6 de la asignatura Métodos de investigación cualitativa es directamente aplicable al análisis de contenido, particularmente el concepto de "caso" y las estrategias inductivas que permiten generalizar una constelación de casos.
La fiabilidad constituye la vertiente de la calidad de los datos donde más técnicas se han desarrollado.

3.2.Los diferentes enfoques de la fiabilidad en el análisis de contenido

En el análisis de contenido, la fiabilidad se puede enfocar en las tres mismas direcciones que contempla la metodología cualitativa en general: intraobservador, interobservadores y precisión.
En términos generales, la fiabilidad alude al grado en que se agrupan, coinciden o concentran dos o más medidas del mismo fenómeno, aunque esta idea remite inevitablemente, de una manera u otra, a la de estabilidad o consistencia de la medida en cuestión.
También en consonancia con los planteamientos generales de la calidad de datos en metodología cualitativa, el análisis de contenido puede entender la fiabilidad de diferentes maneras. En este contexto, no obstante, se mezclan las sistematizaciones y clasificaciones ad hoc que autores como Krippendorf han realizado –sistematizaciones hechas específicamente para el análisis de contenido– con las sistematizaciones que, en un plano muy general (y que por lo tanto abarca el análisis de contenido como una técnica más), hace décadas que realizan la metodología observacional y la metodología cualitativa. Como las diferentes terminologías y los matices de los conceptos en una y otra tradición pueden fácilmente generar confusiones, expondremos las clasificaciones desde los dos puntos de vista aunque, en la práctica, convergen en gran medida (aspecto que también nos encargaremos de subrayar).
Lecturas recomendadas

Ved K. Krippendorf (1990). Metodología del análisis de contenido. Barcelona: Paidós.

Es uno de los textos de referencia esenciales en el análisis de contenido de orientación cuantitativa. Aunque este autor es una cita obligada en cualquier manual de análisis de contenido, nosotros no nos apoyaremos directamente en él, ya que su posición metodológica no es precisamente cualitativa, aunque no podremos ignorar su opinión en relación con algunos temas. Si tenéis curiosidad por conocer un discurso sobre fiabilidad y validez más próximo al talante cualitativo, consultad la siguiente obra:

J. M. Kirk y M. Miller (1986). Reliability and Validity in Qualitative research. Beverly Hills (CA): Sage.

Hay que entender que, en perspectiva cualitativa, las técnicas que expondremos son recursos o herramientas que el investigador puede utilizar opcionalmente, en clave de complementariedad o de oportunidad, pero no forman el núcleo de la metodología. Como ya se afirmaba en la asignatura Métodos de investigación cualitativa, la variación en los juicios de un analista o la disparidad de los juicios de diferentes analistas no supone necesariamente un lastre en un proceso de investigación cualitativo; al contrario, pueden contribuir a enriquecerlo. Eso no excluye, en nombre del eclecticismo y del sentido común, que pueda ser útil disponer de una valoración cuantitativa de esta variación o disparidad.

3.2.1.Dimensiones de la fiabilidad en general (metodología cualitativa y observacional)
La metodología cualitativa y observacional estándar distingue tres tipos de fiabilidad. Recuperamos aquí algunos párrafos de la asignatura Métodos de investigación cualitativa, con el fin de conectar esta tipología general con la específica del análisis de contenido, dentro de este apartado.
Fiabilidad intraobservador
  • La agrupación o coincidencia de la medida se valora sobre diferentes juicios o enunciados de un mismo observador, relativos al registro, a la medida o a la interpretación.

  • En consecuencia, estos juicios o enunciados se dan a lo largo del tiempo.

  • Los diferentes juicios o enunciados se comparan respecto de su valor medio o con respecto a los elementos comunes que comparten; nunca respecto de un valor fijo o patrón de referencia. Por lo tanto, se pretende alcanzar la agrupación de registros, medidas o interpretaciones en esta dimensión; reducir o eliminar su variabilidad; no se pretende acertar un valor verdadero.

  • Es típica –aunque desde luego no exclusiva– de la psicometría, que la ha explorado a fondo en la dirección test-retest (la fiabilidad o estabilidad de un test se suele calcular a partir de la correlación entre los resultados de dos –o más– utilizaciones sucesivas de la prueba, separadas por un cierto intervalo temporal).

  • Formalmente, esta concepción de la fiabilidad se representa mediante una serie de registros o medidas de un mismo observador m1, m2..., mn, las cuales tienen que tender a ser iguales o no significativamente diferentes entre sí. En un registro categorial cualquiera la fiabilidad intraobservador se manifestaría en la coincidencia de los repetidos registros que un mismo observador hiciera de un mismo corpus de datos en ocasiones sucesivas.

  • Formalmente, la fiabilidad intraobservador se puede representar como una serie de medidas a lo largo del tiempo entre las cuales cualquier diferencia tiene que considerarse error.

Observador: m1 .................. m2................... m3 ............... ................ mn;
Error = mn - mn - k ; es decir, la diferencia entre dos o más medidas dentro de la serie
Fiabilidad interobservador
  • La agrupación o coincidencia de la medida se valora sobre diferentes juicios o enunciados de diferentes observadores, juicios relativos a operaciones de registro, medida o interpretación.

  • Estos juicios o enunciados se relacionan en el plano sincrónico, es decir, en un mismo punto o corte temporal, punto donde justamente se busca la coincidencia o acuerdo. A pesar de todo, puede interesar un seguimiento de estas coincidencias sincrónicas a lo largo del tiempo.

  • Igual que en la fiabilidad intraobservador, los diferentes juicios o enunciados se comparan respecto de su valor medio o con respecto a los elementos comunes que comparten; nunca respecto de un valor fijo o patrón de referencia. Por lo tanto, también en este caso se pretende alcanzar la máxima agrupación de los registros, no un valor verdadero de medida.

  • Ha sido tradicionalmente utilizada por la investigación observacional y de campo, generalmente en la modalidad de dos observadores que, una vez garantizada su equivalencia como instrumentos de registro, se ocupan de sectores diferentes de la recogida de datos. En este marco, se habla de concordancia o acuerdo entre observadores, los cuales se calculan, como enseguida detallaremos, mediante proporciones de acuerdo e índices probabilísticos.

  • En términos formales, hemos representado esta concepción de la fiabilidad limitada a dos observadores. Así tenemos dos series de medidas de dos observadores 1 y 2: m11, m12 ... m1n; m21, m22 ... m2n. Interesa que m11 m21;≅m12 m22, ≅ etc. Los valores obtenidos por los dos observadores en cada punto de tiempo 1, 2... n, tienen que ser iguales o no significativamente diferentes.

Observador 1: m11 .................. m12................... m13 .................. ................... m1n
Observador 2: m21 .................. m22................... m23 .................. ................... m2n
Comparaciones: : m11m21; m12m22; etc.
Error: m1n - m2n
Precisión
  • La agrupación o coincidencia de la medida se valora sobre juicios o enunciados procedentes de diferentes observadores/analistas o de diferentes sistemas de registro, uno de los cuales da el valor aceptado como verdadero.

  • Habitualmente, estos juicios o enunciados se relacionan en el plano sincrónico, es decir, en un mismo punto o corte temporal, punto donde justamente se busca la aproximación al valor de referencia. A pesar de todo, puede interesar un seguimiento de la evolución de estas aproximaciones a lo largo del tiempo (incluso en la perspectiva intraobservador o de un solo observador que repite la medida con el fin de acercarse al valor verdadero).

  • Al contrario que en las dos modalidades anteriores, ahora los diferentes juicios o enunciados se comparan respecto del valor o patrón de referencia que proporciona uno de los observadores o uno de los registros. Reiteramos, pues, que se pretende que registros, medidas o interpretaciones se acerquen al máximo posible a este patrón.

  • Ha sido a menudo utilizada por la investigación observacional y de campo. Las dos modalidades más corrientes han sido 1) la de comparar el registro, medida o interpretación de un observador experto o estándar con los de un observador no experto o falible; 2) la de comparar el registro, medida o interpretación de un observador falible con los obtenidos a partir de grabaciones o tratamientos informatizados del material. La aproximación a estos criterios se calcula a partir de índices parecidos a los utilizados en la fiabilidad interobservadores.

  • La representación formal es muy parecida a la de la fiabilidad interobservadores. La única diferencia con el planteamiento precedente reside en que ahora no comparamos dos series de valores de dos observadores equivalentes o del mismo estatus, sino dos registros de diferentes estatus: uno hecho por un experto, o de manera automática, y que se juzga libre de error (representado con subíndice 0), y otro sujeto a error (representado con subíndice 1).

Observador 0: m01 .................. m02................... m03 .................. ................... m0n
Observador 1: m11 .................. m12................... m13 .................. ................... m1n
Comparaciones: : m01m11; m02m12; etc.
Error: m0n - m1n
3.2.2.Dimensiones de la fiabilidad en el análisis de contenido
Como ya hemos avanzado, la metodología especializada en análisis de contenido propone con respecto a la fiabilidad unas distinciones muy parecidas a las anteriores.
Lecturas recomendadas

K. Krippendorf (1990). Metodología del análisis de contenido. Barcelona: Paidós.

Para un buen resumen de la obra de Krippendorf podéis leer la siguiente obra:

E. López-Aranguren (1989). El análisis de contenido. En M. García Ferrando, J. Ibáñez y F. Alvira (Comp.), El análisis de la realidad social. Métodos y técnicas de investigación (2.ª ed., pp. 383-414). Madrid: Alianza.

Estabilidad
La estabilidad alude a la consistencia de la representación del objeto de estudio en diferentes aplicaciones de un instrumento de medida o en diferentes mediciones por parte de un mismo analista. Por lo tanto, esta consistencia se apoyará sobre la igualdad de las medidas en cuestión o sobre sus diferencias minimizadas. En la práctica, se procura que la desviación típica del conjunto de medidas realizadas sea lo más pequeña posible. Se sobreentiende que, en esta perspectiva, el objeto de estudio permanece inmutable durante las operaciones de medida y que, en consecuencia, cualquier diferencia entre las sucesivas medidas de este mismo objeto constituyen errores de medida, no variaciones en el estado del objeto.
Dicho eso, es obvio que la estabilidad corresponde, punto por punto, a la fiabilidad intraobservadores.
Aunque en la definición de estabilidad hemos agregado algún matiz más, sin embargo su definición coincide en lo esencial con el concepto de fiabilidad intraobservador. Es cierto que la aplicación de la idea de estabilidad al vaciado y análisis de un texto exigirá alguna puntualización conceptual y técnica. En efecto, la fiabilidad intraobservador pedía una comparación de medidas a lo largo del tiempo: una medida hecha en un tiempo t1, una medida hecha en un tiempo t2, etc. Con el fin de poder repetir una y otra vez la misma medida con el objetivo de probar su estabilidad, el observador de campo tenía que grabar o filmar los sujetos, conductas o situaciones medidas si quería asegurar la invariabilidad de los fenómenos de referencia (a menos que, como en el caso de los tests clásicos se supusiera que ciertos rasgos del sujeto eran invariables). De lo contrario, al volver a acceder al objeto o al fenómeno, su estado ya habría cambiado. Y, como acabamos de indicar, es importante no confundir las variaciones propias del fenómeno con las variaciones debidas a errores de medida.
Cuando se trata de textos, este problema no existe. El texto, por definición, es invariable, una vez ha estado incluido y registrado en el corpus que hay que estudiar. El tiempo afectará al observador en su transcurso temporal y vital, pero no el texto, que tendría que quedar inmutable en el papel o en la pantalla.
En definitiva, en la técnica de análisis de contenido podemos conocer la estabilidad de una medida repitiéndola diversas veces sobre el mismo corpus o sobre los mismos segmentos de texto, separando prudentemente cada nueva prueba para evitar efectos de práctica. Después evaluaremos la constancia de los resultados sucesivos o, en el otro polo, su desviación típica.
Reproducibilidad
También bautizada como "objetividad", la reproducibilidad se refiere al grado en que dos o más analistas, provistos del mismo procedimiento de medida o recuento, obtienen los mismos resultados en mediciones realizadas sobre el mismo material de registro textual, dentro del mismo corpus. Los resultados se juzgan, entonces, reproducibles.
Intuitivamente, tendemos a asimilar rápidamente esta perspectiva a la de la fiabilidad interobservadores.
En principio, pues, la reproducibilidad corresponde, a la fiabilidad interobservadores.
No obstante, ahora hay que precisar los conceptos todavía más que en el caso de la fiabilidad intraobservador. Y ello como consecuencia de que, en la literatura sobre análisis de contenido, esta idea de objetividad suscita muchos malentendidos que intentaremos deshacer aquí.
Para empezar, la comparación entre los resultados de diferentes analistas que miden el mismo corpus se tiene que entender en unas determinadas condiciones. Éstas exigen que la metodología utilizada en los casos comparados sea la misma. Es decir, que el muestreo, segmentación, codificación, categorización y, naturalmente, la medida (habitualmente la frecuencia) sean idénticos, y que eso se garantice mediante la utilización de los mismos protocolos o planes de análisis. Así, los únicos factores que no quedan controlados son los analistas, en tanto que virtuales fuentes de error.
Congruencia
Cuando la validez convergente se plantea específicamente en textos sobre análisis de contenido se le suele dar el nombre de congruencia.
A menudo, esta condición no aparece clara en muchos manuales. Si comparamos medidas o resultados de dos observadores diferentes pero que utilizan segmentaciones, códigos o categorías diferentes, entonces no estaremos haciendo la comparación en el plano de la fiabilidad –o reproducibilidad– entre observadores, sino, lisa y llanamente, en el de la validez convergente. En otras palabras, estaremos comparando metodologías de registro y parrillas de análisis diferentes con la finalidad de comprobar si conducen a los mismos resultados y conclusiones; no estaremos comparando dos medidas hechas con el mismo protocolo y técnica de medida, que es a lo que se tendría que referir la idea de reproducibilidad si la situamos en el marco de la fiabilidad.
Por otra parte, la exigencia de sincronía temporal que, en el contexto de la fiabilidad interobservadores, se imponía para poder comparar en un punto de tiempo los resultados de los observadores, ahora no tiene demasiado sentido. Insistimos de nuevo en que el texto, una vez incorporado al corpus, no cambia y por eso el momento temporal en que los observadores-analistas recuenten o clasifiquen códigos y categorías no tiene demasiada importancia. Si un analista hace el vaciado del texto hoy y el otro lo hace al cabo de una semana, eso no afectará a la comparabilidad de los resultados (¡Siempre que su estado de salud física y mental no afecte al acto de medir!).
Establecimiento de los puntos temporales de comparación
Obviamente excluimos de estas consideraciones aquellos estudios en los que, justamente, lo que interesa es la evolución de un texto a lo largo de un periodo de tiempo. Entonces, claro está, los puntos temporales de comparación tendrán que establecerse con cuidado y respetarse.
En definitiva, en la técnica de análisis de contenido podemos proponernos otorgar un cierto grado de reproducibilidad a la medida, haciendo que diferentes analistas bien entrenados alcancen una considerable coincidencia en los resultados obtenidos de un mismo texto, ya fijado, con independencia del momento en que realicen las medidas. En palabras más técnicas, interesará que el acuerdo entre los resultados sea máximo o que la diferencia (o desviación típica, si son muchos los analistas comparados) entre ellos sea mínima.
Exactitud
Entendemos por exactitud el grado en que la medida se acerca a un valor ideal que se define convencionalmente como un patrón o referencia estándar de la medida.
El problema, ya conocido, se plantea cuando hay que decidir quién o qué establece este valor. En física, a menudo el valor ideal proviene de la aplicación de un aparato de medida de calidad en condiciones óptimas, aunque también se puede añadir a estas condiciones la de que el medidor sea un experto. En psicología, en el caso de un test, los aprendices de psicólogo pueden ir mejorando su interpretación y diagnóstico comparando sus resultados con los de un experto, clínico o educativo, que sea el que tome la responsabilidad de marcar el valor de referencia. En el análisis de contenido se puede seguir una táctica parecida: cuando hacen falta analistas para medir y vaciar un corpus abundante, un analista con experiencia puede fijar los valores de referencia (manualmente o con la ayuda de un programa de análisis), de manera que los analistas más novatos practiquen después el vaciado y el recuento del mismo texto hasta coincidir con aquellos valores. Un analista novato podría encontrar 46 veces una categoría en una sección de texto, mientras que el experto que lo entrena la puede haber encontrado 48 veces, diferencia que marcaría el nivel de precisión del primero.
En cualquier caso, es obvio que la exactitud corresponde a la precisión, entendiendo ambas a partir de la posibilidad de acercar la medida a unos valores de referencia considerados convencionalmente como verdaderos.
Al margen de esta filosofía de la búsqueda de la medida verdadera, la exactitud o la precisión basan sus comparaciones en los resultados obtenidos por dos o más observadores o aparatos de medida, como cuando se trata de fiabilidad interobservadores o reproducibilidad. Por lo tanto, los comentarios que hemos hecho en el subapartado 3.2.1, también son aplicables aquí.
Los conceptos de fiabilidad como estabilidad, reproducibilidad y exactitud, propios del análisis de contenido, guardan una casi total correspondencia con los tres conceptos de fiabilidad contemplados por la metodología cualitativa.

3.3.La aproximación correlacional a la fiabilidad

La estabilidad u o el grado de coincidencia entre dos registros se pueden calcular a partir de su correlación lineal.
Tal como confiamos en haber aclarado, la búsqueda de fiabilidad implica, en la práctica, la comparación de dos o más series de datos con el fin de evaluar su grado de coincidencia. En la perspectiva de la estabilidad, el horizonte del investigador es conseguir que sucesivos registros sean o acaben siendo iguales o casi iguales, demostrando así la consistencia de sus criterios de categorización y el rigor de sus recuentos o cálculos. En la perspectiva de la reproducibilidad y, por lo tanto, de la fiabilidad interobservadores, el objetivo apuntará igualmente a la convergencia de las medidas de los diferentes analistas. En la de la exactitud o precisión, lo que interesará particularmente será el acercamiento de los resultados de unos o más analistas falibles o inexpertos a los de un analista experto.
En todas estas perspectivas, pues, podemos necesitar una herramienta para la valoración cuantitativa de esta coincidencia, equivalencia o convergencia de registros o medidas. Decimos "podemos" porque también hay que puntualizar que un talante científico pero plenamente cualitativo podría prescindir, en su rutina de trabajo, de esta cuantificación. La consecución de la estabilidad como igualdad en dos o tres series de medidas consecutivas puede revelarse por una simple inspección de las medidas, "a ojo" (aunque también, preferentemente, sobre su representación gráfica). Y el acercamiento y la coincidencia final de dos o más series de datos, generados por los correspondientes analistas, puede resolverse a través de la negociación y el consenso entre ellos, a través de un examen y discusión conjuntos de los criterios de categorización y de vaciado que lleven a una mayor sinergia en el proceso de medida.
Sin embargo, si consideramos que una referencia cuantitativa puede ser un apoyo importante a la hora de calibrar el grado de fiabilidad conseguido, disponemos de diferentes herramientas estadísticas o probabilísticas en forma de coeficientes o de índices. Nos detendremos en los dos más utilizados y más justificados desde un punto de vista técnico: la correlación y el índice probabilístico kappa.
La correlación se ha utilizado de manera típica y habitual en el ámbito de la fiabilidad intraobservadores aplicada a tests. Como ya hemos indicado y es bien conocido, la estabilidad de los resultados de la aplicación de un test se suele valorar mediante la correlación entre los resultados de dos administraciones consecutivas del instrumento, separadas por un cierto intervalo de tiempo, según el esquema test-retest. En esta modalidad (y nos estamos refiriendo a la más simple) se busca concretamente el coeficiente r de Pearson entre las puntuaciones obtenidas en las dos administraciones, a partir de la fórmula producto-momento.
Si un analista de texto pretende conocer el grado de estabilidad o consistencia de sus medidas, podrá buscar también la correlación r entre dos o más series de datos obtenidos sobre el mismo texto, en dos momentos distintos.
Ejemplo de aproximación correlacional a la fiabilidad
Pasemos a exponer un ejemplo, bajo el supuesto de que las medidas son de frecuencia. Un analista ha hecho dos recuentos de unas categorías A, B, C, D, E, F, G con una semana de separación, con el objetivo fácilmente deducible de comprobar que los dos recuentos coinciden, o saber en qué grado coinciden.
Los dos registros dan los siguientes valores:
Categorías:
A
B
C
D
E
F
G
1.er registro
13
9
21
34
5
17
12
2.º registro
15
10
19
29
5
15
13
La correlación es r = 0,987.
Ésta es una correlación positiva muy alta. Aun así, es obvio que la coincidencia entre los dos registros no es grande. Este tipo de incongruencias deriva de las características de la correlación, que es una herramienta útil pero a la cual no se le puede pedir aquello que no puede dar. La correlación nos informará sobre la intensidad y la dirección de la relación lineal matemática entre las dos series, pero no será capaz de decirnos si hay realmente coincidencia.
Si una de las series se hubiera obtenido antes de Navidad, en unas buenas condiciones mentales, y la segunda inmediatamente después, todavía con resaca de las fiestas, y en esta segunda las frecuencias hubieran estado sistemáticamente muy aumentadas o disminuidas con respecto a las del primer registro, la correlación también habría resultado alta, aunque la coincidencia hubiera sido más escasa todavía. Si, por ejemplo, en el segundo registro todas las frecuencias estuvieran 5 unidades por encima de las del primero, r daría valor 1, de manera bastante engañosa. Existen procedimientos para averiguar si la correlación indica coincidencia o, simplemente, correspondencia matemática entre series de datos, pero aquí nos limitaremos a recomendar la inspección gráfica de los resultados, con el fin de apreciar si éstos tienen un recorrido paralelo o hay una auténtica aproximación o coincidencia.
En el ejemplo expuesto, una breve inspección nos indica, en la tabla y en la siguiente figura, que el analista tiende claramente en el segundo registro a aumentar los registros bajos y a reducir los altos. Sin embargo, el registro con frecuencia más baja (el de la categoría E) permanece igual, probablemente porque la poca magnitud de la cifra tolera menos margen de error.
10525_m3_14.gif
Las dificultades como las que acabamos de presentar, que acompañan a la interpretación de un coeficiente de correlación en el contexto de la fiabilidad cualitativa, aconsejan el uso de índices con una base más probabilística y que suministren una información más pertinente en relación con la coincidencia de medidas.
A mayor abundamiento, hay que darse cuenta de que el cálculo que acabamos de realizar se basaba en las frecuencias globales de cada categoría con respecto al total del texto analizado. Ahora bien, puede interesarnos una estimación más detallada de la coincidencia basada, no en el cómputo global, sino en cada registro local, en cada unidad o segmento y según una determinada regla de enumeración. Eso significaría que los registros se compararían línea a línea, párrafo a párrafo o página a página.
El coeficiente de correlación entre dos registros como estimador de la fiabilidad plantea algunas dificultades en su interpretación y se limita a la comparación de las medidas globales sobre un texto.

3.4.La aproximación probabilística y ''punto por punto'' a la fiabilidad

El índice más aceptado actualmente para estimar el grado de acuerdo entre dos analistas es el kappa de Cohen.
3.4.1.Acuerdo o coincidencia sobre la totalidad del sistema de categorías
Al comparar dos registros con sus correspondientes medidas manejaremos más información y, por lo tanto, podremos extraer conclusiones más sólidas sobre fiabilidad; sabremos que lo que se compara no son las medidas globales tomadas por dos analistas diferentes ni las medidas globales diferentes tomadas por un mismo analista, sino cada uno de los registros realizados en cada segmento o contexto de medida del material examinado.
De ahí que, por ejemplo, no contrastemos dos frecuencias totales de una categoría X, obtenidas en dos computaciones diferentes del mismo corpus examinado (digamos, por ejemplo, dos frecuencias como 34 y 29 en el ejemplo del apartado anterior); lo que contrastaremos será cada una de las asignaciones de categoría realizadas: controlaremos que en la línea 79, en el párrafo 12 o en la página 3 se haya asignado la misma categoría, dentro de cada uno de dos registros consecutivos de un mismo analista o en dos registros de dos analistas diferentes; y así en todas las unidades del texto. Todo este razonamiento y lo que sigue podría igualmente aplicarse a cualquier número de registros (tres, cuatro, etc.), pero en las ejemplificaciones que pongamos en marcha a partir de ahora nos ceñiremos al caso de dos, que aun así es el más utilizado.
Ejemplo de acuerdo y coincidencia sobre la totalidad del sistema de categorías
Prestemos atención a las siguientes tablas. Cada una de ellas representa uno de los dos registros comparados, pongamos que de dos analistas diferentes. En las filas figuran las categorías de análisis, A, B, C; en las columnas, los segmentos o contextos de medida que en este ejemplo hemos decidido que fueran los párrafos.
Párrafo:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
T
Analista n.º 1
A
X
X
X
X
X
X
X
X
8
B
X
X
X
3
C
X
X
X
X
X
X
X
X
X
9
Párrafo:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
T
Analista n.º 2
A
X
X
X
X
X
X
X
X
X
9
B
X
X
X
X
4
C
X
X
X
X
X
X
X
7
Analista 2
Analista n.º1
A
B
C
Total
A
7
0
1
8
B
1
2
0
3
C
1
2
6
9
Total
9
4
7
20
Con el propósito de simplificar y resaltar los aspectos más nucleares de la técnica, hemos supuesto, de momento, que el sistema de categorías es exhaustivo y exclusivo y que, por consiguiente, las categorías no se pueden encabalgar dentro de un párrafo: cada párrafo sólo puede contener una categoría y no cabe ningún párrafo "vacío", es decir, sin categoría.
Con este tipo de información no tenemos excusa para limitarnos a comparar las tres frecuencias globales de las tres categorías, 8 y 9, 3 y 4, 9 y 7, respectivamente. Ahora, párrafo a párrafo, estamos capacitados para detectar las coincidencias o discrepancias entre los dos analistas. Así se ve que, en el primer párrafo, los dos analistas han asignado la categoría A; en el segundo, la B y en el tercero ya se ha producido una discrepancia, pues el primer analista ha registrado C mientras que el segundo ha preferido B. Y así podríamos ir revisando los sucesivos registros del ejemplo hasta el párrafo 20.
A partir de tablas de registro como la anterior se construye una tabla o matriz de confusión, en la que se colocan los registros de manera adecuada con vistas a su tratamiento posterior. Ésta es una tabla simétrica en la que tanto en las filas como en las columnas aparecen los registros de cada uno de los analistas. Al cruzarse los valores en las casillas nos indican el número de coincidencias y discrepancias.
Así, por lo que respecta a la categoría A, los dos analistas habrían coincidido siete veces; por lo que respecta a la B, dos veces y por lo que respecta a la C, seis veces. En cambio, en una ocasión el analista n.º 1 habría visto A, mientras que el analista n.º 2 habría visto C, o dos veces el analista n.º 1 habría consignado C mientras que el analista n.º 2 habría consignado B; etc. Los totales de fila representan el número total de veces que el analista n.º 1 ha visto cada una de las tres categorías; los totales de columna, el número total de veces que el analista n.º 2 ha visto cada una de las tres categorías.
Con este arreglo de coincidencias y discrepancias, de acuerdos y desacuerdos, podemos calcular primeramente una sencilla proporción, de acuerdo con la totalidad del sistema de categorías:
Proporción de acuerdo = número de acuerdos / número total de ocurrencias
El número total de ocurrencias es, evidentemente, el número de acuerdos más el número de desacuerdos.
En una tabla de confusión como la anterior, dicha proporción se deriva directamente de la diagonal principal, ya que en ella se localizan los acuerdos o coincidencias. Por lo tanto:
Proporción de acuerdo con respecto a A, B, C =7 + 2 + 6 / 20 = 0,75
Parecería pues legítimo afirmar que los dos analistas han alcanzado un 0,75 de acuerdo o coincidencia (o un 75%). Y así se entendió durante décadas en el ámbito de la metodología psicológica, hasta que se empezaron a alzar voces que reclamaban el papel del azar en la magnitud del acuerdo.
Efectivamente, una parte de la coincidencia entre dos analistas, concebidos como dos sistemas independientes de registro, se puede deber al azar. Los dos analistas hacen el registro por separado y, en consecuencia, el hecho de que extraigan de un mismo segmento de texto una A, una B o una C puede deberse a la casualidad. En el ejemplo al que nos estamos remitiendo, la probabilidad de que el analista n.º 1 apunte A en cualquier segmento de texto podrá estimarse con 8 / 20; la de que el analista n.º 2 apunte A en idénticas condiciones, con 9 / 20. La probabilidad de que los dos apunten A será, pues, 8 / 20 x 9 / 20 = 0,18. Podríamos, claro está, repetir el mismo razonamiento probabilístico con B y C. En cualquier caso, se infiere de este razonamiento que esta parte del acuerdo debida al azar habría de "restarse" o "separarse" del acuerdo aparente antes calculado.
La historia de los índices que han tratado de conseguir esta separación de una manera lógica y matemáticamente correcta es apasionante, pero la omitiremos aquí. Hay una larga lista de índices con diferentes patentes, ideados por diferente autores y utilizados en diferentes ámbitos científicos y aplicados de la psicología. No obstante, el índice que se ha impuesto, por su calidad y su relativa facilidad de cálculo, es el kappa de Cohen:
ĸ = po - pe / 1 - pe
po es la proporción de acuerdo observada o empírica a la que nos acabamos de referir; pe es la proporción esperada de acuerdo, es decir, aquella que se puede deber al azar. En el numerador figura la resta de estos dos valores que nos tienen que dar el valor real del acuerdo, ya neutralizado el azar. El denominador permite estandarizar esta diferencia.
Acabamos de mostrar cómo se computa po. Con respecto a pe el cálculo se lleva a cabo siguiendo el mismo razonamiento probabilístico que hemos iniciado unas frases más arriba. Ya hemos explicado que la probabilidad de acertar ambos por casualidad al registrar A en una misma localización del texto sería
pAA = 8 / 20 x 9 / 20 = 0,18
Entonces,
pBB = 3 / 20 x 4 / 20 = 0,03
pCC = 9 / 20 x 7 / 20 = 0,1575
La suma de estas tres probabilidades nos permitirá estimar la probabilidad global de que coincidan ambos analistas. Efectivamente, ahora consideraremos como acontecimientos dependientes las tres coincidencias AA, BB y CC; ya que la magnitud de una afecta a la de las otras. En consecuencia, las probabilidades pueden sumarse.
Otra fórmula
Generalmente, sin embargo, el cálculo no se presenta así en los manuales, sino mediante la fórmula abreviada de "suma de los productos de filas y columnas correspondientes / total de ocurrencias al cuadrado". En nuestro caso pe = [(8 x 9) + (3 x 4) + (9 x 7)] / 202. No hay que añadir que se trata del mismo cálculo un poco más mecanizado.
pe = pAA + pBB + pCC = 0,18 + 0,03 + 0,1575 = 0,368
Como ya tenemos los valores necesarios, po y pe, sólo queda sustituirlos en la fórmula de ĸ que hemos insertado más arriba:
ĸ = 0,75 - 0,368 / 1 - 0,368 = 0,382 / 0,632 = 0,6044
Se aprecia, pues, que la proporción de acuerdo calculada antes se convierte en fuerza corregida: hemos bajado de 0,75 a 0,60; hemos suprimido el efecto del azar en el acuerdo.
Nota
Hay maneras de estimar la significación de ĸ como si de una puntuación z se tratara, pero adolecen de una considerable complejidad.
En la práctica investigadora se considera que un valor de ĸ superior en 0,7 garantiza en gran medida el acuerdo, aunque hay opiniones que se conforman con valores inferiores.
En cualquier caso, la ĸ que hemos obtenido nosotros deja bastante que desear.
No obstante, hay razones serias para no temer valores bajos de ĸ. La crítica principal, a nuestro parecer, se refiere al carácter excesivamente conservador de este índice, que puede dar, en determinadas circunstancias, magnitudes de acuerdo muy por debajo del acuerdo real. No obstante, es necesario tener en cuenta que este problema se puede mitigar aceptando valores relativamente bajos de ĸ, tal y como acabamos de sugerir.
Polémica en torno a k
Hace falta decir que la popularidad de ĸ molesta a autores importantes como Krippendorf por razones técnicas, en rigor justificadas, que no comentaremos en este punto.
Por otra parte, el índice alternativo que propone Krippendorf es α = 1 - do / de, donde do i de, donde do y de son el desacuerdo observado y el esperado. Este índice, sin embargo, obliga a un cálculo bastante tedioso y complicado; seguramente por eso no se utiliza demasiado.
Un índice que se ha utilizado bastante en el contexto del análisis de contenido es el π de Scott, que cuenta con una fórmula conceptualmente idéntica a la de ĸ. La diferencia radica en la forma de entender el número total de ocurrencias. En nuestro ejemplo sería de 20 + 20 = 40, interpretando que cada analista haya hecho, por su cuenta, 20 actos de asignación categorial. En consecuencia, también será diferente la forma de calcular pe a partir de las probabilidades correspondientes.
Bajo este punto de vista, la probabilidades de acuerdo se entenderían de acuerdo con la distribución conjunta de asignaciones categoriales:
  • El analista n.º 1 habría detectado A con pA = 8+9 / 40; B con pB = 3+4 / 40; C con pC = 9+7 / 40.

  • El analista n.º 2 habría participado con idénticas probabilidades a las del n.º 1. Estas probabilidades, una vez realizadas las operaciones, serían de nuevo 0,43; 0,18 y 0,40, respectivamente.

Entonces, multiplicando las probabilidades de uno y otro, como en el caso de ĸ, nos quedará una suma de cuadrados (ya que las probabilidades son idénticas):
pe = 0,432 + 0,182 + 0,402 = 0,377
Con este valor, y aplicando la misma fórmula que en el caso de ĸ,
π = 0,75 - 0,377 / 1 - 0,377 = 0,6051
Como podéis comprobar en un ejemplo sencillo como el que hemos utilizado aquí, la diferencia entre ambos índices resulta de mínima importancia.
Lecturas recomendadas

Con relación a los valores aceptables de ĸ, podéis consultar el texto ya citado de Bakeman y Gottman (1989, pág. 114).

Con relación a la crítica de Krippendorf y al cálculo comparado de ĸ, π y α, consultad Neuendorf, K. A. (2002). The Content Analysis Guidebook. Thousand Oaks (CASA): Sage (págs. 150 y sigs.)

3.4.2.Acuerdo o coincidencia sobre una categoría en concreto
Hasta aquí hemos desarrollado argumentos y ejemplos relativos a la valoración del acuerdo sobre el uso de un sistema de categorías entero, S = {A, B, C}. No nos tiene que sorprender, sin embargo, que el investigador se interese por el acuerdo de una de las categorías del sistema y no por la totalidad de éste. El procedimiento de estimación es muy parecido a lo que acabamos de exponer. La diferencia principal reside en la tabla de confusión de partida, que en este caso contrasta los registros de una categoría con los del resto. Una tabla de este tipo se puede derivar de una tabla general como la que hemos utilizado en el apartado anterior. Imaginemos que en vez de buscar ĸ para A, B y C la busquemos para A solamente. En ese caso la tabla adoptaría la siguiente forma:
Analista n.º 2
A
No A
Total
Analista n.º 1
A
7
1
8
No A
2
10
12
Total
9
11
20
La casilla ANoA con frecuencia 1 resulta, pues, de la suma de las casillas AB y AC de la tabla anterior; la casilla NoAA con frecuencia 2, de la suma de las casillas BA y CA; finalmente, la casilla NoANoA resume con frecuencia 10 a las casillas BB, BC, CB y CC de la primera tabla. Sobre estos cuatro valores, 7, 1, 2, 10, y sus totales de fila y columna, calculamos ĸ de la manera que hemos descrito.
po = 7 + 10 / 20 = 0,85
Ahora, para ir ya a lo que nos ocupa, calcularemos pe mediante la receta "suma de los productos de filas y columnas correspondientes / total de ocurrencias al cuadrado".
pe = [(8x9) + (11x12)] / 202 = 0,51
ĸ = 0,85 - 0,51 / 1 - 0,51 = 0,34 / 0,49 = 0,6939
Así pues, esta ĸ centrada en la categoría A tiene un valor superior a la ĸ general. Por sí misma esta categoría ha planteado menos problemas de acuerdo que la totalidad del sistema.
3.4.3.Acuerdo cuando no se cumple la condición de exhaustividad
Al iniciar la exposición de ĸ hemos simplificado las condiciones de aplicación suponiendo que se cumplían las condiciones de exclusividad y exhaustividad. De hecho, que se cumpla la condición de exclusividad en categorías de análisis de contenido no es una condición excesiva, sino todo lo contrario. Si entendemos correctamente esta condición como la exigencia de que cada segmento o unidad de análisis sea atribuido a una única categoría y nada más que a una única categoría, esta exigencia no constituye una simplificación abusiva ni se tiene que ver como una artimaña. Al revés: es el criterio lógico nuclear que confiere rigor y calidad a una definición o clasificación categorial. Si cada segmento fuera asignable a más de una categoría, el sistema resultante sería borroso y la medición, imposible.
Cuando se da la condición de exhaustividad
El cumplimiento de esta condición depende a menudo de haber tenido éxito en la segmentación realizada. Puede darse la circunstancia, por ejemplo, de que una frase compleja pueda ser asignada a dos categorías, pero si la subdividimos en dos frases simples el problema desaparece y cada una de estas frases corresponde entonces nítidamente a una categoría distinta.
Por otra parte, no hay que confundir esta condición, tal y como la acabamos de presentar, con la de que los indicadores o rasgos de cada categoría sean exclusivos. Ya sabemos que una categoría puede tener indicadores exclusivos o bien tener una combinación particular. Una oración, tomada como unidad textual, tiene que ser atribuida a una sola categoría, pero los elementos que definen esta categoría pueden encontrarse sólo en ella (en cuyo caso la oración sólo tendrá rasgos de esta categoría) o bien pueden encontrarse también en otras categorías, combinados con otros diferentes (en cuyo caso la oración tendrá elementos de esta categoría y de otras, ya que algunos son compartidos).
En cambio, la condición de exhaustividad no tiene por qué cumplirse siempre. Por ejemplo, en el análisis evaluativo que hemos descrito más arriba, el interés del investigador iba dirigido específicamente a frases con contenido evaluativo relacionadas con objetos de actitud; de manera que durante la progresiva revisión del texto escogido podían encontrarse segmentos no categorizables. La situación de dos analistas ante el texto sería entonces diferente a la que hemos imaginado hasta ahora. En las tablas de confusión ya comentadas, cuando un analista no detectaba una categoría eso comportaba necesariamente que detectara otra (si no veía A, veía B o C). Pero si el sistema no es exhaustivo con respecto al texto, podrá darse el caso de que un analista detecte una categoría y el otro no detecte ninguna. Este hecho obliga a modificar la tabla de confusión, tal y como se hace patente en la siguiente disposición de filas y columnas:
Analista n.º 2
Analista n.º1
A
B
C
Ninguno
Total
A
B
C
Ninguno
Total
Una vez hecho el recuento, la falta de categoría se trata como una categoría más. Este truco lógico se puede contemplar desde otro punto de vista: en realidad lo que hemos hecho es definir una categoría cero o vacía, como las que hemos caracterizado al final del capítulo 2. De esta manera, con la ayuda de esta categoría se cumple la condición de exhaustividad y la tabla en la que aparece no presenta ninguna diferencia respecto a las que hemos visto hasta el momento.
Las proporciones de acuerdo y la ĸ se calculan en relación con este arreglo y según los mismos procedimientos que hemos expuesto hasta aquí.
La bondad de kappa sobre otros índices de intención parecida es que corrige la parte de acuerdo que puede deberse al azar.

4.Síntesis del análisis de contenido

4.1.Un ejemplo integrador: La meditación trascendental a través de sus documentos

Una investigación de análisis de contenido puede y suele combinar elementos de metodología cualitativa con otros de metodología cuantitativa.
El ejemplo que os ofrecemos ahora se presenta a vista de pájaro pero, en compensación, seguramente garantice más verosimilitud al tratarse del resumen de una investigación entera. De ésta hemos extraído aquello que era inseparable de las decisiones metodológicas esenciales. El punto de vista será más general y eso nos permitirá distinguir con más claridad las fases típicas de una investigación de análisis de contenido tal y como se han secuenciado aquí.
Lectura recomendada

El artículo de referencia es E. Woodrum (1984). Mainstreaming Content Analysis in Social Science: Methodological Advantages, Obstacles and Solutions. Social Science Research, 13, 1-19.

La parte que resumimos ahora se encuentra entre las págs. 8 y 18.

1) Objeto de estudio e hipótesis. El autor se propone estudiar un movimiento de cariz religioso conocido como "Meditación Trascendental" mediante sus documentos y registros de observación participante.
Más concretamente, el foco del estudio apunta a la expresión de creencias en los textos y a la ejemplificación de roles sociales y obligaciones asumibles por los feligreses. Se sostiene la hipótesis siguiente: con el tiempo, los contenidos de los textos, tanto en relación con las creencias como con las obligaciones, irá derivando hacia una popularización o carácter populista de los temas.
"Popularización" quiere decir que los contenidos religiosos se convierten en menos espirituales y están más abocados a las cosas terrenales y a la práctica cotidiana. Este giro de la espiritualidad hacia la vida cotidiana se capta a través de las referencias a los beneficios mundanos de la ortodoxia, al rendimiento personal y social de rituales y ceremonias, a la accesibilidad de Dios, a la inutilidad de ciertos conflictos y esfuerzos y –por contra– a la utilidad de las actitudes conservadoras...
Los valores de la variable tiempo, esenciales para evaluar estos cambios temáticos, vienen garantizados por el año de publicación de los libros, revistas y documentos examinados.
2) Selección y muestreo. Respecto al muestreo intertextual, los textos seleccionados quedan englobados en un periodo de 20 años; desde la fundación del movimiento (1961) hasta los primeros síntomas de crítica.
Se aceptan dentro del corpus todos aquellos materiales que puedan considerarse documentos oficiales de la doctrina y que describan creencias, prácticas y objetivos sociales. Más concretamente, son oficiales los documentos que cumplen al menos una de estas condiciones:
a) ser publicado por la prensa privada del movimiento,
b) ser escrito por un representante conocido y aceptado del movimiento,
c) ser recomendado en una de las listas enviadas a los militantes y simpatizantes del movimiento desde su sede central.
Sobre esta base se recopilan 5.716 páginas de literatura sobre meditación trascendental, pero el periodo de estudio queda reducido a 16 años; intervalo durante el cual se publicó material que cumplía al menos con una de las tres condiciones a), b), c).
El muestreo intratextual se resuelve por procedimientos aleatorios y cuotas proporcionales a la extensión de cada documento del corpus. De esta manera se escogen veinticinco párrafos por año y, por lo tanto, el material definitivo sujeto a análisis es de 25 x 16 = 400 párrafos.
3) Unidades de análisis. La unidad textual es la palabra. El análisis trabaja sobre un inventario de veintiséis palabras que (situadas en su contexto) sirven de indicadores de las categorías que enseguida mencionaremos.
La unidad de contexto (interpretativa) es la oración. Por lo tanto, la unidad de registro texto - contexto es la palabra - oración.
4) Categorías. El autor encuentra 19 categorías temáticas construidas a partir de diversas combinaciones de las 26 unidades de registro una vez codificadas, las cuales funcionan como indicadores semánticos.
"Iluminación" y "espíritu" son indicadores de categorías de religión espiritual, mientras que "trabajo" o "salud" lo son de categorías de religión popular o popularizada, más dirigida a los intereses seculares.
El autor fundamenta el valor de estos indicadores en sus estudios anteriores sobre la distinción entre religión popular o terrenal, por una parte, y religión mística o espiritual, por la otra.
El criterio de exhaustividad no se cumple totalmente, ya que en un 3% del corpus textual (los 400 párrafos) no aparece ninguna de las 19 categorías previstas.
5) Medidas. Se hacen medidas de frecuencia a dos niveles, contando los indicadores o unidades de registro (palabras - oración) y contando también las categorías temáticas.
Como regla de enumeración o contexto de referencia de la medida se utiliza el párrafo.
Tenemos, pues, medidas de frecuencia de palabra/párrafo y de categoría/párrafo en cada intervalo anual estudiado. De esta manera se puede validar la relación entre unidades de registro y categorías, a la vez que se establecen dos niveles de análisis de la popularización de temas religiosos.
6) Fiabilidad. La fiabilidad se enfoca desde el punto de vista de la consistencia interna del repertorio de palabras y del sistema de categorías. Se utiliza un coeficiente correlacional diferente al ejemplarizado aquí, el alfa de Cronbach.
No se calculan medidas de intensidad o dirección.
7) Resultados y análisis. La hipótesis del autor se sostiene gracias a:
  • La alta correlación entre la serie de años de publicación y las medidas correspondientes de las categorías temáticas, con tendencia creciente a ir hacia la popularización de temas de año en año. La correlación entre años y medidas de palabras no fue tan significativa.

  • El análisis de la varianza, con niveles de confianza superiores también en el caso del efecto del tiempo sobre las categorías temáticas.

Nota
Tened en cuenta que todas las inferencias que han permitido las medidas apuntan a una institución como autora de los textos.
8) Resultados y análisis. Los textos oficiales de la Meditación Trascendental han ido popularizando sus contenidos a lo largo del periodo de estudio.
Una investigación de análisis de contenido puede realizar seguimientos en perspectiva longitudinal con el fin de saber la influencia del tiempo en los textos.

4.2.Sinopsis final en forma de diagrama

Una investigación de análisis de contenido puede ser representada mediante una secuencia de operaciones parecida a la que exige la ejecución de un plano.
En el esquema adjunto os ofrecemos una posible columna vertebral de la secuencia de operaciones y acciones necesarias para llevar a cabo un análisis de contenido completo, desde su punto de partida –el establecimiento de un universo documental– hasta las diferentes direcciones de análisis que se pueden seguir de acuerdo con los datos obtenidos. Todas estas operaciones han sido especificadas y desarrolladas en los apartados previos.
Nos hemos ahorrado los retrocesos que toda investigación tiene que aceptar. En el dibujo hemos distinguido con dos tonalidades de color las operaciones de medida –por definición más "cuantitativas"– de las operaciones puramente cualitativas (selección, codificación, categorización, etc.).
m3_100.gif
Las operaciones necesarias para llevar a cabo un análisis de contenido muestran un claro paralelismo con las que exige cualquier investigación observacional o cualitativa

Bibliografía

Bardin, L. (1996). . Madrid: Akal.
Duverger, M. (1975). (8.ª ed., pp. 182-183). Barcelona: Ariel.
Grbich, C. (2007). (pp. 116 y ss.). Los Angeles: Sage.
Karsenti, T.; Larose, F. y Núñez, M. (2002). La apertura universitaria a los espacios de formación virtual: Un reto a la autonomía estudiantil. , 4 (1), 1-18.
Kirk, J. M. y Miller, M. (1986). . Beverly Hills (CA): Sage.
Kohlbacher, F. (2006). The Use of Qualitative Content Analysis in Case Study Research. [On-line Journal], 7 (1), enero. Art. 21. Recuperado el 10 de enero del 2009 desde https://www.qualitative-research.net/index.php/fqs/article/view/75/154
Krippendorf, K. (1990). . Barcelona: Paidós.
López-Aranguren, E. (1989). El análisis de contenido. En M. García Ferrando, J. Ibáñez, F. y Alvira (Comp.), (2.ª ed., pp. 383-414). Madrid: Alianza.
Mayntz, R.; Holm, K. y Hübner, P. (1975). . Madrid: Alianza.
Mayring, P. (2000). Qualitative content analysis. 1 (2), junio. Art. 20. Recuperado el 5 de octubre del 2004 desde https://www.qualitative-research.net/fqs-texte/2-00/2-00mayring-e.htm
Neuendorf, K. A. (2002). (pp. 150 y ss). Thousand Oaks (CA): Sage.
Penalva, C. y Mateo, M. A. (2006). . Departament de Sociologia II, Psicologia, Comunicació i Didàctica, Universitat d'Alacant, Secretariat de Promoció del Valencià, Universitat d'Alacant; Conselleria de Cultura, Educació i Ciència. Recuperado el 15 de agosto del 2008 desde https://biblioteca.universia.net/ficha.do?id=35524203
Pérez Serrano, G. (1994). . Madrid: La Muralla.
Quivy, R. y Van Campenhoudt, L. (1997). . Barcelona: Herder.
Weber, R. P. (1990). . Newbury Park (CA): Sage.
Woodrum, E. (1984). Mainstreaming. Content Analysis in Social Science: Methodological Advantages, Obstacles and Solutions. , 13, 1-19.