Anexos
1.Anexo 1: El informe cualitativo
1.1.Consideraciones generales
E. Lyons y A. Coyle (Eds.) (2007). Analysing Qualitative Data in Psychology. London: Sage.
Al final de este texto (pp. 205 y ss.) tenéis una útil presentación de cuatro modelos de informe procedentes de cuatro orientaciones diferentes de la metodología cualitativa.
1.2.Los mínimos exigibles en un informe cualitativo
-
Requiere unas habilidades expresivas y comunicativas que van más allá de la autocomplacencia. Aquello que se escribe tiene que ser entendido y no tiene que gustar sólo a uno mismo.
-
Una consecuencia de la exigencia anterior es que el informe tiene que estar escrito en función de los destinatarios o audiencias que lo tienen que leer y comprender. No se escribe un informe profesional dirigido a una institución o empresa igual que un informe científico destinado al colectivo académico, ni que un texto que tiene que leer un público amplio e interdisciplinario.
-
Hay que escribir desde el principio de la investigación; es muy desaconsejable dejarlo para el final, como si hubiéramos de "pasar en limpio" en última instancia el trabajo realizado. Eso no quiere decir exactamente que el investigador tenga que empezar el informe el primer día de investigación; sería una incongruencia, ya que tiene poca cosa sobre la que informar. Pero recordamos que las mismas operaciones de registro en forma de memos, notas o diarios de investigación suponen una actividad de escritura perfectamente aprovechable a la hora de redactar el informe final.
-
La actividad de escribir en cada fase y momento de la investigación ayuda a ir perfilando los conceptos y las líneas de avance, desde la propuesta y el itinerario iniciales, puramente tentativos, hasta las consecuciones finales, forzosamente concretas y delimitadas. En este proceso, aparte de aclarar las ideas, surgen otras nuevas. En suma, el simple acto de escribir contribuye a desbrozar el camino y avistar mejor las metas.
-
Tiene que quedar bien patente la importancia de los temas y cuestiones tratadas, dentro de un determinado campo de interés.
-
Hay que trabajar particularmente sobre aquello que enriquece o completa la investigación en el área de referencia, o añade algún conocimiento significativo, teórico o práctico.
-
Hay que presentar con claridad todas las fases de la exposición: hay que establecer el marco o marcos teóricos dentro de los que se sitúa el autor, la literatura en la que se apoya, las fuentes y condiciones de obtención de los datos, la lógica de la argumentación, etc. Aquí se aplican principios generales comunes a todas las metodologías científicas, de un tipo u otro.
-
En particular, la coherencia metodológica tiene que quedar bien demostrada. El enfoque cualitativo reclama, como el cuantitativo, que haya una correspondencia básica entre el objeto de estudio y la metodología aplicada. Una entrevista en profundidad sin un conocimiento previo de los sujetos difícilmente puede rendir resultados consistentes; un análisis de contenido exclusivamente sintáctico no nos dará información sobre los contextos de uso del lenguaje; etc. Lo que se decide en este punto es la pertinencia de las reglas del juego utilizadas. Y éstas tienen que estar expuestas con absoluta transparencia.
1.3.Las fases de construcción de un informe cualitativo
2.Anexo 2: Tratamiento informático de datos cualitativos
2.1.Generalidades sobre la informatización del análisis de datos cualitativos
Podéis consultar:
A. Coffey; B. Holbrook; P. Atkinson (1999). Qualitative Data Analysis: Technologies and Representations". En A. Bryman, R. B. Burgess (Eds.), Qualitative Research (Vol. 3, pp. 164-182). London: Sage.
Baptiste, I. (2001). Qualitative Data Analysis: Common Phase, Strategic Differences". Forum: Qualitative Social Research, 2 (3). La edición citada es digital. Recuperada el 14 de marzo de 2009 desde: https://www.qualitative-research.net/index.php/fqs/article/viewArticle/917/2002#g212
2.2.Fases típicas del proceso de análisis informático de datos cualitativos
-
introducir y guardar el texto en un cierto formato (habitualmente texto plano, RTF o DOCK);
-
marcar el texto introducido;
-
identificar y codificar segmentos (de texto o de contexto);
-
buscar y recuperar texto y segmentos;
-
computar frecuencias de segmentos;
-
clasificar segmentos categorialmente a partir de su codificación, en uno o diversos ejes o niveles;
-
computar frecuencias de unidades y categorías;
-
relacionar segmentos o categorías con los contextos;
-
etc.
2) recolectar;
3) pensar sobre lo percibido y recolectado.
Podéis consultar:
P. Navarro y C. Díaz (1995). "Análisis de contenido". En J. M. Delgado y J. Gutiérrez, Métodos y técnicas cualitativas en ciencias sociales (pp. 177-224). Madrid: Síntesis. Aunque las referencias a programas están inevitablemente caducadas, ello no obstante, las indicaciones generales sobre su uso continúan siendo válidas.
-
Establecimiento del corpus textual. Una vez recogido y delimitado el corpus, a partir de criterios teóricos o prácticos, el programa nos lo conserva y organiza y puede ayudarnos a engargolar los diferentes documentos recopilados o producidos, creando un texto único o muestra textual sobre la que trabajar.
-
Marcaje de unidades de registro y códigos. El programa ya sirve el corpus textual en líneas separadas y numeradas. La codificación empieza con el marcaje, que se puede hacer manualmente, señalando el principio y final de la unidad en el texto y etiquetándola con un símbolo. Un segmento de texto codificado puede superponerse a otros o estar incluido ("anidado") en uno más largo; por lo tanto, la codificación puede ser múltiple ya que un segmento puede recibir más de una marca. Esta última opción puede obedecer a que la segmentación se hace en diferentes niveles, es jerárquica, de manera que un segmento en un nivel superior integra dos o más segmentos en uno inferior, y así sucesivamente. Pero también, cuando tiene lugar en un mismo nivel, se puede deber al carácter combinatorio de los segmentos con función de indicadores que se incluyen en cada categoría, ya que un mismo segmento puede pertenecer a más de una categoría.
-
Listas de codificaciones categoriales y clasificaciones. A partir de la etapa anterior, el programa, sobre la base de datos existente, puede subagrupar las codificaciones en diversas listas, segregando los niveles de organización que estaban implícitos, si hace falta. Si hay una parte del texto no codificada, la separa. En estas agrupaciones constará la posición original que ocupaba cada segmento textual antes de pasar a la lista del código correspondiente, facilitando así la recuperación de información. También constarán de alguna manera las codificaciones múltiples.
-
Sistemas de categorías conceptuales o teóricos. Hasta la fase precedente los programas ofrecen funciones útiles para estudios descriptivos. Son fundamentalmente funciones de segmentación y clasificación de unidades en diferentes niveles de agrupación, y de recuperación de éstas ("texto retrieval"). Un paso más consiste en proveer funciones que permitan combinar códigos mediante fórmulas booleanas (reunión, intersección, complementarios) y llenar de contenido semántico cada código de nivel superior, transformándolo, más allá de la simple colección de segmentos que agrupa, en una auténtica categoría conceptual. Entonces, la clasificación establecida puede calcularse como un verdadero sistema de categorías con relieve teórico, relieve que le tiene que dar, lógicamente, el analista, introduciendo este valor en el programa. Efectivamente, si se quiere trabajar con alguna profundidad teórica hay que utilizar programas capaces de relacionar conceptos semánticamente; es decir, programas que no solo señalan el segmento sino que le asignan un contenido teórico o abstracto (N'Vivo o Atlas-ti serian ejemplos de ello).
-
Medida y análisis. Ya hemos dicho que las posibilidades de computación de frecuencias o de cálculo de índices de estos programas siempre son altas (en realidad es lo más fácil para el programa). Además, muchos de ellos hacen posible la creación de matrices de datos y poseen salidas a hojas de cálculo y paquetes estadísticos tipos SPSS.
-
Interpretación y modelos sintéticos. Gracias a la codificación múltiple y a la combinación de códigos la mayoría de programas modernos pueden detectar co-ocurrencias categoría-contexto, guiados por un esquema tipo KWIC (key-word-in-context) o por otros, y a partir de ellas establecer las relaciones correspondientes con el contexto en tanto que clave interpretativa. A mayor abundamiento, algunos programas pueden clasificar en diversos niveles las fuentes de procedencia (instituciones, autores, entrevistados) a partir de las variables que se les indique (edad, sexo, ideología, clase social, nivel de estudios, etc.). Sobre esta base, entonces, pueden buscar relaciones de coincidencia entre categorías textuales o de respuesta y categorías de muestra.
2.3.Tipos de programas según las funciones que ejecutan y sus criterios de elección
E. A. Weitzman; M. B. Miles (1995). Computer Program for Qualitative data Analysis: A Software Sourcebook. Thousand Oaks (CA): Sage. Éste es un trabajo todavía citado, claramente desfasado con respecto a las versiones analizadas, pero todavía aprovechable por su clasificación de las herramientas disponibles.
T. J. Richards; L. Richards (1998). Using Computers in Qualitative research". En N. K. Denzin e Y. Lincoln (Eds.), Collecting and Interpreting Qualitative Materials (pp. 211-245). Thousand Oaks (CA): Sage.
-
¿De qué volumen de datos se dispone, cómo se quieren manejar?
-
¿Cuál es el estilo de trabajo que gusta o se sigue habitualmente (tal vez ya utilizado en otras investigaciones)?
-
¿Cuál es el enfoque teórico? ¿Cómo se desarrolla y presenta?
-
¿Cuál es la metodología? ¿Se ve claro cuál es?
-
¿Hace falta un software de simple apoyo, que sólo ayude a los propios procesos de pensamiento y categorización? ¿O hace falta un software que marque la ruta del análisis, que sugiera la codificación (tipo inteligencia artificial), con el pensamiento propio a remolque?
-
¿Importa el lenguaje, la terminología aplicada a los datos, o bien las frecuencias comparadas entre casos o entre variables?
-
¿Hace falta a la vez información de contenido (o temática) y cuantitativa, o no?
-
¿Hace falta una única clase de herramientas o más de una herramienta que permita diferentes aproximaciones a los datos?
-
¿De cuánto tiempo se dispone para "aprender" el programa?
-
¿Cuánto tiempo puede durar el análisis?
-
¿Se trabaja en solitario o dentro de un equipo?
-
¿Es esta investigación una parte de otra más extensa y ya se poseen datos anteriores, o no?
-
¿Se dispone del programa en el centro o institución que da cobertura al trabajo? ¿Hay compañeros que puedan ayudar?
2.4.Cuatro ejemplos de software
MaxQDA
|
|
---|---|
Desarrollador
|
VERBI Software
|
Distribución
|
Scolari, Sage Publications Software, Inc.
|
Web
|
|
Especificaciones mínimas
|
MS Windows 98 o posterior
RAM: 64 MB (mínimo)
|
Descripción
|
La aplicación se abre con un "proyecto" de investigación en el que se introducen directamente
los documentos del corpus que ya, desde este momento, quedan dentro de este entorno.
El programa admite y mueve volúmenes grandes de texto, pero sólo trabaja con formato
RTF, en el cual no se incluyen objetos ni gráficos. La interactividad es alta.
Los códigos aparecen al margen y se fijan mediante colores asignados por el usuario,
que arrastra el segmento de texto seleccionado sobre el código escogido. Se pueden
ponderar los segmentos. También se puede utilizar una barra de codificación para fijar
el código. Asimismo, el usuario puede deshacer estas acciones. La codificación puede
ser jerárquica o no. En ambos casos, la reorganización de los códigos es fácil, arrastrando
con el ratón. Los segmentos codificados se pueden imprimir o exportar a formato DOCK.
Se dispone de tablas de frecuencia de segmentos y códigos que facilitan la comparación
entre subconjuntos de datos. También se pueden tener los memos y notas del autor dentro
del programa y enlazarlos, individualmente o en conjunto, a un código, agruparlos
o mantenerlos separados. Se pueden crear diccionarios.
Para la recuperación, el usuario activa el código sobre el que quiere trabajar y después
el documento en el que el quiere trabajar. Los segmentos se pueden recuperar transversalmente
dentro de grupos de texto o de conjuntos de archivos. Se puede ir fácilmente de un
segmento a su posición en contexto.
Aparte, es posible introducir, paso a paso o importándolos, datos sobre características
muestrales u otros. También se pueden combinar los datos de diferentes archivos con
vistas a la creación de tablas globales o comparativas.
Las buscas se guían por lógicas tipo "seguido por", "cerca de", etc., y pueden ser
guardadas (la unidad mínima de código guardado es el párrafo). Cada resultado de busca
se puede ligar a los datos de origen.
Los memos pueden ser exportados a formatos TXT o DOCK; las tablas a formato XLS o
a DBF.
|
The Ethnograph 6
|
|
---|---|
Desarrollador
|
Qualis Research Associates
|
Distribución
|
Scolari, Sage Publications Software. Inc.
|
Web
|
|
Especificaciones mínimas
|
Windows 98/ NT 4.0, ME, 2000 y XP, recomendable Macromedia Flash Player 7
|
Descripción
|
Uno de los primeros programas de análisis de datos cualitativos aparecidos en el mercado.
Se empieza creando un proyecto. Las transcripciones y textos que forman el corpus
se incorporan mediante la opción de Archivo y Editor. El programa gestiona datos de diferentes tipos: respuestas a cuestionarios, transcripciones
de entrevistas o sesiones de grupo, notas del mismo autor. Los datos pueden provenir
de cualquiera de los procesadores de texto habituales.
El programa numera los textos, que se pueden imprimir. Una vez examinados se hace
la distribución de códigos. Se dispone de un Libro de Códigos sobre la base del cual, dentro de la opción Codificación, se marcan segmentos o grupos de segmentos y se hacen las asignaciones correspondientes
a códigos que representan categorías de análisis. Cada segmento puede ser referido
a uno o más de un código y ser incrustado en otros segmentos o ser encabalgado. Por
eso, la codificación puede ser jerárquica. Los códigos se pueden modificar en cualquier
momento.
Permite añadir archivos de notas y memos a los ya existentes, así como enlazarlos
con aquellos documentos o fragmentos a los que se refieren.
La busca y recuperación se activa a partir de un código-palabra, aunque puede combinar
más de uno. Llega a identificar y presentar campos enteros de datos, memos o anotaciones
enlazados con el registro de referencia, combinaciones de segmentos o documentos.
Las herramientas de busca pueden utilizar diferentes filtros, que se pueden derivar
y definir según rasgos del material textual.
El programa es capaz de extraer de un conjunto de documentos resultados relativos
a una variable específica, seleccionando todos los párrafos donde está presente. Proporciona
listas de segmentos, de categorías o de notas y memos. Hace recuentos de palabras
o de códigos, dando así resultados como la frecuencia de una categoría o la de las
intervenciones de un sujeto en una dinámica de grupo. Encuentra correspondencias tipos
KWIC y puede ofrecer índices y gráficas.
Exporta los resultados a otros procesadores de texto (RTF, PDF).
|
ATLAS. ti, versión 5
|
|
---|---|
Desarrollador
|
Scientific Software Development
|
Distribución
|
Scolari, Sage Publications Software, Inc.
|
Web
|
|
Especificaciones mínimas
|
MS Windows 98 o posterior (W2000 oro XP recommended)
RAM 64 Mb (mínimo), 256 Mb (recomenat)
25 Mb espacio libre en disco (mínimo), 45 Mb (recomendado)
|
Descripción
|
Tiene una estructura de base de datos, por lo cual los archivos o documentos no se
copian directamente en el proyecto emprendido, sino que son asignados y referidos
por el programa cuando se abre el proyecto.
Admite formato RTF y DOCK, así como archivos multimedia (vídeos digitales, archivos
de sonido o gráficos).
De entrada, el analista establece una lista de citas (quotations), no necesariamente codificadas. Después se pueden asignar códigos, primero uno a
uno, posteriormente en niveles jerarquizados. Se establecen familias de códigos. En
los márgenes aparecen los elementos con que trabaja (categorías, memos, enlaces ...).
Los códigos se pueden mantener sin asignación o arrastrarlos o cliquearlos sobre el
texto, gestionándolos y editando el segmento de texto que les corresponde desde el
margen. El material codificado se puede recuperar fácilmente seleccionando el código
o conjunto de códigos y cliqueando para ver la parte de texto o imagen que agrupa.
Los memos son un elemento fundamental: pueden figurar aparte del texto o dentro del
texto introducido.
Hay diversas herramientas de busca y de establecimiento de relaciones, unas con operadores
booleanos (Query tool), otras destinadas a la comparación de buscas y a la comprobación de hipótesis de
relaciones previas (Supercode tool), por ejemplo tipos KWIC, sea bajo control inmediato del analista o sobre una red donde se manifiesta la co-ocurrencia
de códigos.
El programa da tablas de frecuencia y comparativas, así como modelos de mapa o red,
todos exportables a formato XLS y DOCK. Cuenta con una unidad hermenéutica que, en
XML, permite representaciones variadas compatibles con otros programas
|
QSR NVIVO 2.0.
|
|
---|---|
Desarrollador
|
QSR International.
|
Distribución
|
Scolari, Sage Publications Software, Inc.
|
Web
|
|
Especificaciones mínimas
|
MS Windows Me, 2000, XP
RAM: para Me, 64 Mb; para 2000, 128 Mb; para XP, 256 Mb.
40-125 Mb espacio de disco requerido, más el espacio necesario para los archivos del
proyecto.
|
Descripción
|
Como en otros programas, y a diferencia del Atlas-ti, se crea un "proyecto" y todos
los archivos de datos se introducen en él. El proyecto queda como una carpeta en el
ordenador con sus subcarpetas. De entrada se puede optar por dos entornos diferentes,
uno ligado a los archivos textuales o de imagen y el otro a los códigos, categorizaciones
y tareas afines (Documentos y Nodos).
Los documentos tienen que ser archivos de texto o RTF y pueden estar marcados y codificados
de cualquier manera, tanto si son datos como si son notas o memos del analista. Se
pueden enlazar con archivos multimedia pero éstos no admiten codificación en sí mismos,
aunque se puedan generar documentos resumidos o copias de baja resolución (proxy filas) que entonces sí pueden ser codificados.
El usuario puede ir fácilmente de los códigos o categorías a los segmentos originales
y a los documentos correspondientes. Hay un explorador de documentos que permite agruparlos o clasificarlos según diferentes criterios. Hay iconos de
color que, mediante marcaje, ayudan a distinguir diferentes tipos de datos o de segmentos.
Como en casi todos los programas, la codificación y categorización puede ser jerárquica
o no, y la recodificación se consigue simplemente arrastrando los iconos de código,
sea sobre segmentos aislados o sobre segmentos superpuestos o incrustados en otros.
Naturalmente, también se pueden deshacer las operaciones de codificación. Siempre
existe la posibilidad de inaugurar nuevos códigos a partir de una palabra o una frase
y crear nuevos sistemas jerárquicos independientes de los que hay en un momento dado.
En el margen aparece la estructura de códigos vigente. Los colores del margen son
fijos y no pueden cambiarse.
La recuperación se hace a través de un buscador de marcas o códigos, que opera en
ventanas dentro de las cuales se puede recodificar directamente.
El establecimiento de vínculos entre diversos órdenes de materiales es mucho efectivo.
El usuario puede vincular documentos, textos, códigos o anotaciones suyas entre sí.
Se pueden generar grupos o sistemas de documentos, o de códigos o categorías, con
el fin de focalizar el análisis en ciertas combinaciones de características. Eso se
puede hacer arrastrando o a través de un editor especial. Además, N'Vivo ofrece la
opción de vincular atributos explícitos a documentos o a segmentos o partes de archivos codificados, atributos
que pueden ser contextuales o muestrales (por ejemplo, en una sesión de grupo transcrita,
los perfiles de los sujetos). Estos atributos aparecen en la descripción general de
los datos y pueden ser exportados a paquetes estadísticos o a bases de datos.
El programa, aparte de trabajar sobre la información recogida, permite generar documentos
o textos dentro de él en forma de memos o notas complementarios, vinculándolos o no
a los archivos, códigos o categorías ya existentes.
Las herramientas de busca son muy sofisticadas, pudiendo ser dirigidas en diferentes
direcciones. Además, el programa brinda la posibilidad de obtener matrices de busca
con valores cruzados (que son interactivas) y derivar tablas de frecuencia. Una herramienta
complementaria (Assay Tool) da resúmenes de la presencia/ausencia de códigos o atributos en un documento o parte
de documento, mientras que otra ayuda a visualizar mapas de relaciones entre datos.
En general, N'Vivo proporciona tablas de todos los tipos y los resultados se pueden
imprimir con el margen donde constan los códigos. Los modelos encontrados (párrafo
anterior) pueden exportarse a formato DOCK.
|