¿Cúal fue su problemática, pregunta y objetivo(s)?
Mi problema a indagar fue ¿con cuáles términos, significados y asociaciones el expresidente Álvaro Uribe se refirió a los pueblos aborígenes en sus comunicaciones públicas?, ¿qué construcción discursiva dejó en el imaginario colombiano respecto a las comunidades originarias? El objetivo es establecer con qué palabras el expresidente ha acompañado el término indígena en sus intervenciones para aproximarse a establecer qué imaginario ha venido construyendo al respecto en la opinión pública colombiana.
¿Qué criterios consideró para la elaboración de su corpus? ¿Por qué?
Los criterios tenidos en cuenta fueron: a) buscar títulos en los cuales aparecieran mínimo las palabras: Álvaro Uribe e indígenas, b) que fueran de distintas fuentes y c) de diferentes años. Porque de esta manera se obtendría un corpus con una mirada más amplia para la interpretación de los resultados y no sesgada por una fuente, o un sector en particular, lo que puede facilitar el acercamiento al imaginario colectivo construido respecto a los pueblos nativos.
¿Qué resultados exploratorios arrojó el tratamiento estadístico de su corpus?
Se utilizó Hyperbase para el análisis del corpus, a través del cuál se pudieron obtener las siguientes resultados:
¿Qué le dice acerca de su problemática de investigación?
Las asociaciones discursivas en los diferentes tipos de fuentes, con los términos: Uribe e indígenas se vinculan con: conflicto armado, desplazamiento forzado, paramilitar y de manera más pronunciada en las fechas de la Minga nacional del año 2021 y en 2012 por asesinatos de líderes indígenas. Por lo que el análisis de estos discursos relacionados con el expresidente Álvaro Uribe llevaron a hablar de los indígenas por causa de protestas sociales relacionadas con la defensa de su vida y sus derechos, por lo que en la escena aparecen el desplazamiento forzado, causado por grupos paramilitares y actores armados. Transmitiendo al imaginario nacional que los asuntos indígenas son asuntos de conflicto armado.
El objetivo de este breve post es aclarar las diferencias entre el trabajo final de la asignatura y el reporte del mini-proyecto del módulo 4. Son productos diferentes y cada uno cuenta con su respectivo porcentaje en la evaluación. Aunque con el grupo se acordó que el mini-proyecto del módulo 4 podía ser planteado como una parte del trabajo final, nunca se contempló que lo reemplazaría.
El trabajo final es una bibliografía sistematizada sobre métodos de investigación afines a su tema de tesis. Este trabajo tiene un valor de 20% y aunque lo habíamos pensado en dos componentes, uno de presentación y otro escrito, decidimos dejarlo solo escrito por cuestiones de tiempo. Desde Enero les compartí el artículo de Codina para que pudieran ver como elaborar este tipo de producto de análisis e inclusive lo mencioné en el post que hice sobre Zotero en Enero 31.
El reporte del mini-proyecto está relacionado con el trabajo final pero no son equivalentes. No reemplaza el trabajo final. En nuestras conversaciones decidimos que el mini-proyecto de módulo 4 podría ser sobre análisis de contenido de una muestra más pequeña de la del trabajo final. Así mismo, este reporte estaría relacionado con las actividades desarrolladas durante las sesiones de laboratorio del módulo 4. En el post introductorio al módulo 4 se aclaran los componentes de este mini-poryecto, su reporte y su porcentaje (10%).
Una de las grandes diferencias entre los dos productos radica en el número de unidades de análisis consultadas y analizadas. Para el mini-proyecto decidimos que solo analizarían 5, mientras que para el trabajo final deben como mínimo elaborar un análisis de 10 unidades. Ojalá entre 10-20 unidades. Además, en la parte metodológica, deben utilizar el sistema de fichas de análisis propuesto por Codina. Esta metodología es diferente a la del mini-proyecto del módulo 4 porque implica un análisis que no es computacional ni cuantitativo. La idea es que ustedes elaboren esas fichas y luego, utilizándolas puedan elaborar una síntesis, analizando los diferentes artículos o capítulos de libro. Esa síntesis, es diferente a la del mini-proyecto, ya que contiene una muestra más grande, y así mismo, un análisis que no es el de contenido cuantitativo, sino por el contrario, un análisis más crítico y reflexivo. Si bien existen componentes del mini-proyecto que pueden utilizar a la hora de presentar la revisión bibliográfica sistematizada, es importante que en la parte de síntesis y conclusiones, elaboren con profundidad su análisis crítico y reflexivo, y en la parte de metodología incluyan ejemplos de las fichas de revisión bibliográfica que analizaron.
La siguiente revisión bibliográfica corresponde a una muestra de artículos cuya relación se encuentra fijada en el desarrollo del primer capítulo de contextualización de mi investigación doctoral. Como lo enuncia Codina, (2018) esta revisión corresponde a un trabajo obligado de verificación de toda investigación doctoral, de allí el interés y necesidad de realización.
La característica fundamental de esta herramienta se divide en dos momentos, el primero, corresponde a la “revisión” de documentos, cuya rigurosidad debe ser reflejada en el tipo de artículos, que esperan ser de peso científico, bien sea por el autor o por el tema centralizado. A partir de dicha escogencia, llegamos al segundo momento, la interpretación. Esta interpretación es guiada bajo diversas herramientas de análisis de contenido que permiten encontrar la filiación de los documentos, y as u vez contrarrestar su veracidad y pertinencia. En suma, como lo referencia el autor, “una revisión bibliográfica equivale a una investigación en la cual los documentos seleccionados son los datos primarios y su agregación/interpretación el método de análisis”.
Para llevar a cabo esa revisión bibliográfica, se presentan cuatro fases expuestos por Codina (2018) citando a Grant, Booth, (2009) que se suman a la factibilidad y precisión en las investigaciones realizadas desde las ciencias sociales: 1) Búsqueda, esta permite reflexionar sobre las fuentes utilizadas, cuya rigurosidad debe ser representada en el siguiente item. 2.) Evaluación. Este paso se realiza para corroborar o preguntar acerca de la fiabilidad del artículo, el cual dependerá, no solo de sus resultados, sino de cumplir con las características que demuestren metodología, proceso y conclusiones. 3) Análisis y 4) Síntesis dependerán de las formas de interacción metodológica y discursiva de cada investigación.
Finalmente, se muestra como esta revisión permite evidenciar el avance en la investigación del tema revisado y a partir de allí, poder plantear desde lo personal de la investigación, formas alternas de abordaje del tema en cuestión.
PROBLEMA
Para plantear la revisión bibliográfica, planteo, mi problema de investigación en la primera fase de reconocimiento del territorio, esta se comprende de diferentes tipos históricos, cuyo enfoque es llevado a la construcción desde época prehispánica – hasta cimentación barrial de Bogotá. Para ello fue necesario recurrir a diversos libros de naturaleza antigua, que pudieran dar cuenta de la conformación del suelo bogotano. Sin embargo, existen algunos que tal vez no son reconocidos exteriormente bajo la lógica de rigurosidad científica, pero manejan una discursividad, relación e investigación profunda del contexto.
Por lo anterior y teniendo en cuenta el corpus manejado en este ejercicio, se plantea la siguiente pregunta: ¿Cómo se desarrolla la urbanidad en Bogotá, teniendo en cuenta la calidad histórica prehispánica que la conforma? Y por otro lado ¿influye la división de suelo, en épocas precoloniales, en la conformación actual de la ciudad?
MÉTODOS
Los métodos utilizados para la realización del ejercicio, corresponde a:
Trabajar sobre la base del framework SALSA, presentado por Codina (2018)
A parir de allí se realizan una serie de procedimientos, que descubren cada uno de los métodos del framework
Se realiza una escogencia preliminar de los textos a trabajar, que cumplan con las características de los textos científicos. Para ello, se recurre a un primer acercamiento a la organización de información por medio del esquema de para cada documento, presentados por Codina (2018), mostrado aquí como sistema de codificación.
A partir de las fichas, simplificar la información a: título, autor, filiación del autor, resumen, palabras clave y conclusiones. Esta información convertirla a texto plano txt, para poder continuar en el sistema de codificación.
Creación de libro de códigos sugeridos en clase de métodos, el cual debe responder a lo extraído de las fichas. El filtro se realizó en 4 categorías, con 3 o 4 variables.
Utilización del software Coding Analysis Toolkit, CAT, para codificar los elementos mencionados y a partir de allí descubrir la fiabilidad del a información sugerida. El trabajo con esta herramienta es mancomunado con un par codificador, que a su vez cumple ayuda a descubrir los niveles de fiabilidad de los documentos a codificar.
Análisis de la información sustraída de las gráficas que arroja el software CAT
Síntesis
MUESTRA
La siguiente muestra corresponde a libros y artículos de investigación documental, cuya característica se retoma desde la contextualización histórica del territorio cundinamarqués, asentado en Bogotá, empezando desde las características simbólicas y significativas que lo conforman. Por lo que este primer acercamiento presenta características exclusivas de las comunidades Muiscas del territorio en la historia.
Gamboa, J. A. (2005). Los caciques muiscas y la transición al régimen colonial en el altiplano cundiboyacense durante el siglo XVI (1537–1560). Bogotá, Centro de estudios Hispanoamericanos–Fundación Carolina-ICANH.
Friede, J. U. A. N. (1961). La breve y trágica historia de Bogotá, la indígena. Revista Colombiana de Antropología, 10, 149.
Caldera, L. A. B. (2008). Concepción sagrada de la naturaleza en la mítica muisca. Franciscanum. Revista de las ciencias del espíritu, 50(149), 151-176.
Torres Carrillo, A. (2013). La ciudad en la sombra: Barrios y luchas populares en Bogotá 1950–1977. Universidad Piloto de Colombia.
Gamboa, J. A. (2015). Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista. Diálogos en patrimonio cultural I. Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista, 11-33.
Torres, C. A., & Alberto, C. (2009). Ciudad informal colombiana. Barrios construidos por la gente. Santa Fe de Bogotá. Editorial Unal.
Mejía, Germán. (2000). Los años del cambio, Historia urbana de Bogotá 1820-1910. Bogotá, Centro editorial javeriano.
Zambrano Pantoja, F. R. (2004). Historia de la localidad de Tunjuelito : el poblamiento del Valle Medio del Río Tunjuelo. Alcaldía Mayor de Bogotá.
Dolmatoff, Gerardo (1989). Colombia indígena, periodo prehispánico. En J. Jaramillo (Ed), Nueva historia de Colombia (pp. 27 – 68). Bogotá, Colombia: Planeta Colombiana Editorial.
Ocampo, Javier (1989). El proceso político, militar y social de la independencia. En Manual de Historia de Colombia. Tommo II, Bogotá, Instituto Colombiano de Cultura. Pp 9 – 64
Palacio, Germán. (Ed.). Naturaleza en Disputa: Ensayos de Historia Ambiental de Colombia 1850 – 1995. Universidad Nacional de Colombia, Facultad de Derecho Ciencias Políticas y Sociales, Departamento de Biología, IDEA, IMANI. ICAH, COLCIENCIAS, Telar de Agua. Bogotá. 2001
LIBRO DE CÓDIGOS
Para la revisión bibliográfica se presentó el siguiente libro de códigos:
SISTEMA DE CODIFICACIÓN
El sistema de codificación utilizado fue las fichas de Codina, las cuales, permiten completar información relevante de cada uno de los artículos revisados, condensándolos en cuestiones específicas. Estas responden a por un lado resumir, por otro, reflexionar acerca del aporte y alcance de los artículos en el proyecto y por último a concluir y organizar el documento. A continuación, presento el modelo de ficha utilizado:
FICHA CODINA
REFLEXIÓN DE FIABILIDAD
Acorde a los resúmenes realizados de las siguientes lecturas, se realiza la reflexión de fiabilidad. A continuación los documentos:
Gamboa, J. A. (2005). Los caciques muiscas y la transición al régimen colonial en el altiplano cundiboyacense durante el siglo XVI (1537–1560). Bogotá, Centro de estudios Hispanoamericanos–Fundación Carolina-ICANH.
Friede, J. U. A. N. (1961). La breve y trágica historia de Bogotá, la indígena. Revista Colombiana de Antropología, 10, 149.
Caldera, L. A. B. (2008). Concepción sagrada de la naturaleza en la mítica muisca. Franciscanum. Revista de las ciencias del espíritu, 50(149), 151-176.
Torres Carrillo, A. (2013). La ciudad en la sombra: Barrios y luchas populares en Bogotá 1950–1977. Universidad Piloto de Colombia.
Gamboa, J. A. (2015). Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista. Diálogos en patrimonio cultural I. Los muiscas y su incorporación a la monarquía castellana en el siglo XVI: nuevas lecturas desde la Nueva Historia de la Conquista, 11-33.
Realizada la evaluación con el par codificador, en este caso, María Mercedes Corral, se pueden atisbar conclusiones, aunque no las esperadas, de fiabilidad respecto a la organización de la información. A continuación, se muestra diagramado la frecuencia de los códigos que responden a las categorías y variables mostradas en cada uno de los artículos resumidos
GRÁFICA DE BARRAS
En este caso, al ser enunciados, en la mayoría de los casos, los artículos desde un lugar histórico de Bogotá evidencian, grado medio de fiabilidad, según los índices de medida de Kappa y Krippendorff Alpha. Para el caso de índice Kappa, Montoro & Muñoz (2005) advierten que bajo parámetros de medida superado el 0,4, se puede considerar un Índice de medida moderado, lo cual es mostrado en la siguiente tabla
Code
amanda2020
Mariamercedes2020
Exact Match
Overlap
Kappa
Kappa (inc. Overlap)
Campo de estudio m Antropología
2
0
0
0
0.00
0.00
Campo de estudio – Historia
5
4
4
0
0.80
0.80
Campo de estudio – Urbanismo
1
2
1
0
0.50
0.50
Desarrollo – Bogotá
2
3
2
0
0.67
0.67
Desarrollo – Desarrollo urbano
1
1
1
0
1.00
1.00
Desarrollo – Historia Colonial
3
4
3
0
0.75
0.75
Desarrollo – Historia prehispánica
3
0
0
0
0.00
0.00
Metodología – Etnografía
0
2
0
0
0.00
0.00
MetodologíaInvestigación acción
1
0
0
0
0.00
0.00
Metodología – Investigación documental
5
3
3
0
0.60
0.60
Totals
23
19
14
0
0.43
0.43
Figura 3. índice de medición Kappa
Code
amanda2020
mariamercedes2020
Total Count
Alpha Value
Campo de estudio – Antropología
2
0
2
NaN
Campo de estudio – Historia
5
4
9
-0.083
Campo de estudio – Urbanismo
1
2
3
0.571
Desarrollo – Bogotá
2
3
5
0.620
Desarrollo – Desarrollo urbano
1
1
2
1.000
Desarrollo – Historia Colonial
3
4
7
0.540
Desarrollo – Historia prehispánica
3
0
3
NaN
Metodología – Etnografía
0
2
2
NaN
Metodología – Investigación acción
1
0
1
NaN
Metodología – Investigación documental
5
3
8
-0.208
Totals:
23
19
42
NaN
Figura 4. índice de medición Krippendorff Alpha
En ese mismo orden, la siguiente gráfica de círculo, muestra la claridad metodológica que se descubre en investigación documental; esta misma, se encuentra fuertemente enlazada con el campo de Historia, el cual también es descubierto en codificación con par. Sin embargo, al ver el tipo de historia presentado no hay encuentro de codificación. Según el diagrama y los cuadros de análisis, se puede entender que los artículos están enfocados a discutir la historia colonial de Bogotá; esto no es cierto, la discusión es dada frente a las dinámicas, características y fundamentación de la cultura Muisca, desde la prehispanidad, lo que tal vez por el lenguaje, se puede confundir con la historia colonial, al tratar ambas al Muisca como sujeto operante en ambos lugares de la historia.
GRÁFICA DE CÍRCULO
Respecto a la última gráfica, se puede comparar bajo el coeficiente kappa las medidas que surgen del acuerdo entre las evaluadoras, en este caso el puntaje abstraído de la gráfica corresponde a 0,45, lo que ubica el ejercicio en un nivel moderado de fiabilidad.
CONCLUSIONES PRELIMINARES
Este ejercicio permite visibilizar, de otras formas, la estructura de los documentos y la búsqueda consciente, específica, rigurosa y científica de los mismos. Si bien, cada uno de los investigadores posee conocimiento del tema investigado, debe categorizar dicha información, de modo tal que quien observe su investigación, sea su línea o no temática, pueda inferir la lógica de la misma y a su vez ahondar en ella con un nivel más amplio de fiabilidad.
En este orden, lo que permite el uso de la herramienta en este momento, justo de inicio en el proceso investigativo doctoral, será de reflexión. Esta se puede guiar hacia que tipo de documentos se están enlazando como cuerpo estructural del documento de investigación, lo que a su vez, lleva a la evaluación de los artículos, fidelidad de la información, búsqueda objetiva de características y valores de los mismos. Finalmente, esta evaluación puede lograr la conformación de una lógica estructura, por un lado, y por otro, coadyuvar en la conformación epistémica que arroje índices de fiabilidad efectivos.
REFERENCIAS
Codina, Lluís. (2018), Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunica1980)ción Social. Departamento de Comunicación. Universitat Pompeu Fabra,
Krippendorff K. (1980) “Metodologia de analisis de contenido, teoria y práctica”, Paidos, Barcelona. Capítulos 1 y 2.
Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Universidad de Sevilla
El análisis de contenido (AC), es una de
las técnicas de investigación más importantes de las ciencias sociales, y
permite entender los datos como fenómenos simbólicos más que situaciones físicas,
así mismo el AC va más allá de las nociones del contenido como objeto de
estudio. de acuerdo con Krippendorff (1980). El AC permite crear técnicas y
utilizar herramientas para su análisis de resultados y es una manera de empezar
con el análisis de la literatura referente al problema de investigación
doctoral.
Los métodos tradicionales de análisis de
contenido, y de búsqueda y análisis de bibliografía siguen siendo usados, pero sin
embargo tienen limitaciones y tienden a ser subjetivos en algunos aspectos. La metodología
sugerida por Codina (2018), para la revisión bibliográfica sistematizada, y la
utilización de herramientas como el CAT, (Coding Analysis Toolkit), ayudan a
generar mejores resultados.
Para este mini-proyecto se tiene como
objetivo realizar un análisis de contenido muy resumido de algunas fuentes ya
seleccionadas, crear el libro de códigos y la categorización y posteriormente utilizando
CAT, realizar un análisis de fiabilidad con un proceso de revisión de pares generando
índices Krippendorff Alpha y índice Kappa, descritos y presentados en Saldana
(2016). para un posterior análisis de resultados.
De acuerdo con mi investigación doctoral
la cual tiene como propósito. Formular una propuesta
de modelo que emerja de las diversas formas en que las universidades
colombianas se relacionan con su entorno, que permita valorar las actividades
en la heterogeneidad de sus impactos, beneficiarios y características. Y como
presunta de investigación se han planteado las siguientes:
• ¿Cuáles son las actividades que se
realizan desde la universidad y generan impacto en sus entornos geográficos,
sociales, urbanísticos, ambientales, culturales?
• ¿Cómo se pueden caracterizar estas
actividades, de manera que sea posible realizar una valoración de estas?
• ¿Como se pueden determinar los
beneficios que pueden generar a la sociedad las diferentes actividades que se
realizan desde la universidad?
Para comenzar
el proceso de investigación con estos planteamientos se, inició una búsqueda de
fuentes relacionando las actividades que realizan las universidades y cómo éstas
se relacionan con su entorno de desempeño, académico y no académico.
Se inició
con una búsqueda en Web of Science por considerar que es una base de datos apropiada,
que adicionalmente da garantía, rigor y transparencia (Codina, 2018) y es una
de las bases de datos más importantes.
Para
este proceso de AC, se va a utilizar el modelo de Codina (2018), que comprende
las cuatro etapas:
Búsqueda
Evaluación
Análisis y
Síntesis
Fuente Codina (2018)
Como lo mencioné para
la búsqueda inicial se realizó un proceso en Web of Science teniendo como
palabras claves de la búsqueda:
Indicadores,
Universidad
Institución de Educación Superior
Gobierno
Industria
Tercera misión
Extensión
Con base en esta
información y teniendo algunos criterios de selección como el número de veces
que es nombrado el autor, el tema. Se realizó una codificación y se generó una
clasificación y creación de algunas categorías; y para este mini-proyecto se consideraron
estas categorías ya definidas y se elaboró el libro de códigos.
Posteriormente
utilizando CAT se realizó un análisis de fiabilidad con CAT, y para este
análisis se tomaron como datos de referencia de las fuentes:
Título
Autor
Filiación
Abstract
Palabras Claves
Conclusión
Este análisis en CAT se
realizó con un par, y se generaron los resultados que se analizarán al final de
informe.
Para
el mini-proyecto se tomó la siguiente muestra de documentos, relacionados con
el proyecto de investigación:
Arcila, R.E, La Universidad en América Latina,
Universidad Autónoma Latioamericana,
UNAULA www.unaula.edu.co
Arocena R & Sutz Judith, Universidades para
el Desarrollo, Universidad de la República de Uruguay, Foro abierto de Ciencia
para Latinoamérica y Caribe, UNESCO, (2016)
Etzkowitz H (a), Leydesdorff
L,(b) The dynamics of innovation: from National Systems and ‘‘Mode 2’’
to a Triple Helix of university–industry–government relations, (a) Science Policy Institute, Social Science
DiÍision, State UniÍersity of New York, (b)
Department of Science and Technology Dynamics, Nieuwe Achtergracht 166,
1018 WV Amsterdam, Netherlands, Research Policy 29 _2000. 109–123
Gibbons, M., Limoges,
C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M, The New Production of
Knowledge, The Dynamics of Science and Research in Contemporary Societies, SAGE
Publications, London. (2002),
Göransson, B. &
Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges
for Academic Institutions, International Development Research Centre, Part 1,
(2011)
Leydesdorff, L, The
mutual information of university-industry-government relations: An indicator of
the Triple Helix dynamics, Jointly published by Akadémiai Kiadó, Budapest
Scientometrics, and Kluwer Academic Publishers, Dordrecht Vol. 58, No. 2 (2003)
445.467, (2003),
Leydesdorff, L, &
Meyer, M. Triple Helix indicators of knowledge-based innovation systems,
Introduction to the special issue,
Research Policy Vol. 35 (2006)
Leydesdorff, L (reprint
author), Triple Helix indicators of knowledge-based innovation systems –
Introduction to the special issue, Univ Amsterdam, ASCoR, Kloveniersburgwal 48,
NL-1012 CX Amsterdam, Netherlands,
(2006)
Leydesdorff, L (reprint
author), Measuring the knowledge base of an economy in terms of triple-helix relations among ‘technology,
organization, and territory’, Univ Amsterdam,
Amsterdam Sch Commun Res, Kloveniersburgwal 48, NL-1012 CX Amsterdam,
Netherlands
Melo-Becerra, L.A., (2), L.A., Ramos-Forero, J.E., (3), Hernández-Santamaría, P.O., (4), La educación
superior en Colombia: situación actual y análisis de eficiencia, Revista Desarrollo
y Sociedad, Banco de la República. Universidad de
los Andes, (2017)
Park, HW, Yeungnam
Univ, Gyongsan, South Corea, Hong, HD, A comparison of the knowledge-based
innovation systems in the economies of South Korea and the Netherlands using
Triple Helix indicators, Kan Wong
National University, South Korea, KangWon National University, South Korea,
Leydesdorff, L, University of Amsterdam, The Netherlands, Scientometrics (2005;
forthcoming), (2005),
Libro
de códigos – Mini proyecto – Tema Universidades y su relación con su entorno de
desempeño
Tipo
de Documento – Tipo de fuente
Articulo – Artículo
publicado
Libro –
Tesis –
Investigación sobre el tema
Tipo
de investigación – Investigación realizada con la fuente
Documental –
Documentos teóricos sobre el tema
Investigación
acción – Proyectos realizados con la investigación
Investigación
creación – Investigación que ha generado algún producto nuevo
Modelos
teóricos que han cambiado la forma de producir conocimiento en las
Instituciones de Educación Superior – IES
Innovación –
Modelo de innovación se puede definir como un proceso colectivo el cual reúne
varios actores, como universidades, centros de investigación, entidades de
gobierno, y organizaciones del sector productivo.
Triple hélice –
Modelo que une Gobierno- Industria – Universidad en relación con la
innovación.
Modo 2 – Modelo
que trata con las condiciones de la organización y la producción de
conocimiento en donde éste es, ante todo, transdisciplinario; es decir que
conjuga perspectivas disciplinares alrededor de un mismo objetivo
Triangulo de
Sábato -Tres agentes El estado – la infraestructura científica y
tecnológica – y el sector productivo
Relacionamiento
con externos – Enfoque de la fuente hacia sectores externos a las IES y a la
Educación
Industry
– Industrias que desarrollan conocimiento para la relación con las IES
Government
– El estado y su relación con las IES
Spillovers
– Startups desde las IES
Entrepeneurship
– Emprendimientos apoyados por las IES
Commercialization
– Comercio, consultorías proyectos para las IES
Relacionamiento
interno de la Universidad – Enfoque de la fuente en el marco de la IES o
Universidad
Research –
investigación y generación de conocimiento
Collaboration –
Proyecto de colaboración con otras instancias, el gobierno, otro país, la
industria.
Higher Education –
Proyecto de educación, alrededor de actualización.
Extension service
– El servicio de la Universidad alrededor de la sociedad.
Se
conformó un corpus con 6 documentos relacionados con mi proyecto de
investigación. Tomando para cada artículo la información descrita en el
capítulo 3.
Se crearon en CAT, los data sets
correspondientes, y se tomó como codificación el resumen de la Tabla 2.
Con un par codificador se desarrolló la
actividad de codificado, sobre el data set.
Finalizado el proceso de codificación con
el par, se generaron los siguientes resultados.
Una
vez se realiza el proceso de codificado con el par, se obtienen los siguientes
resultados,
Dadas
las características de la prueba de fiabilidad realizada, con un corpus
pequeño, y una codificación también resumida, se puede ver que los resultados
no son exactamente los esperados.
La
información de cada artículo era limitada y en mi concepto faltan códigos que
ayuden a aclarar la clasificación. Adicionalmente es posible que las categorías
no estén claramente definidas y tampoco ayuda a a evaluación, del par.
Respecto
a la frecuencia de códigos asignados, también se puede ver si las categorías y
los códigos realmente están bien definidos. O si es necesario revisar nuevamente
la codificación. Adicionalmente sería necesario un segundo nivel de
codificación y revisión de resultados.
Los
análisis comparativos y los índices resultantes se muestran a continuación:
En
índice Kappa, arroja un resultado de 0.38, el cual realmente es bajo para un análisis
de fiabilidad, este resultado de acuerdo con Montoro & Muñoz (2005) , un
valor ente 0.2 y 0.4 se considera un grado de acuerdo bajo para el índice Kappa.
Aunque
se puede observar que hay algunos índices parciales de 1.00, que es muy bueno
de acuerdo con Montoro & Muñoz (2005) sin embargo varios niveles parciales también
están en 0.0, que es realmente muy malo.
De acuerdo con Lombard (2002), que, en
su artículo, aclara que adicionalmente a la definición apropiada de códigos,
para el análisis de fiabilidad, se debe determinar el nivel de aceptación del resultado.
Un porcentaje de aceptación del análisis de fiabilidad no debe ser inferior al
80%, por lo tanto en este caso el análisis debería repetirse y revisar
previamente, tanto categorías como códigos y la información de lamuestra.
Tabla
3 – Índice Kappa
El índice Krippendorff Alpha, generó
como resultado la siguiente tabla., en la cual se observan algunos acuerdos,
pero también algunas discrepancias en el tipo de investigación lo cual llevaría
a una revisión de códigos también. Adicionalmente la claridad de las categorías
y la muestra seleccionada. Lombard
(2002), plantea que este índice Krippendorff – alpha, sirve para análisis de
varios codificadores y permite variables en diferentes niveles de medición desde
nominales hasta ratios, los cuál puede
ayudar en el análisis.
Es
claro que el AC, como técnica de investigación en ciencias sociales, es un
mecanismo fuerte para lograr buenos resultados.
Durante
todo este módulo se realizaron ejercicios de AC, con herramientas como Voyant Tools,
que permitió tener algunos elementos de análisis sobre la bibliografía
seleccionada.
Y
la relación de los documentos con el proyecto de investigación.
Como herramientas para el AC, es
importante definir claramente las categorías a utilizar y con la claridad y la
rigurosidad necesarias para el proyecto. Es necesario tener un buen libro de
códigos y pienso que el artículo de Saldana (2016), da una buena introducción
al tema y a los esquemas de codificación. Son herramientas para aprender y profundizar
par a generar mejores resultados en el proyecto doctoral.
Se necesita tener buena literatura acorde
con el proyecto y una forma también de analizar esta literatura es con el AC, y
los resultados que se obtienen con herramientas cono Voyant Tools.
Para la bibliografía sistematizada de
Codina (2018) es necesario tener también buenas fuentes, un libro de códigos y las
categorías bien definidas y procurar realizar con CAT este análisis de
fiabilidad que a su vez permite ver resultados que ayudan a tener mejor bibliografía
y mejores contenidos para la investigación.
Dadas las restricciones de tiempo y tamaño
de la muestra los resultados del ejercicio no fueron los mejores, sin embargo,
la experiencia de utilizar la herramienta y los conceptos del proceso de
codificación y fiabilidad me dejan un aprendizaje para capitalizar y continuar profundizando
en el tema y poder realizar un buen AC, para la investigación doctoral.
Codina, Lluís.
(2018), Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework
para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunica1980)ción
Social. Departamento de Comunicación. Universitat Pompeu Fabra,
Krippendorff
K. (1980) “Metodologia de analisis de contenido, teoria y práctica”, Paidos,
Barcelona. Capítulos 1 y 2.
Lombard, M.,
Snyder-Duch, J., & Bracken, C. C. (2002). Content Analysis in Mass
Communication: Assessment and Reporting of Intercoder Reliability. Human Communication Research, 28(4), 587–604.
Montoro, F.,
& Muñoz, F. (2005). La medición de la fiabilidad interjuez en la
codificación de preguntas abiertas: una propuesta metodológica. Universidad de
Sevilla.
Saldana, J.
(2016). The Coding Manual for. Qualitative Researchers (3rd ed.) London, UK:
Sage. Chapter 1. Introduction to code and coding.
Este mini-proyecto da cuenta de un recorrido por procedimientos y acercamientos que reflejan y amplían la reflexión respecto al uso potencial del análisis de contenido en el diseño y desarrollo de proyectos de investigación. Para este caso, se conecta directamente con el interés de explorar perspectivas en torno a la sistematización bibliográfica.
Se busca profundizar en las “arquitecturas, estructuras, componentes básicos y funcionamiento” (Igartua, 2006:181. Citado en: Zunino, 2015:114) que desde esta metodología puede establecerse de las estructuras del contenido. Esta labor se enfoca, como se mencionaba, en una exploración de estas posibilidades en relación a la revisión bibliográfica de tipo sistemático y sistematizada (Codina 2018), desde el cual se demarca su aplicación a un proyecto de interés investigativo particular que gira en torno a la cultura política en Colombia, construida y dinamizada desde medios de comunicación.
En términos de Codina (2018) la revisión sistematizada de bibliografía es un punto fundamental para el diseño de proyectos de investigación, que permiten concretar los grados de rigurosidad, dibujar un panorama sobre el estado de la cuestión (Zunino, 2015) y que parte de una selección inicial de documentos vinculados a la temática de interés que permite el paso a la interpretación de éstos. Este procedimiento requiere una secuencialidad, tal como se expresa en la figura 1, que va demarcando una pauta inicial de búsqueda general, pero que se va concretando con el establecimiento de criterios o frameworks (Figura 2) que permiten filtrar y concretar el proceso de selección (y de análisis)
La sistematización de las fuentes bibliográficas permiten plantear un panorama de lo que se ha avanzado en el estudio de la temátcia, pero también, en esta misma ruta, y revisando los vacios o limitaciones; puntos que se establecen como caminos o posibilidades hacia las cuales podemso conducir nuestras investigacionesd, desde la necesidad de generar nuevas dimensiones de conocimiento. Desde allí propicia la definción o establecimiento de fases de acción, la sistematicidad del trabajo, su transparencia (Codina, 2018) y la apertura de la revisión de la pregunta y los objetivos con los cuales proyectamos nuestras investigaciones.
PROBLEMA
¿Cuál es la cultura política que se construye en Colombia a partir del uso de medios y plataformas comunicativas? Con esta pregunta general se concretaba una temática para mi investigación. Su abordaje requería de un claro diseño de la estructura, que establecía como exigencia inicial el abordaje de investigaciones que permitiese detallar que hallazgos, conclusiones, metodologías, resultados y demás se ha generado a partir de temáticas asociadas la pregunta formulada. En esta medida se empezaron a consultar fuentes que precisaban concretar espacios y criterios de búsqueda, que permitieran ir refinando las posibilidades de fuentes y empezar desde allí el análisis.
Inicialmente se exploran revistas indexadas y documentos en la plataforma Google Academics, que si bien, fijaban un escenario posible y legitimado para la indagación, exigían situar categorías concretas de búsqueda y la definición de criterios que se proyectasen hacia el análisis de estos. El análisis de contenido, en términos metodológicos, aparece como un insumo clave en la resolución de esta segunda exigencia; si ya se estaba formando la base documental: ¿cómo catalogarla? ¿Cómo establecer conceptos o elementos comunes que permitan fijar las convergencias y divergencias de estos estudios?
MÉTODOS
Para el desarrollo de este mini-proyecto se apela al uso del análisis de contenido en tanto permite la caracterización de elementos textuales que pueden ser medidos cuantitativamente (Krippendorff, 2013) y se implementó el uso de dos herramientas digitales: Coding Analysis Toolkit (CAT) para la validación de la codificación en aras de garantizar la fiabilidad del diseño propuesto para el análisis y Voyant Tools, herramienta que permitió detallar algunos elementos exploratorios para la caracterización de los textos (frecuencias de palabras, redes entre otros) para fijar componentes que hicieron extensivo el análisis. Para la sistematización de la muestra se diseñó una matriz con categorías de análisis, que dieron paso al diseño de un Codebook.
MUESTRA
A continuación se presentan algunos de los trabajos recopilados para la sistematización bibliográfica. Revisando revistas académicas indexadas y con el uso de Google Academics se utilizan criterios de búsqueda como: cultura política, redes sociales digitales, ciberactivismo, ciberpolítica, ciberciudadanias, política y medios de comunicación. Los trabajos que están subrayados fueron los utilizados para el sistema de codificación.
Título trabajo
Autor-es
La política y lo político en Twitter: Análisis del discurso de los candidatos presidenciales de Colombia (2018)
Luis Eduardo Ruano, Juan Camilo López, y Jonathan Felipe Mosquera
Ciberdemocracia: Comunicación política en Twitter (2017)
Liliana María Gómez Céspedes
Twitter y la ciberpolítica (2012)
Fernández, Carmen
Twitter como plataforma de los alcaldes para la comunicación pública (2015)
García Beatriz, López María, Fernández José Gabriel
Enmarcamiento cognitivo de la cultura política. Un análisis desde las redes sociales en Internet (Twitter) (2013)
Sánchez; López, Wilson; Barreto, Idaly
Líderes latinoamericanos en Twitter. Viejas costumbres para nuevos medios en tiempos de crisis política (2015)
F Segado-Boj, J Díaz-Campo, B Lloves-Sobrado
La interacción política en Twitter: el caso de @ppopular y @ahorapodemos durante la campaña para las Elecciones Europeas de 2014
Ricardo Zugasti Azagra
Elecciones Europeas 2014: Viralidad de los mensajes en Twitter Redes. (2015)
Congosto ML
Cultura Política: El estado del Arte Contemporáneo (2002)
Leticia Heras Gómez
El discurso político mediado por ordenadores: análisis del discurso en las cuentas del presidente Juna Manuel Santos y del ex presidente Álvaro Uribe Vélez en la red social digital Twitter (2016)
Urrea, María, Paéz, Julián, Cuellar Arlex.
Estructura y contenido de la twitteresfera política colombiana durante las elecciones legislativas de 2014 (2016)
Paéz Julián
La política y lo político en Twitter: Análisis del discurso de los candidatos presidenciales de Colombia (2018)
Luis Eduardo Ruano , Juan Camilo López , y Jonathan Felipe Mosquera
¡Twitteo, luego existo! Un análisis de las dinámicas de competencia electoral de los candidatos a la Presidencia de Colombia 2018 en Twitter (2019)
Luciana C. Manfredi, Juan Manuel González Sánchez, David Biojó Fajardo
Una aproximación a la cultura política colombiana desde el debate contemporáneo de la democracia (2012)
Juan David Cárdenas Ruiz1
Un análisis contemporáneo del Twitter (2011)
Beatriz Fainholc
Esbozos históricos sobre cultura política y formación ciudadana en Colombia: actores, sujetos y escenarios (2008)
Martha Cecilia Herrera
Predicción electoral usando un modelo híbrido basado en el análisis sentimental: elecciones presidenciales de Colombia (2019)
Mauro Callejas-Cuervo, Manuel A. Vélez-Guerrero
Dimensión política del discurso en los candidatos presidenciales de Colombia: un análisis de la red social Twitter (2018)
Luis Eduardo Ruano, Juan Camilo López, Jonathan Mosquera
Conmigo o contra mí: análisis de la concordancia y estrategias temáticas del Centro Democrático en Twitter (2018)
Cifuentes, Carlos Felipe; Pino, Juan Federico
Ciudadanía, Cultura Política y Reforma del Estado en América Latina (2002)
Assies Willem, Calderón Marco, Salman Ton
Elector, resistencia y desafección política. (2003)
Mora H, Juan, Escobar C, Claudio.
Twitter como instrumento de comunicación política en campaña: Elecciones Generales 2011 (2012)
López Abellán, M
Los mecanismos de lo político en las redes sociales de internet. (2013)
Torres L.
Redes sociales y política 2.0: Presencia en Twitter de los candidatos a las elecciones andaluzas de 2012 (2012)
Martínez M
Twitter y la comunicación política. El profesional de la información (2017)
Campos, E
Política 2.0: el uso de las redes sociales en la política argentina (2012)
Domínguez, N
Estrategia y publicidad electoral: los spots de campaña en Andalucía 2008 y 2012 (2017)
García, G
Medios de Comunicación, democracia y cultura política (2011)
Jorge, J. y Miró, M
Mucho Ciberactivismo… pocos votos. Antanas Mockus y el Partido Verde colombiano (2011)
Rincón, O
La comunicación contemporánea en el circuito de la opinión pública y las relaciones de poder en red. (2015)
Trillos, J.
Ciberciudadanías, cultura política y creatividad social (2013)
Almendra, V. et al
Redes sociales, poder y participación ciudadana. (2014)
Ayala, T
Los límites de la “ciberpolítica”. Internet y movimientos sociales (2014)
Cruz, E
La política en internet ¿de la mediatización a la convergencia digital (2014)
Espino, G
La cultura y la política en la cultura política. (2017)
Eufracio, J
Deliberación: actividad política en internet y redes sociales en Colombia (2014)
Orozco, M. & Ortiz, A
Tabla 1: Muestra de artículos para la revisión bibliográfica. Fuente: El autor.
CATEGORIAS DE ANÁLISIS Y SISTEMA DE CODIFICACIÓN
Este sistema de codificación surge de la matriz (tabla 2) construida para la caracterización sistematizada del contenido de los artículos de investigación, desde las cuales se definen las categorías de análisis.
Título
Autores
Referencia Bibliográfica
Editorial, Año, Institución (es), Ciudad, País. (vínculo si está online)
Tipo de Documento
Tesis de maestría/doctorado Investigación Pública/Privada Libro Ensayo Informe Institucional / Organización / Entidad
Campo de Estudio
Ciencia Políticas, Ciencias de la Información, Filosofía.
Línea de Investigación
Palabras Clave
Abstract
Contenido
Estructura
Fuentes Principales
Autores citados o que se referencias con más constancia en el desarrollo temático. (citas textuales APA)
Objetivos
General y Específicos
Metodología
Enfoque. Tipo de Investigación. Instrumentos. Población / muestra
Limitaciones
¿Qué aspectos no se contemplaron en el estudio? (Vacíos) ¿Qué observaciones de cuidado o sugerencias realizan los investigadores? ¿Qué fallos presenta el estudio?
Resultados
Conclusiones
Conclusión central ¿Cómo da respuesta a la pregunta problema o cómo cumple el objetivo)
Tablas
Gráficos o Registros Importantes Datos
Temática
Cultura Política, análisis de medios, Retórica, Persuasión, Ciberactivismo
Bibliografía
Comentarios
Del Investigador que realiza el resumen
Tabla 2. Matriz para sistematización contenido artículos de investigación. Fuente: El autor
Para la actividad de clasificación se diseñan las siguientes matrices (tabla 3 y 4): en la primera se detallan los códigos y las categorías representadas y en la segunda, la matriz para la ejecución del procedimiento.
Tabla 3. Codebook. Diseño: El autor
Tabla 4. Matriz para la codificación. Fuente: El autor.
REFLEXIÓN SOBRE LA FIABILIDAD O VERACIDAD DEL SISTEMA DE CODIFICADO:
Para garantizar la fiabilidad requerida en las codificaciones exigidas en el análisis de contenido (Krippendorff, 2013) se realizó un trabajo de verificación en el cual se hacía un cruce de caracterizaciones para establecer el grado de acuerdo independiente que se establecía sobe las variables, pero sobre todo, sobre su aplicación. En esta etapa se utilizó la herramienta CAT, en la cual se organización las bases de datos (Tabla 5), los códigos y sus descriptores.
Tabla 5 Caracterización bases de datos (con 5 muestras) en la herramienta CAT.
Luego de la codificación aplicada por los investigadores, la herramienta permitió hacer el registro de la comparación estándar (Tabla 6) y determinar elementos de fiabilidad para el aseguramiento de la calidad del proceso. Se evidencia desde el índice Kappa una frecuencia de coincidencia alta en relación al campo de estudio y el método (análisis de contenido), las dos por encima de 0.70 que contrasta con los demás índices, que se encausan a un nivel bajo de coincidencia general.
Tabla 6. Comparación registro de los investigadores, con el uso de la herramienta CAT
Posteriormente se aplica el indice alfa de Krippendorff (tabla 7), que arroja los siguientes indices:
Tabla 7: Índice Krippendorff aplicado a la muestra. Herramienta CAT
Desde este mecanismo se observan discrepancias que requieren de una nueva evaluación en la codificación, dado los niveles de discrepancia. Ubicándonos en algunas consideraciones establecidas por Krippendorff pueden deberse a las características de muestra y a los posibles sesgos desde la mirada de los investigadores. Cabe mencionar la relevancia de la claridad en la codificación, pues esto permite mayor refinamiento en el proceso, así como mitigar la posibilidad de la ambigüedad o confusiones que pueden remitir a amplios márgenes de incompatibilidad en los procedimientos realizados por los investigadores. Además de este ejercicio que resulta crucial, debe revisarse preliminarmente la constitución de la muestra, para ver qué tan potentes resultan las categorías de análisis, pues, en el caso de este trabajo, la falta de elementos de contenido, podía también invisibilizar aspectos que se tenían en cuenta en el Codebook (como la metodología que no siempre se señala en los Abstract)
CONCLUSIONES PRELIMINARES
En la consolidación de la base bibliográfica se hizo un tejido desde las etapas definidas por Grant y Booth: búsqueda, evaluación, análisis y síntesis (2009, en: Codina: 2018) dentro de la acción sistematizada que propende por la estructura que aparece en la figura 3, que exigía ir determinando criterios de inclusión-exclusión, pero además, la concreción de categorías de análisis que permitieran sus sistematización; proceso que se hizo posible gracias a la matriz de caracterización y después a la codificación realizada.
En una primera etapa del análisis de contenido, usando la herramienta Voyan Tool, se realizó una caracterización que permitió ir concretando frecuencia de conceptos y las articulaciones que se presenciaban en la estructura de los textos. Allí fue posible ver cómo en la muestra de esta primera fase marca unas tendencias en la cuales los conceptos de cultura política cobran protagonismo y se asocian a conceptos como tweets, discursos, políticos y al concepto comunicación (figura 4) que permite ir marcando unas categorías a modo de etiquetas, desde las cuales se puede pensar la pertinencia y exigencias de la codificación planteada así como horizontes articuladores de convergencias.
La imagen de frecuencia deja ver, en el costado derecho, la necesidad de profundizar la limpieza y filtreo de la caracterización que permita evitar el conteo y registro de palabras que no resultan relevantes para el estudio (como preposiciones, por ejemplo). En ese ejercicio, el mapa de relaciones (Figura 5) permitió encontrar un primer dato relevante desde esta caracterización, en torno a las conclusiones de los estudios y es la relación entre cultura política y el concepto de democracia:
Luego de esta fase exploratoria, se realizó una revisión desde esta misma herramienta para establecer, en términos generales, las frecuencias de la muestra seleccionada para el presente mini-proyecto, en la cual se trabajó sobre: títulos de artículos, Abstract, conclusiones, desde las cuales es relevante señalar un patrón y es situar la red social digital Twitter en el cual se concentran los estudios de cultura política (Figura 5) al momento de situar un medio que dinamiza estas prácticas y como el estudio de la cultura política en esta red se articula con elementos como la opinión pública, la ciberpolítica, democracia, mensajes. (Figura 6) lo cual orienta sobre la predominancia de campos disciplinares de estudio y teorías desde las cuales se ejecutan estos abordajes,
.
La herramienta Voyant Tool permite también una caracterización general de la muestra establecida para el estudio (que, cabe recordar, resulta pequeña para una determinación profunda de estos indicadores), destacando las frecuencias de encuentro de conceptos (Figura 7) que demarcaron los 5 textos (que contenían 1.341 palabras en total y ubican un cruce de 590 concordancias, además de sus extensiones), así como la fijación de categorías que empiezan a determinar unos marcos comunes clarificado por la cuantificación de las relaciones (figura 8)
Situados luego, en el plano de la codificación, la herramienta CAT permite hacer una comparación de los grados de coincidencia en el procedimiento (Figura 8), lo cual permite caracterizar un amplio grado de correspondencia alrededor del método (análisis de contenido) y sobre la ubicación de las muestras (Twitter con un grado de 92%)
Si bien la codificación precisa de una revisión para concatenar en un mejor nivel los índices de fiabilidad, si permite establecer algunas consideraciones a partir de su caracterización y sistematización con el Codebook: los estudios sobre cultura política se centran en ubicar muestras en Twitter, desatacan el ejercicio de la participación a través de esta plataforma, vinculando conceptos como Ciberdemocracia, ciberpolítica, ciberciudadanias. Además la orientación de estos trabajos a preferir el análisis de contenido. Los estudios codificados se sitúan en las ciencias de la comunicación y la información.
Estas consideraciones marcan una ruta de interpretación y revitalizan el análisis de contenido como una metodología que permite la caracterización de componentes sustanciales, los índices de fiabilidad deben revisarse así como explorar con muestras mucho más grandes que permitan una representatividad de las caracterizaciones realizadas. Consientes de esto, debe señalarse que, desde la sistematización bibliográfica y la codificación realizada en la ruta metodológica del análisis de contenido se estableen insumos que orientan una construcción coherente de un proyecto de investigación, en tanto permite afianzar la correspondencia entre los objetivos, las categorías propuestas y su reflexión-evaluación desde los elementos hallados en los antecedentes bibliográficos.
REFERENCIAS
Codina, L (2018) Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra,
Análisis de Contenido para la sistematización de la literatura en un proyecto de investigación doctoral
Introducción
El análisis de contenido de la literatura a emplear en un proyecto de tesis es indispensable para adelantar un proceso riguroso desde las primeras etapas, pues nos ayudará a direccionar los esfuerzos solo en las fuentes de mayor pertinencia y validez de acuerdo al problema planteado en la investigación y a los objetivos que, derivados de este, se planteen.
En este orden es que la necesidad de hacer una revisión de la literatura se convierte en una tarea prioritaria, siendo fundamental para determinar las formas en que el problema a investigar, ha sido investigado y a través de qué referentes y métodos, así como los resultados a los que se ha llegado por la comunidad científica particular.
Los métodos de análisis y exploración de la bibliografía tradicionales e intuitivos que normalmente dependían de la experticia del investigador, implicaban un riesgo alto de desconocer literatura relacionada e importante para las investigaciones. Este miniproyecto se ha orientado a la luz de la pregunta de ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con este modelo se busca allegar la precisión requerida aun cuando hay limitaciones de pares, tiempo, recursos bibliográficos, etc. Aun así, el miniproyecto ilustra el proceso estructural del modelo sugerido por Codina (2018), el que se ha instrumentalizado con el apoyo del software Coding Analysis Toolkit para allegar los coeficientes de Krippendorff´s Alpha y Kappa y se ha hecho una evaluación de resultados.
2. Problema
El problema que ha orientado el miniproyecto se desprende de la necesidad de cómo conformar un corpus bibliográfico cuyo contenido sea pertinente y válido para un problema y unos objetivos en el marco de un proyecto de tesis en un programa de doctorado. Dadas las fallas que se pueden dar en los estados de arte o en las revisiones de la bibliografía, el análisis de contenido direcciona sistemática y rigurosamente el trabajo de selección de fuentes.
Como vemos en la figura anterior, para que una investigación esté centrada en la problemática propuesta, la revisión de la literatura no puede ser superficial, requiere un análisis de contenido que permita en gran medida ubicar al investigador en la literatura. Por tanto, las preguntas de cuáles son las fuentes, teorías, conceptos clave; los puntos de vista políticos manifiestos en las fuentes, los fundamentos epistemológicos y ontológicos, así como en general los principales debates que se han suscitado alrededor del problema, son de la mayor relevancia a la hora de comenzar a hacer una investigación.
Por esta razón se ha sintetizado el problema en la siguiente formulación ¿Cómo hacer una evaluación de la bibliografía a través del modelo sugerido por Codina (2018) en el contexto de un proyecto de tesis en el Doctorado de comunicación, lenguajes e información de la Universidad Javeriana? Con esta pregunta guiaremos el trabajo subsiguiente.
3. Métodos
Principalmente en este miniproyecto se ha seguido el modelo sugerido por Codina (2018) el cual se propone en las siguientes etapas:
Sobre la base de una muestra de fuentes se hizo un análisis de contenido de las mismas siguiendo la estructura antes citada. Se procedió principalmente a la conformación de un corpus de datos de dichas fuentes con las categorías de interés codificadas.
3.1. Búsqueda
La información por cada unidad bibliográfica se sintetizó en:
Sobre una muestra bibliográfica de diecinueve artículos de revistas o journals relacionados con el problema y previamente seleccionados por la reputación de las publicaciones y autores representativos, así como la vigencia y actualidad de las publicaciones, se seleccionó una submuestra de cinco para hacer las pruebas de validez con el software Coding Analysis Toolkit en el cual participaron dos pares evaluadores. Con estas dos evaluaciones se corrieron las pruebas de comparación estándar Kappa y Alpha de Krippendorff.
a. Muestra
La muestra se seleccionó obedeciendo a un criterio no probabilístico, opinático y por conveniencia, en tanto los artículos obedecen a que se han publicado en las revistas internacionales más representativas y autores también representativos, con un direccionamiento explícito hacia términos claves relacionados con la problemática del proyecto de investigación. Del miso modo obedece a que el acceso a las fuentes lo ha posibilitado.
Esta es la muestra de textos que corresponden a artículos de journals y revistas arbitradas relacionados con los ejes teóricos y categoriales del proyecto. La submuestra de 5 artículos sobre la cual se hizo el ejercicio de evaluación del contenido por pares está subrayada o destacada:
Bayou, M., Reinstein, A., & Williams, P. (2011). To tell the truth: A discussion of issues concerning truth and ethics in accounting. Accounting, Organizations and Society(36), 109-124.
Beyer, A., Cohen, D., Lys, T., & Walther, B. (2010). The financial reporting environment: review of the recent literture. Journal of Accounting and Economics(50), 296-343.
Blankespoor, E. (2018). Firm communication and investor response: A framework and discussion integrating social media. Accounting, Organizations and Society, 80-87.
Cooper, D., & Sherer, M. (1984). The Value of Corporate Accounting Reports: Arguments for a Political Economy of Accounting. Accounting Organizations and Society, 9(3/4), 207-232.
Hales, J., Kuang, X., & Venkataraman, S. (2011). Who Believes the Hype? An Experimental Examination of How Language Affects Investor judgments. Journal of accounting research, 223-255.
Macintosh, N. (2005). Annual Reports in an Ideological Role: A Critical Theory Analysis. En N. Macintosh, & T. Hopper, Accounting, the social and the political: classics, contemporary and beyond (págs. 163-171). Amsterdam: Elsevier.
Mattessich, R. (2003). Accounting representation and the onion model of reality: A comparison of Baudrillard’s orders of simulacra and his hyperreality. Accounting, Organizations and Society, 28(5), 443–470.
Mattessich, R. (2009). FASB and Social Reality – An Alternate Realist View. Accounting and the Public Interest, 39-64.
McKernan, J. (2007). Objectivity in accounting. Accounting organizations and Society(32), 155-180.
Richardson, A. (1987). Accounting as a legitimating institution. Accounting Organizations and Society, 12(4), 341 – 355.
Shapiro, B. (1997). Objetivity, Relativism and truth in external financial reporting: what´s really at stake in the dispute? Accounting. organizations and society, 22(2), 165-185.
Tinker, A. (1980). Towards a Political Economy of Accounting: An Empirical Illustration of the Cambridge Controversies. Accounting Organizations and Society, 5(1), 147-160.
Tinker, A., Merino, B., & Neimark, M. (1982). The normative origins of positive theories: Ideology and accounting thought. Accounting, Organizations and Society, 7(2), 167-200.
3.2. Evaluación
a. Categorías de análisis (libro de códigos)
Las categorías de análisis definidas para observar en la muestra se centraron en aspectos derivados del contenido pero que pueden ser comprendidas como de carácter general y facilita identificar tendencias y ubicación teórico – metodológica principalmente. En este sentido se ha considerado oportuno identificar las siguientes categorías de análisis consignadas en un libro de códigos así:
Como se puede observar se definió un criterio de análisis el cual se expresa en unas categorías codificadas y sobre las que se proporcionan claves para comprender el significado de las mismas a través de una breve descripción. Esto con el propósito que el par evaluador conozca con precisión el contenido a evaluar y su interpretación del corpus sea muy precisa.
b. Sistema de codificación – esquema de codificación
A continuación, se presenta el sistema de codificación que preliminarmente se estableció para cada categoría a través de la siguiente matriz.
c. Aplicación del sistema de codificación
El sistema de codificación que se predefinió, luego se configuró en el software Coding Analysis Toolkit para que los pares evaluadores pudieran hacer la colaboración en la evaluación, como se aprecia en la siguiente tabla.
El corpus conformado con la muestra se configuró de acuerdo a los requisitos de formato del software y esta es la síntesis de la submuestra alojada en la aplicación:
En la gráfica pie se evidencia la aplicación del sistema de códigos a la muestra y es posible identificar las frecuencias de cada una de las categorías de análisis.
3.3. Análisis
a. Reflexión sobre fiabilidad y veracidad del sistema de codificado
Con el contenido del dataset y la aplicación del libro de códigos se dispuso de dos evaluadores y una vez hecha la evaluación, se procedió a correr las comparaciones estándar que facilita Codindg Analysis Toolkit para validar el sistema de codificado. Dadas las limitaciones del ejercicio la reflexión alrededor de tales resultados es parcial.
En primer lugar, podemos afirmar que el contenido del dataset no necesariamente contiene toda la información que pudiese con precisión permitir la identificación de las categorías de análisis. Sin embargo, se parte del supuesto que los evaluadores son exertos y conocedores de gran parte de estas categorías y fácilmente pueden hacer deducciones apoyadas en juicios bien fundados por la experticia que tienen.
Una vez corridas las pruebas de análisis se obtuvo lo siguiente:
Para la prueba Kappa
De acuerdo a Landis y Koch (1977) citado por Montoro & Muñoz (2005, pág. 591) el coeficiente Kappa cuando alcanza el acuerdo perfecto alcanza el valor 1, pero cuando las posibilidades de acuerdo coinciden con las obtenidas al azar, este coeficiente tiende al valor 0. Los intervalos de la bondad del acuerdo aparecen reflejados en la siguiente tabla:
En este orden y de acuerdo a los resultados obtenidos en términos generales el coeficiente es de 0,22 lo que nos muestra un grado de acuerdo bajo según Cohen lo que en efecto se puede ver en las escasas coincidencias en la evaluación. Aun así, al ser solo dos evaluadores hay categorías en las que se ha coincidido significativamente las cuales se ven en la tabla como en los casos de enfoque teórico positivista con 0,67 Bueno, enfoque teórico de economía política con 0,5 moderado, enfoque teórico teoría critica 0,5 moderado y énfasis disciplinar 0,5 moderado. En estas categorías hay una convergencia y acuerdo, pero en términos generales el coeficiente es bajo lo que mina la validez del código empleado.
Sorprende que en las evaluaciones particulares hay una diferencia muy marcada en la categoría contable financiera, sorprende, porque todo el corpus es disciplinalmente consistente con lo contable financiero.
Desde el coeficiente Alpha de Krippendorff (2004, pág. 222), En su forma más general α es definido por:
α = 1 – Do / Dⅇ
Donde (Do) es la medida del desacuerdo observado y (De) es la medida del desacuerdo que puede ser esperado cuando prevalece el azar. Esta definición revela dos puntos de referencia que son esenciales para cualquier medida de confiabilidad: cuando se observa que el acuerdo es perfecto y el desacuerdo está, por lo tanto, ausente, (Do) = 0 y α = 1, lo que indica confiabilidad perfecta.
Sobre esta base, la interpretación de los resultados apunta a que no hay acuerdo en términos generales en las evaluaciones de los dos pares. En términos particulares hay categorías que tienen valores positivos mayores al 50% que en comparación con el coeficiente Kappa van en la misma dirección de mostrar niveles de acuerdo moderado.
En contraste son significativos los valores negativos en algunas categorías de análisis que según Krippendorff (2004) obedecen a dos razones. Por un lado, al tamaño de la muestra, es decir cuando es muy pequeña. Sin embargo, al encontrar valores positivos en muchas categorías no parecería ser la razón el tamaño muestral. Por el otro lado indica Krippendorff que estos valores negativos pueden igualmente obedecer a desacuerdos sistemáticos y creo que este es el caso. La razón de esta apreciación es porque las categorías en donde el Alpha es negativo, son las categorías en las que las diferencias de estimación de los evaluadores son más grandes. De este modo es un problema de desacuerdo sistemático por diferencias en las interpretaciones de las categorías presentes en el corpus, que pueden obedecer a un conocimiento más profundo de uno de los evaluadores en tanto es la bibliografía que ha configurado y explorado a mayor profundidad y también puede obedecer a que por disposición de tiempo la evaluación se hizo superficialmente. Otra explicación final pudo provocarse por la insuficiencia del contenido en el corpus para haber deducido de este las categorías de análisis, aunque por ser estas tan genéricas su efecto realmente puede ser poco significativo.
3.4. Síntesis
Como síntesis del corpus los resultados ayudan a interpretar que hay una presencia importante del enfoque positivista; no obstante, hay acuerdo también en los enfoques críticos y de economía política. Esta característica del corpus lo hace equilibrado en cuanto a enfoques teóricos. Desde el punto de vista de énfasis disciplinar hay problemas importantes de acuerdo en lo contable financiero que revelan una anomalía en la evaluación. Algo similar ocurre en el desacuerdo en los métodos mixtos que puede obedecer a insuficiencia de información en la estructuración del corpus. En la misma dirección se presentan las diferencias en las apreciaciones sobre la naturaleza explicativa de los papers. Estos resultados de desacuerdo alertan a que el ejercicio de evaluación sea mas dedicado y minucioso.
4. Conclusiones
El análisis de contenido como metodología a emplear en las etapas tempranas de la exploración de la literatura, en el marco del desarrollo de tesis es de relevancia para validar un corpus bibliográfico y reducir los riesgos de omitir información, precisar pertinencia del mismo frente a los fines perseguidos por la investigación. Es una herramienta muy útil a la hora de usarla para la revisión de la literatura puede fácilmente servir de base para hacer clasificaciones de acuerdo a categorías predefinidas de interés.
El uso de libros de código es un instrumento formal que requiere cuidado en su elaboración, en especial en la claridad de significado y sentido de cada una de las categorías de análisis que son la base interpretativa de colaboraciones de evaluadores. De su adecuada elaboración depende en gran medida una evaluación apropiada.
La asistencia del software Coding Analysis Toolkit es fundamental para los indicadores estadísticos y los coeficientes de validez Kappa y Alpha de Kripendorf de las evaluaciones que, para los no especialistas puede resultar un ejercicio complejo de desarrollar. El acuerdo o desacuerdo en las evaluaciones de pares proporciona información importante para hacer ajustes al corpus bibliográfico.
El caso particular que se analizó, ilustra muy bien la dinámica del análisis de contenido para estos propósitos, y permitió evidenciar la necesidad de hacer análisis sistemáticos de la literatura para dar rigor a las investigaciones de nivel de maestría y doctorado. Aun siendo un caso ilustrativo y con fines de aprendizaje, las limitaciones derivadas de ello, así como la disposición de mayores tiempos, colaboraciones y tamaño muestral, los resultados se han podido interpretar sobre los coeficientes ya referidos y han reflejado una confirmación de lo que hipotéticamente se puedo intuir tanto con la muestra como con las evaluaciones, en el sentido de no tener una evaluación con coeficientes más convergentes gracias a las limitaciones de tiempo principalmente.
5. Referencias
Codina, L. (2018). Revisiones bibliográficas sistematizadas. Barcelona: Universitat Pompeu Fabra.
Krippendorff, K. (2004). Analysis of Content: a introduction to its methodology. Thousands Oakes: SEGE.
Montoro, F., & Muñoz, F. (2005). La medición de la fiabilidad interjuez en la codificación de preguntas abiertas: una propuesta metodológica. Cities in competition. XV Spanish-Portuguese Meeting of Scientific Management (págs. 587 -598). Sevilla: Universidad de Sevilla.
Maria Mercedes Corral Strassmann – Mayo 18 de 2020
Un método de análisis de contenido es
apropiado en particular cuando se están estudiando las comunicaciones masivas,
el análisis de mensajes. Así mismo es fundamental en investigación, y
principalmente en comunicación, donde los investigadores son muy rigurosos en
el uso de este método. Si “el código no es confiable no se puede confiar en el
análisis” Singletary, 1993, p. 294).
Análisis de contenido y la importancia del
inter-codificador confiable:
Los codificadores, se basan e análisis
de correlación, índices, entre otros, lo más importante es el acuerdo a que
llegan y este es necesario puesto que el punto de medición, se toma cuando se
tiene el acuerdo y adicionalmente se asignan las mismas mediciones a cada
objeto. Si no se logra establecer es posible que la interpretación de los datos
no sea válida.
Medición de la confiabilidad del inter-codificador:
La confiabilidad del inter-codificador se evalúa haciendo que dos o más
codificadores categoricen las unidades (programas, escenas, artículos,
historias, palabras, etc.), y luego usan estas categorizaciones para calcular
un índice numérico del alcance del acuerdo
entre
los codificadores. Existen variaciones de como este proceso se puede realizar,
pero mínimo el investigador debe crear un conjunto de unidades para poder
probar la fiabilidad.
Con los datos de codificación en mano,
el investigador calcula e informa uno o más índices de fiabilidad
Acuerdo del porcentaje:
Este es el porcentaje de las decisiones
realizadas por pares de codificadores en las cuáles están de acuerdo.
Método de Holsti
Holsti en (1969) propone
una variación en el acuerdo del índice del porcentaje, con dos codificadores
evaluando las mismas unidades para una prueba de confiabilidad, es igual al definido,
sin embargo, cambia en situaciones en las que los codificadores evalúan
diferentes unidades. El resultado a
menudo se calcula no para una variable única, pero a través de un conjunto de
variables, esperando que las variables sean confiables.
Pi (TT) de Scott
Un índice que explica el acuerdo es el Pi de Scott (1955)., difiere del porcentaje de acuerdo con el método de Holsti, este índice tiene en cuenta el número de categorías, así como la distribución de valores entre ellas, se basa en estos valores en lugar del resultado del acuerdo entre los codificadores.
Kappa de Cohen (k)
El índice kappa de Cohen (1960,1968) también representa un acuerdo
casual, usando la misma fórmula conceptual que la Pi de Scott. la posibilidad
en este caso se calcula en base a los “marginales multiplicativos”, en
lugar de los aditivos, lo que genera el efecto de contar las diferencias en la
distribución de valores a través de las categorías para diferentes codificadores.
Alpha de Krippendorf (a):
(1980)
Este permite cualquier número de codificadores y está
explícitamente diseñado para ser utilizado para variables a diferentes niveles
de medición desde nominal hasta una razón. El mayor inconveniente de su el uso
ha sido la complejidad y la dificultad resultante de los cálculos “a
mano”,
especialmente para intervalos y variables de nivel de razón.
Determinando un nivel aceptable de confiabilidad:
Adicionalmente a escoger el índice de confiabilidad apropiado, del
inter-codificador, otra dificultad es determinar qué se constituye como un
nivel aceptable de fiabilidad, tampoco se tienen estándares establecidos para
esto.
Existen algunas herramientas para calcular la fiabilidad del
inter-codificador, no cuentan con muchas herramientas para esta tarea y
normalmente tienen que hacer los cálculos manualmente. Agunas personas han desarrollado
algunas macros que pueden ser usadas para automatizar los cálculos. Otros han
desarrollado software localmente, pero no se tiene una disponibilidad completa
de estas y tampoco son sencillas de usar.
Fiabilidad del inter-codificador en reportes recientes de investigación en comunicación. -Una estudio:
Pregunta de investigación,
¿Qué tan adecuada y consistente es
actualmente la fiabilidad del inte-rcodificador evaluada e informada en investigación
en comunicación masiva?
Método:
Para responder a la pregunta de
investigación, se realizó un análisis de contenido de informes de investigación
en comunicación en los que el análisis de contenido fue el principal método de
investigación.
Muestra,
Se tomaron todos los
artículos indexados en “Communication Abstracts” para el año 1994-1998,
y para esto una de las palabras claves fue,” análisis de contenido”, Communication
Abstracts es un índice de las publicaciones en literatura de Comunicación
sobre 75 revistas. Finalmente se tuvo una muestra de 200 artículos y se
codificaron las 22 variables definidas, donde se tienen entre otras, método de
estudio, medio de análisis, tipo de contenido, numero de codificadores, fiabilidad
discutida, método de fiabilidad. Los autores probaron una versión inicial del
instrumento, se utilizaron como métodos Acuerdo de porcentaje, Pi de Scott, Kappa
de Cohen, Alpha de Krippendorf, la segunda versión bta de prueba fue con el
software PRAM (Program for Reliability Assessment with Multiple-coders, Skymeg
Software, 2002).
Resultados:
Los resultados para
cada variable se presentan se ven en detalle en la Tabla 2 (12-13), . Solamente
el 69% de los informes de investigación (n = 137) contenían cualquier informe
de fiabilidad entre codificadores. De ese subconjunto, el número medio de
oraciones en el texto y las notas al pie que se dedicaron a la discusión y al
informe de fiabilidad fue 4.5 (SD = 4), solo el 6% de estos artículos incluía
una tabla que contenía resultados de confiabilidad, y menos de la mitad (45%)
de los artículos incluyeron una cita relacionada con fiabilidad del inter-codificador,
el nivel de fiabilidad más bajo fue de 0.40, y el mínimo aceptable era de .075
(SD=0.26).
Conclusión:
El análisis de contenido ha demostrado
que aun se tienen problemas en la evaluación y reporte de la fiabilidad de los
inter-codificadores, por
lo tanto, basado en la revisión de literatura y en los resultados de este
estudio, las siguientes normas y directrices se proponen para este proceso:
Calcular y reportar la fiabilidad del inter-codificador
Seleccionar índices apropiados
Tener herramientas que permitan realizar los cálculos.
Seleccionar los mínimos niveles de fiabilidad aceptables.
Evaluar informalmente durante el entrenamiento.
Evaluar formalmente en un piloto de prueba.
Evaluar formalmente con la codificación de una muestra completa.
Seleccionar y seguir un
procedimiento apropiado para incorporar la codificación de la muestra de
confiabilidad en la codificación de la muestra completa.
No se deben hacer ninguna de las siguientes: usar solo porcentajes para el
cálculo, usar sobreposicion e la codificación, entre otros.
Informe la confiabilidad del inter-codificador de manera cuidadosa, clara y
detallada en todos reportes de investigación, y provea una información mínima
como: tamaño y método usado para crear la muestra fiable, la relación de la
muestra de fiabilidad con la muestra completa, el número de codificadores y si
se incluyen los investigadores, índices seleccionados, horas de entrenamiento
requeridas, entre otras.
Referencias
Lombard, M., Snyder-Duch, J., &
Bracken, C. C. (2002). Content Analysis in Mass Communication: Assessment and
Reporting of Intercoder Reliability. Human Communication Research, 28(4),
587–604.
La
organización de los documentos y referencias para la investigación es
importante para poder optimizar resultados y análisis de la información
recopilada. El objetivo de este ejercicio es utilizar un corpus de documentos
relacionados con la investigación doctoral y con ayuda de la herramienta Voyant -Tools generar algún
análisis sobre resultados obtenidos.
El
corpus utilizado incluye 5 documentos relacionados con el tema de mi investigación,
y comprende los siguientes documentos:
Santos, P.. Moving the Universities to the «Third Mission» in Europe,
New Impulses and Challenges in Doctoral Education. Foro de Educación,
14(21), 107-132. (2016) doi: http://dx.doi.org/10.14516/fde.2016.014.021.006
Gibbons, M., Limoges, C., Nowotny, H., Schwartzman, S., Seot, P. Trow, M,
The New Production of Knowledge, The Dynamics of Science and Research in Contemporary
Societies, SAGE
Publications, London. (2002),
Leydesdorff, L, The mutual information of university-industry-government
relations: An indicator of the Triple Helix dynamics, Jointly published by
Akadémiai Kiadó, Budapest Scientometrics, and Kluwer Academic Publishers,
Dordrecht Vol. 58, No. 2 (2003) 445.467, (2003),
Göransson,
B. & Brundenius, C., Universities in Transition: 3 The Changing Role and Challenges
for Academic Institutions, International Development Research Centre, Part 1, (2011)
Información
recolectada y su interpretación:
Con
los documentos mencionados en el corpus se generaron las siguientes gráficas, que
permiten algún análisis e interpretación.
Esta nube de
palabras generadas resalta palabras relacionadas con la investigación en tema
de universidades, conocimiento, educación, industria, y alguna relación con
modelos con la triple hélice, contribución teórica que presenta la relación, entre
universidad, gobierno e industria. Así mismo vemos palabras como innovación que
representa otra contribución teórica sobre la forma de producir conocimiento e
impactar la sociedad con esquemas como la innovación. Otras palabras como desarrollo, estudiantes,
ciencia, relaciones pueden ayudar a establecer relación de la educación en el
contexto social.
Respecto a las
tendencias, los 5 términos más utilizados son investigación, doctoral,
conocimiento, educación y universidad, lo cual relaciona claramente dentro del
corpus estos términos sobre lo que se está buscando en la relación de universidad,
gobierno e industria, así mismo se observa una tendencia bastante equilibrada
en los 5 documentos respecto de estas palabras.
Estas 5
palabras aparecen representan un patrono claramente determinado en el corpus de
estos 5 documentos, faltaría relacionar otras palabras que pueden ser
importantes e interesantes como políticas, industria que permitan ver una
relación más directa con la universidad.
Respecto
a la frecuencia de estas palabras, research 221, doctoral 171, knowledge 170,
education 162, university 162, en un total de cerca de 30.000 que representan
el corpus.
Herramientas
como Voyant Tools, permiten análisis de textos que pueden contribuir a la
investigación y a una mejor selección de referencias que enfoquen de alguna
manera los temas relacionados con los objetivos de la investigación.
Para este ejercicio en particular, se tomaron
5 documentos que relacionan alguno de los temas de la investigación y se podría
analizar más a fondo el contenido de los mismos, con las tendencias que permite
ver la herramienta, y su relación con el proyecto en general.
Este
resumen presenta la Introducción del libro
de Saldana, J. (2016)., The Coding Manual
for Qualitative Researchers , y voy a tratar de presentar algunos
ejemplos y definiciones, así como el rol de
los códigos en la investigación cualitativa; también es importante tener
algunos atributos claros en el investigador y el rol de cada método en la respectiva
codificación.
Los tres
principales propósitos del manual son: 1. Discutir las funciones de los códigos
y la codificación, 2. Tener varios métodos de codificación, 3. Tener fuentes,
ejemplos y recomendaciones para el análisis a realizar.
Todo
investigador que quiere realizar análisis cualitativo debe tener claro su
código y método de codificación para el análisis. La excelencia en la
investigación en gran parte radica en el método de codificación (Strauss, 1987,
p. 27). El autor enfatiza que hay momentos de la investigación que es
absolutamente necesaria la codificación de datos, sin embargo, también hay
puntos donde no es apropiado para el estudio. La codificación “coding”, es solo
“un camino” de hacer análisis cualitativo no es “el camino”. Este manual sirve
básicamente como un modelo de referencia para este análisis.
Algunas
definiciones que nos permiten entender y aclarar el método:
¿Que es un Código?
Un Código,
en una investigación cualitativa se puede definir como una palabra o una frase
corta que asigna un atributo a un conjunto de datos, estos datos pueden ser
resultados de entrevistas, documentos, encuestas, correos entre otros. En el
primer ciclo de codificación los datos pueden ir de una palabra a párrafos o
páginas, y aún en el segundo ciclo pueden conservar estas dimensiones.
En
semiótica, un código se relaciona con la interpretación de símbolos en sus
contextos sociales y culturales específicos, mientras que en análisis
cualitativo de datos un código
es una construcción generada por un investigador que simboliza o
“traduce” datos (Vogt, Vogt, Gardner, & Haeffele, 2014, p. 13), y
por lo tanto hay interpretación del significado.
Codificación con
patrones:
Algunas veces es posible agrupar datos por
algunos conceptos y de esta manera generar patrones que pueden compartir
atributos, lo cual también se puede utilizar, los patrones se pueden
caracterizar por, similitud, diferencia, frecuencia de ocurrencia entre otros.
Codificación con filtros lentes y
ángulos:
En esta codificación se requieres usar
la lente analítica de su investigador y cómo percibe e interpreta sus datos de
acuerdo a los filtros y desde el ángulo que se esté mirando.
La codificación como heurística
Los investigadores cualitativos codifican
sus datos durante y después de la recopilación esto como una táctica analítica,
puesto que la codificación es el análisis. Sin embargo, hay otras perspectivas
que dicen: “Codificación y análisis no son sinónimos, aunque la
codificación es un aspecto crucial del análisis” (Basit, 2003, p. 145). La
codificación es una técnica de exploración que sirve para resolución de
problemas sin algoritmos o fórmulas. La codificación siempre va en ciclos y
casi nunca se logra completar el análisis con el primer ciclo, se necesitan
como tres o cuatro para lograr generar categorías, temas, patrones y lograr
conclusiones.
Codificación
y categorización
Codificar
es organizar los datos con un orden sistemático y definido para poder
establecer categorías. Cuando se aplican los códigos a datos cualitativos, en
varios ciclos se busca agrupar, reorganizar y vincular los datos para lograr
consolidar un resultado y así tener una explicación al análisis. (Grbich,
2013). Esta consolidación logra determinar categorías que comparten algunas
características, y nos permiten realizar un análisis. A diferencia de un
análisis cuantitativo donde se calcula una media entre los datos en el
cualitativo se calcula un significado.
Este
proceso de categorización como se mencionó, anteriormente, va en ciclos y se
generan procesos de recodificación y recategorización. La recodificación puede
ocurrir con otra perspectiva utilizando de nuevo los métodos del primer ciclo,
mientras que los métodos del segundo ciclo describen aquellos procesos que
podrían emplearse durante la segunda (y tercera y posiblemente cuarta …)
revisión de datos, este sería un esquema para el análisis.
Algunas categorías pueden contener
grupos de datos codificados que merecen un mayor refinamiento en subcategorías,
cuando se consolidan categorías se llega a los temas y las teorías.
Dato à Codigo à Categoría à
Tema à
Teoría
Técnicas de codificación y diseño de los
datos
La preparación de datos para la
codificación genera más familiaridad con los contenidos y permite iniciar
algunos procesos analíticos básicos. Cuando se preparan los datos cualitativos basados
en texto para la codificación y el análisis manual (es decir, papel y lápiz),
se pueden tener otras ayudas como notas de campo y otros materiales generados
por el investigador. Además de codificar con palabras y frases cortas, nunca
pase por alto la oportunidad de “pre-codificar” (Layder, 1998) siempre
resaltando lo que pueda ser significativo y sea de atención. Es relevante codificar
utilizando un CAQDAS, Computer-Aided
Qualitative Data Analysis, que permita recuperación posterior de los códigos.
Es
importante iniciar la codificación a medida que recopila sus datos, no después
de que se haya completado todo el trabajo de campo, en este momento no
necesariamente hay precisión, pero si sirven para futuros análisis. Se pueden
tener en cuenta algunas preguntas como: ¿Qué hace la gente? ¿Qué están tratando
de lograr? ¿Qué medios y / o estrategias específicas utilizan?, ¿Qué
suposiciones están haciendo? Para mencionar algunos ejemplos. También se debe tener
en cuenta las cantidades de datos y/o códigos cualitativos, por si se quieren transformar en algún análisis estadístico.
Para construir
su libro de códigos es necesarios utilizar un programa CAQDAS – Computer-Aided
Qualitative Data Analysis, que le permita mantener su lista, y utilizarla en
varios momentos. Esta tarea se puede realizar de forma manual o electrónica,
una vez se logra la experiencia con los programas. Se deben conocer sus configuraciones
y utilizar sus opciones de tal forma que se pueda optimizar el uso de la
herramienta, y de esta manera asegurar la confiabilidad de los datos. Con las
herramientas seleccionadas se logran consultas más elaboradas sobre los datos y
por supuesto es una ventaja sobre la búsqueda manual. Para la codificación
existen también dos formas de realizarla, se puede realizar el proceso “solo” o
conformar equipos y compartir diferentes miradas sobre los datos y la
codificación lo cual puede llevar a mejores análisis y resultados.
Sin entrar
en detalle es importante contar con algunos atributos personales necesarios para el proceso de codificación: 1.ser
organizado con los datos, 2.ser perseverante y constante, 3. Ser capaz de
lidiar con ambigüedad en los datos, 4. Ser flexible sobre los datos, 5. Tener
creatividad sobre la codificación, 6. Ser rigurosamente ético sobre sus datos,
y 7. Tener un vocabulario extensivo que le permita definir categorías diversas.
Algunas críticas en contra de la codificación han sido filosóficas y otras
metodológicas. Saldana en su manual referencia algunas de éstas. La
codificación intenta ser objetiva, esto podría ser una discusión extendida
sobre los supuestos ontológicos, epistemológicos y metodológicos de la
investigación. La codificación es
mecanicista, instrumentalista y te aleja de tus datos. Si no existe una buena
codificación, te alejas del significado de los datos. La codificación no es más
que contar las ocurrencias de los códigos y esto sirve para medir frecuencia de
ocurrencias. La codificación es “peligrosa”,
“violenta” y “destructiva”, no entiende Saldana estas
caracterizaciones a la codificación y va totalmente en contra de esto y
seguramente de lo malos codificadores. Se califica la codificación como método
obsoleto para el análisis cualitativo de datos, llevando mas de medio siglo,
las metodologías y herramientas ciertamente han cambiado, pero el proceso es el
mismo.
Termina Saldana este capítulo “comparando la codificación con un arte, una
artesanía, se debe atender el arte y también la artesanía de lo que hacemos”
para lograr el éxito.
Mi
investigación para el doctorado tendrá alto contenido de datos cualitativos,
posiblemente contando con algunos datos cuantitativos. Para el análisis
cualitativo seguramente podré explorar un poco más el trabajo con códigos y
codificación.
(Ejemplos de revisiones sistemáticas de literatura que utilizan análisis de contenido)
Shirley Ann Williams, Melissa Terras, Claire Warwick (2013). “What people study when they study Twitter: Classifying Twitter related academic papers”. Journal of Documentation, 69 (3).
Snelson, Chareen. (2016). Qualitative and Mixed Methods Social Media Research: A Review of the Literature. International Journal of Qualitative Methods. 15. 10.1177/1609406915624574.
Laboratorio:
Selección y estructuración de muestra (sample, corpus) para mini-proyecto
Preparación libro de códigos (coding scheme) para mini-proyecto. Operacionalización de categorías.
Construcción de tabla (spreadsheet) para codificado.
Herring, S. C. (2010).Web content analysis: Expanding the paradigm. In J. Hunsinger, M. Allen, & L. Klastrup (Eds.), The International Handbook of Internet Research (pp. 233-249). Berlin: Springer Verlag.
Cada estudiante realizará una reflexión escrita de una de las lecturas asignadas y la publicará en el sitio web de la clase, en la fecha asignada.
Mini-proyecto
Los estudiantes propondrán y desarrollarán un breve estudio de análisis de contenido. Este proyecto puede utilizar los conjuntos de datos capturados durante el módulo 1 o proponer un nuevo conjunto de datos (ej: noticias, artículos relacionados con uno de los temas de investigación de los integrantes del grupo).
El mini-proyecto será presentado en un breve reporte o documento escrito (post en el website) que incluya una introducción al problema, pregunta de investigación, presentación de los datos, los métodos y las herramientas utilizadas, verificación del proceso de codificado, un breve análisis de los datos (e.g. de contenido) acompañados de visualizaciones, y una conclusión con los hallazgos preliminares de la investigación y sus limitaciones.
Estructura del mini-proyecto (Reporte de construcción de la muestra, sistema de codificado, y análisis de los documentos que conformarán la revisión sistematizada de literatura):
Introducción
Problema
Métodos: definir y explicar el tipo de AC que desarrollarán
Muestra – sample : al menos una presentación de la muestra de documentos que incluirían en su investigación (entre 10 – 20 artículos, capítulos de libros, o libros)
Categorías de análisis (libro de códigos)
Sistema de codificación – esquema de codificación : presentación del instrumento (matriz o tabla para codificado)
Aplicación del sistema de codificación a una sub-muestra o parte de la muestra que utilizarán en el trabajo final (mínimo 5 documentos).
Reflexión sobre fiabilidad e veracidad del sistema de codificado (2 analistas, al menos 5 documentos – puede ser solo con el abstract y los títulos del documento).