Administrando recursos bibliográficos con Zotero (2020)

Administradores o gestores de recursos bibliográficos son parte esencial de la caja de herramientas para investigación en ciencias sociales, comunicación y humanidades. Aunque existen varios software propietarios y abiertos para la gestión de bibliografía, en nuestro curso de Métodos Avanzados utilizaremos la herramienta Zotero desarrollada por el Center for History and New media de George Mason University. Esta herramienta de código abierto y gratuita, funciona a nivel de plug-in en navegadores como Firefox y Chrome y también como software independiente instalado en un computador personal.

Zotero nos va a permitir recopilar, organizar, citar, y colaborar en la gestión de recursos bibliográficos. Mas allá de los libros y artículos, Zotero también permite recolectar fuentes encontradas en la WWW como videos, páginas web, y blogs.  Hay gran variedad de tutoriales sobre Zotero que pueden ser consultados online, incluyendo guías de texto como esta y videos como el que sigue a continuación.

Una de las tareas iniciales que tenemos es la de ir construyendo una colección de fuentes bibliográficas en Zotero para cada uno de nuestros proyectos de investigación. La tarea que iniciamos en la semana 2 es la de iniciar la construcción de esta colección.

Hemos creado también un grupo en Zotero para la clase (Métodos Avanzados – Doctorado CLI), en la cual podemos participar adicionando artículos, libros, paginas web, y otros recursos relacionados con los temas que desarrollamos en el curso. En la librería del grupo  podemos crear diferentes colecciones. He creado una colección llamada Revisiones Bibliográficas Sistematizadas en la cual podemos compartir ejemplos de este tipo de investigaciones, sobretodo relacionadas con ciencias sociales, humanidades y comunicación. Hasta el momento he adicionado 2 entradas, la guía de Lluis Codina (2018) sobre los procedimientos generales y método para crear revisiones bibliográficas sistematizadas, y el artículo de Okoli y Schabram (2010) sobre cómo crear revisiones sistemáticas sobre investigación en sistemas de información. Esos dos artículos proporcionan una metodología clara para la elaboración de las revisiones bibliográficas y son claves para la realización del trabajo final que realizaremos como parte de este curso.

Si tienen alguna pregunta o dudas sobre Zotero, pueden hacerla en los comentarios a esta entrada. La idea es que este espacio funcione también como foro para solucionar problemas y compartir tips que vayamos enfrentando en el proceso de gestión de referencias bibliográficas con esta herramienta.

Manejo clave de los datos en la investigación

El éxito de la investigación estará siempre en los datos, en la naturaleza de estos, en los esquemas de recolección y finalmente en los métodos de análisis que se escojan. Walliman en su libro y específicamente en los capítulos a presentar en esta reflexión, hace un recorrido por los diferentes procesos que atañen al manejo de los datos.

En primera instancia como los datos que son la materia prima de la investigación se pueden relacionar con la información. Cómo llegar de lo general a lo particular, y como partimos de un problema y podemos llegar a los datos que necesitamos para su solución. La jerarquía que sugiere Walliman, se puede expresar desde la teoría, el concepto, el indicador, la variable y el valor. Las teorías vistas como declaraciones imprecisas y expresadas en términos abstractos son base de las investigaciones. Estas necesitan de conceptos que especifican más la teoría, y estos conceptos son complejos de medir en términos de indicadores especialmente en las ciencias sociales y humanas, y requieren de precisión para su definición. Encontrar las variables puede ser igualmente complejo al ser subjetivas y no tangibles. Por último, los valores que identifican las variables definidas. Esta jerarquía ayuda a estructurar la investigación, no importa la disciplina en la que estemos es importante revisar la jerarquía.

Los datos se encuentran en dos formas, datos primarios, y datos secundarios. Los primeros son directos de la observación y los segundos llevan interpretación. Existen cuatro tipos de datos primarios de acuerdo con su esquema de recolección, por medida, por observación, por interrogación y por participación. Los datos primarios son los más confiables. Los datos secundarios, dependen de las fuentes para su confiabilidad. Existen otras dos categorías de clasificación de los datos, cuantitativos y cualitativos, los primeros son los más precisos y fáciles de definir y medir, los cualitativos no tienen la misma precisión y están relacionados con comportamientos, ideas costumbres entre otros. Los datos ya recolectados deben ser medidos y para esta medición Walliman presenta cuatro niveles o escalas, nominal, ordinal, intervalos y ratio. Desde los datos básicos, hasta comparaciones entre ellos o en relación con medidas estandarizadas.

Para el proceso de recolección y análisis de los datos necesarios, es preciso contar con datos secundarios que conllevan conocimiento y experiencia de expertos en las diferentes disciplinas. Existen varios tipos de datos secundarios, los principales son aquellos que encontramos en fuentes documentadas, donde se tienen material escrito, material no escrito, encuestas, es realmente complejo contar con todos los tipos de datos para la investigación de interés, pero es importante realizar una búsqueda que lleve a la mayor cantidad de datos secundarios. Otra fuente de datos secundarios son los datos a través de la web, y datos en línea.  Para los datos documentados se puede contar con varias fuentes, datos textuales, de museos de bibliotecas, comerciales entre otros donde se pueden encontrar diferentes características de acuerdo con la necesidad de investigación. Es importante contar con algunos chequeos que permitan decidir si los datos escogidos son los correctos para la investigación. Posteriormente viene el proceso de análisis de los datos, la tabulación de éstos y el análisis de resultados, Cuando se cuenta con muchos datos es válido utilizar técnicas de minería de datos para los resultados. Para análisis avanzados se utiliza el meta-análisis el cual consiste en un análisis basado en otros análisis, donde se definen las condiciones respectivas.

Para la recolección de datos primarios Wallman nos presenta varios métodos, entre ellos, están preguntas, entrevistas, observaciones, experimentos, para estos métodos es necesario el muestreo que nos lleva a escoger un conjunto representativo de datos de la investigación a realizar, esta recolección de datos puede generar un estudio de caso con las conclusiones del análisis. Un esquema interesante que plantea Walliman es tener la población, el maco referente de la muestra y la muestra, para determinar la población se puede contar con las diferentes características que se quieren, datos homogéneos, por grupos, por estratos, por ubicación entre otros. Para el muestreo existe el probabilístico y el no probabilístico, utilizando métodos aleatorios para la muestra o métodos no aleatorios.

Para la recolección de los datos, existen las encuestas con preguntas cerradas o abiertas, los relatos que conllevan experiencia, entrevistas guiadas, las cuáles pueden ser estructuradas, no estructuradas o semi estructuradas. Las entrevistas pueden ser presenciales, telefónicas, en grupos focales o actualmente utilizando internet.

Para el caso de recolección por observación especialmente para ciencias naturales y técnicas, en estos casos no se involucra el observador en el proceso. Otro esquema es el de experiencia, en el cual se involucra en la situación a medir e investigar.

Por último, se tiene el proceso de validación, el cuál puede ser interno o externo. Este proceso lleva a determinar la validez de los datos en la investigación. Cuando existe la posibilidad de realizar experimentos en laboratorios se pueden tener varios tipos de experimentos, diseños experimentales reales, diseños quasi experimentales, diseños pre-experimentales y diseños post.

Existen también los modelos que permiten ver una representación de los datos, los modelos pueden ser diagramáticos, físico o matemáticos que llevan una simulación.

Las investigaciones de este doctorado llevarán un alto contenido de datos cualitativos, referente a las ciencias sociales y humanas, posiblemente contando con algunos datos cuantitativos. Idealmente en mi investigación se pretende contar con un modelo de valoración de la vinculación de la Universidades con el entorno. Generando un estudio de caso para la Universidad Javeriana.

Preguntas:

¿Cómo determinar los datos que se necesitan en mi investigación?

Que tipos de datos requiere mi investigación?

¿Qué método escoger para el análisis de los datos?

Referencias

Walliman, N. (2011). “Ch. 6. The nature of data,” “Ch.7. Collecting and analyzing secondary data”, “Ch.8. Collecting primary data.” Research methods: The basics. London: Routledge. pp. 65-127.

Módulo 1 – Métodos mixtos y múltiples para la investigación en ciencias sociales, humanidades y comunicación

[Contenido semanas 2, 3, 4]

Guías de laboratorios para cada semana se encuentran aquí.

Semana 2. (27.1.2020) 

Combinando métodos cualitativos y cuantitativos. Dilemas éticos. Estrategias y herramientas para sistematizar revisiones bibliográficas. 

Lecturas requeridas:

  • Hernández Sampieri, R., Fernández Collado, C., Baptista Lucio, P. (2010). (5a Edicion). “Capitulo 17. Los métodos mixtos.” Metodología de la Investigación. McGraw Hill: México D.F. 
  • Neuman, L. (2006). “Ch 2. What Are the Major Types of Social Research?” Social research methods: qualitative and quantitative approaches. Boston: Pearson/AandB.
  • Ruiz Bolivar, C. (2008). El enfoque multimétodo en la investigacion social y educativa: una mirada desde el paradigma de la complejidad. 
  • Walliman, N. (2011). “Ch. 6. The nature of data,” “Ch.7. Collecting and analyzing secondary data”, “Ch.8. Collecting primary data.” Research methods: The basics. London: Routledge. pp. 65-127

Lecturas adicionales:

  • Codina, L​.  (2018) ​Revisiones bibliográficas sistematizadas: Procedimientos generales y Framework para Ciencias Humanas y Sociales. ​Barcelona: Máster Universitario en Comunicación Social. Departamento de Comunicación. Universitat Pompeu Fabra, 2018.
  • Fuentes, R. (2010). Investigación de la comunicación: referentes y condiciones internacionales de un diálogo transversal de saberes. Signo y Pensamiento No. 57. pp 38-49 · volumen XXIX · julio – diciembre 2010
  • Hernández Sampieri, R., Fernández Collado, C., Baptista Lucio, P. (2010). (5a Edición). “Capítulo 1. Definiciones de los enfoques cuantitativo y cualitativo, sus similitudes y diferencias.” Metodología de la Investigación. McGraw Hill: México D.F. 
  • Mertens, D., Bazeley, P., Bowleg, L., Fielding, N., Maxwell, J., Molina-Azorin, J. F., et al. (2016). The future of mixed methods: A five year projection to 2020.
  • National Science Foundation (2004) Workshop on Scientific Foundations of Qualitative Research Washington, D.C: National Science Foundation. www.nsf.gov/pubs/2004/nsf04219/nsf04219.pdf 
  • Snelson, C. L. (2016). Qualitative and Mixed Methods Social Media Research: A Review of the Literature. International Journal of Qualitative Methods.

Laboratorio:

Semana 3. (3.2.2020)

Fundamentos de métodos digitales y computacionales. Estrategias y herramientas para la captura, estructuración y análisis de datos. Ética de la información.

Lecturas requeridas:

  • Berry, David (2011) The computational turn: thinking about the digital humanities. Culture Machine, 12. ISSN 1465-4121
  • Cioffi-Revilla, Claudio. 2010. “Computational social science”. Wiley Interdisciplinary Reviews: Computational Statistics 2(3): 259–271. 
  • Rogers, R. (2013). “Introduction: Situating Digital Methods” y “The End of the Virtual: Digital Methods.” Digital Methods. Cambridge, MA: The MIT Press. pp 1-38. 
  • Wouter van Atteveldt & Tai-Quan Peng (2018) When Communication Meets Computation: Opportunities, Challenges, and Pitfalls in Computational Communication Science, Communication Methods and Measures, 12:2-3, 81-92.

Lecturas adicionales:

  • Cruz Mesa, Hernando (2009). La net-ética desde la perspectiva de una secuencia de investigaciones sociales. Signo y Pensamiento, XXVIII(55),136-151.[fecha de Consulta 16 de Enero de 2020]. ISSN: 0120-4823. Disponible en: https://www.redalyc.org/articulo.oa?id=860/86020246010
  • Manovich, L. (1999). Database as Symbolic Form. Convergence, 5(2), 80–99. 
  • Rinnovati, L. (2007) A literature review in digital humanities computing. (Unpublished) [Preprint] http://eprints.rclis.org/12452/
  • Trevisan, F. (2014). Search engines: From social science objects to academic inquiry tools. First Monday, 19(11).  
  • https://firstmonday.org/ojs/index.php/fm/article/view/5237/4157
  • Venturini, T., Bounegru, L., Gray, J., & Rogers, R. (2018). A reality check(list) for digital methods. New Media & Society, 20(11), 4195–4217. 

Laboratorio:

  • Visualización y análisis de textos y bases de datos con Databasic.io
  • Captura y análisis de datos de Twitter con DMI-TCAT
  • Búsqueda, filtrado, y análisis de medios noticiosos con Media Cloud
  • Limpieza de datos con Open Refine

Semana 4. (10.2.2020) 

Redes y Datos. Big data, smart data, thick data. Herramientas y estrategias para el análisis y visualización de redes sociales digitales. Ética de datos provenientes de redes sociales y macro-datos (big data).

Lecturas requeridas:

  • Arikan, B.  (2015) Mapping Networks. Medium post. https://medium.com/graph-commons/mapping-networks-1dea70b2f550
  • Hanneman, Robert A. and Mark Riddle.  2005. “Chapter 1. Social Network Data.” Introduction to social network methods.  Riverside, CA: University of California, Riverside. (en Inglés html version https://faculty.ucr.edu/~hanneman/nettext/) (Traducción en Español disponible en http://revista-redes.rediris.es/webredes/textos/Introduc.pdf)
  • Wang, T. (2016) ¿Por qué Big Data necesita Thick Data?. Medium post. 
  • Zeng, M. (2017). Smart Data for Digital Humanities, Journal of Data and Information Science, 2(1), 1-12. doi: https://doi.org/10.1515/jdis-2017-0001

Lecturas adicionales:

  • Arikan, B.  (2015) Creative and Critical Use of Complex Networks. https://medium.com/graph-commons/creative-and-critical-use-of-complex-networks-412fe9eddecb
  • Arikan, B.  (2015) Analyzing data networks. https://medium.com/graph-commons/analyzing-data-networks-f4480a28fb4b
  • González-Bailón, S. (2017) “Chapter 5. Networks and Social Distance.” Decoding the Social World Data Science and the Unintended Consequences of Communication. Cambridge: MIT Press
  • Grandjean, M. (2016). A social network analysis of Twitter: Mapping the digital humanities community. Cogent Arts & Humanities, 3(1), 1171458. https://doi.org/10.1080/23311983.2016.1171458
  • Markham, A. N., Tiidenberg, K., & Herman, A. (2018). Ethics as Methods: Doing Ethics in the Era of Big Data Research—Introduction. Social Media + Society. https://doi.org/10.1177/2056305118784502

Laboratorio:

  • Construcción, análisis y visualización de redes sociales con Graphcommons.
  • Análisis y visualización de redes sociales de Twitter con Gephi.

Evaluación módulo 1 (20%):

  • 5% reflexiones escritas
  • 5% presentación en clase de una de las lecturas
  • 10% actividades de laboratorio y mini-proyecto.

Presentación en clase

Cada estudiante se hará responsable de presentar ante la clase una de las lecturas de las sesiones del módulo 1. La presentación se realizará durante 8-10 minutos, con ayuda visual (4-5 diapositivas). El estudiante expondrá la lectura identificando las características del método (o métodos) descrito (s) en la lectura, y realizará preguntas abiertas relacionadas con el diseño de investigación en ciencias sociales, humanidades y comunicación y con la investigación que adelanta en el doctorado.

Mini-proyecto

Cada estudiante propondrá y desarrollará un estudio exploratorio de la red social Twitter o de los medios noticiosos Colombianos, durante un periódo de tiempo particular (de acuerdo a disponibilidad de datos), utilizando métodos múltiples y algunas de las herramientas que hemos aplicados en el módulo 1 (Google Trends, Media Cloud, TCAT, Gephi, GraphCommons).

El mini-proyecto será presentado en un breve reporte o documento escrito (post en el website) que incluya una introducción al problema, pregunta de investigación, presentación de los datos, los métodos y las herramientas utilizadas, un breve análisis de los datos (e.g. de contenido, de frecuencia, de red) acompañados de visualizaciones, y una conclusión con los hallazgos de la investigación y sus limitaciones. 

Para mayor información consultar guía del mini-proyecto Módulo 1.