sábado, 10 de agosto de 2013

DESARROLLO DE LA TESIS

¿Qué forma tienen el esquema tentativo de una tesis o de un proyecto de grado?

El esquema tentativo de la tesis es de la siguiente forma:

ESQUEMA TENTATIVO DE LA TESIS o del PROYECTO DE GRADO.

Resumen

I.                   Introducción
1.1  Formulación del Problema
1.2  Justificación del Problema
1.3  Hipótesis de la Investigación
1.4  Objetivos de la Investigación
II.                Metodología de la Investigación
III.             Marco Referencial y Teórico
3.1  ……….. Estos subtítulos se desarrollan de acuerdo al área
                                         temática que se esta investigando.
3.2  ………..                    
3.3  ………..                    
IV.             Verificación de Hipótesis (Resultados, análisis y discusión).
4.1 ……….  Estos subtítulos se desarrollan de acuerdo a los objetivos de la investigación.
4.2. ………
4.3……….
V.                Conclusiones
VI.             Recomendaciones
ANEXOS
            Bibliografía

Nótese que el esquema tentativo de la tesis, SOLO es el índice que se muestra en las anteriores líneas.



¿Qué debe de contener cada punto del esquema de la tesis?

Una vez que el PERFIL de tesis o PERFIL de proyecto de grado se encuentre aprobado, el significado de cada uno de estos puntos de la TESIS sería el siguiente:

      Resumen

Siempre se redacta AL FINAL DE CONCLUIDO EL TRABAJO DE INVESTIGACIÓN, contienen una síntesis de: la introducción, la metodología, y los principales resultados que se han obtenido en la investigación, (se redacta en una o dos páginas).

I.       Introducción
     
1.0  Formulación del Problema
1.1  Justificación del Problema
1.2  Hipótesis de la Investigación
1.3  Objetivos de la Investigación

Es una transcripción prácticamente textual de lo que existe en el perfil de la tesis, (el lector puede verificar que todos estos puntos se han considerado en el esquema formal del perfil de la tesis o perfil de proyecto).

II.    Metodología de la Investigación

También es una transcripción textual de lo que existe en el perfil de la tesis o del proyecto de grado, en algunos casos se puede enriquecer con información mucho mas precisa o apuntar los cambios “de forma” en cuanto a procedimientos se refiere (5-10 Pags.)

III. Marco Referencial y Teórico

      3.1 ……..              Estos subtítulos se desarrollan de acuerdo al área temática que se esta investigando.
      3.2………
      3.3………
     
                                   La diferencia de este punto con respecto a lo que existe en el perfil, es que en la elaboración de la tesis o del proyecto de grado  se debe de enriquecerlo tanto en calidad como cantidad. Enriquecerlo en cantidad significa que se debe profundizar  la investigación bibliográfica relativa al área temática que se esta investigando, p.e. si en el perfil de tesis esta parte se constituye de 4-5 páginas en las  tesis o en el proyecto de grado debe de aumentarse en 30-40 páginas, mientras que enriquecerlo en calidad, significa que las fuentes bibliográficas deben de ser un numero mayor, es decir si en el perfil se ha citado a 3-5 autores en la tesis o proyecto de grado se debe de citar 10-20 autores o todo lo que exista, dosificando el numero de paginas, tratando de no extenderse demasiado, sino más bien extractando lo mas importante y valioso para nuestro trabajo de investigación.

IV. Verificación de Hipótesis (Resultados, análisis y discusión.
     
      4.1 …………                   Estos subtítulos se desarrollan de acuerdo a los objetivos de la investigación.
      4.2 …………
      4.3 …………

      Para desarrollar este capitulo se tiene que poner en práctica el plan de investigación desarrollado previamente en el perfil (metodología de la investigación), es decir examinarlo una y otra vez para recordar lo que se ha planteado inicialmente y ver cual ha sido el plan de acción que se había trazado. Lo que usualmente ocurre para desarrollar este capitulo, es que se tiene que recoger primero la información luego procesarla, con lo que se obtendrá “resultados en bruto”, llegando a este punto recién se tendrá una base para comenzar la redacción sistemática del capitulo correspondiente. Este capitulo constituye el aporte de la investigación. (30-40 paginas).

V.    Conclusiones

Se redactan en forma de enunciados que sintetizan los resultados de la investigación. No podemos  apartarnos en la redacción de la investigación de los objetivos  de la investigación, es decir no podemos poner como conclusiones de la investigación “afirmaciones” que no sabemos de donde llegan ni que tienen relación con el trabajo de investigación. Usualmente las conclusiones se deben de redactar teniendo en cuenta los objetivos de la investigación. (1-2 paginas).

VI. Recomendaciones

Son sugerencias de carácter práctico o teórico que se plantean teniendo como base o referencia los resultados o conclusiones de investigación. (1-2 paginas).

      ANEXOS

Los anexos son algo así como archivadores de información complementaria y extensa de los capítulos que corresponde tanto a la metodología (cap. III) como a la verificación de la hipótesis (cap. IV) de la investigación. Se usa con un criterio de poder presentar los métodos y resultados de la investigación de una mejor manera y con el fin de darle presentación o aclaración a puntos que así lo ameriten. (muy variable: 2-20 paginas).

      Bibliografía

Esto es lo mismo a lo que se indico en el esquema del perfil de la tesis, solo que el número de referencias bibliográficas aumenta.


      

sábado, 27 de julio de 2013

Herramientas de recolección de datos


La observación
Se define como una técnica de recolección de datos que permite acumular y sistematizar información sobre un hecho o fenómeno social que tiene relación con el problema que motiva la investigación. En la aplicación de esta técnica, el investigador registra lo observado, mas no interroga a los individuos involucrados en el hecho o fenómeno socia; es decir, no hace preguntas, orales o escrita, que le permitan obtener los datos necesarios para el estudio del problema. La observación tiene la ventaja de facilitar la obtención de datos lo más próximos a como éstos ocurren en la realidad; pero, tiene la desventaja de que los datos obtenidos se refieren sólo a un aspecto del fenómeno observado. Esta técnica es fundamentalmente para recolectar datos referentes al comportamiento de un fenómeno en un “tiempo presente”; y no permite recoger información sobre los antecedentes del comportamiento observado.

Así mismo, la observación no permite conocer los proyectos de vida, expectativas, ni actitudes latentes en los individuos y grupos que el investigador observa. Al respecto, la técnica de la observación se complementa con la técnica de la entrevista o el cuestionario y/o la técnica del análisis de contenido; dependiendo esto del tipo y alcances de la investigación. Los pasos generales que el investigador sigue en el uso de la técnica de la observación son: Se identifica y delimita el problema motivo de estudio. El investigador toma contacto directo, a través de la observación, con el hecho o fenómeno social relacionado al problema motivo de estudio.

El investigador registra o toma nota de lo observado. Al respecto, lo ideal es que el investigador tome nota de los datos conjuntamente al desarrollo de los acontecimientos que observa; sin embargo el registro debe hacerse en circunstancias que eviten poner en peligro el desarrollo normal del fenómeno como consecuencia de que los individuos observados no se percaten que hay alguien que registra sus comportamientos. De todas maneras, el registro de la información, que comprende una descripción objetiva y detallada de lo observado, debe hacerse lo más inmediatamente posible a la ocurrencia de los acontecimientos, a fin de evitar problemas derivados del uso de la memoria o la interferencia de otros sucesos que pueden contaminar la información pendiente de registro.

La sistematización de la información registrada se consolida en una matriz de datos, para su posterior análisis. Para sistematizar la información en una matriz de datos donde se establezca la relación entre unidades de análisis, variables y valores o respuestas, el investigador deberá auxiliarse de la técnica de análisis de contenido, la cual será descrita posteriormente. Uno de los principales riesgos en el uso de la técnica de la observación es el sesgo o distorsión que el investigador pueda producir en el registro de la información, como consecuencia de diversos factores, tanto de carácter personal (mala memoria; prejuicios; estereotipos; ideologías; etc.) como factores coyunturales (por ejemplo, la falta de condiciones apropiadas para el registro de los datos).

El investigador, pues, debe registrar la información en forma veraz y lo más objetivamente posible, de manera descriptiva y detallada, sin ningún tipo de interpretación. Una estrategia para evitar en gran medida el análisis del problema con una información que contenga elevados márgenes de error, es que sean más de un investigador quienes observen y registren los hechos; de esta manera se puede realizar una crítica o proceso comparativo de control de calidad de los datos, detectando las inconsistencias y contradicciones, así como correlacionando estadísticamente la información registrada por todos los investigadores a fin de determinar u grado de validez y confiabilidad.

Tipos de observación
Ø  Observación no estructurada o participante.
Ø  Observación estructurada.

  • La observación no estructurada o participante
Tiene las siguientes características:
El investigador no tiene un esquema o plan premeditado referente a que variables debe observar con mayor énfasis; y recoge todo tipo de información sin discriminar si tiene o no un carácter relevante para el análisis del problema de investigación. El investigador participa en algún grado de la vida del grupo que origina el hecho o fenómeno social motivo de observación.
Al respecto, existen estrategias que el investigador deberá utilizar apropiadamente para incorporarse al grupo y hacer vida común con los demás miembros a fin de obtener información veraz y detallada. La observación no estructurada generalmente se utiliza como una técnica de recolección de datos para estudios exploratorios que permiten definir con más precisión el problema, las hipótesis y variables a investigar.




  • La observación estructurada
Tiene las siguientes características:
El investigador tiene un plan referente a qué variables debe observar y por tanto qué tipos de datos deben ser recolectados. No es indispensable la incorporación del investigador a la vida del grupo involucrado en el hecho motivo de observación para obtener la información necesaria. Permite poner a prueba más adecuadamente hipótesis referente al problema motivo de investigación. En la medida que el investigador tiene un plan de seguimiento del hecho que observa, puede utilizar fichas o formatos especiales para el registro de la información.


Tanto la observación no estructurada como la observación estructurada son técnicas que permiten la recolección de datos en experimentos controlados. Es decir, someter a grupos de individuos a determinados estímulos y observar su comportamiento. Por ejemplo, si queremos detectar algunos factores que condicionan el comportamiento de los habitantes de una ciudad en relación a las funciones que cumplen las autoridades locales en bien de la comunidad, estas autoridades pueden beneficiar con algunas medidas sólo a una parte de los habitantes, de tal manera que es posible observar el comportamiento tanto del grupo beneficiado como del que no recibió dicho beneficio y determinar si existen diferencias significativas.

domingo, 31 de marzo de 2013



Si bien el análisis e interpretación de los resultados es la última etapa del proceso de investigación, todas Ias anteriores, comprendidas en el diseño, concurren hacia la realización de esta importante operación.


Como dice Encinas (1993), los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", en ello consiste, en esencia, el análisis e interpretación de los datos.

"El propósito del análisis es resumir las observaciones llevadas a cabo de forma tal que proporcionen respuesta a la interrogantes de la investigación. La interpretación, más que una operación distinta, es un aspecto especial del análisis su objetivo es "buscar un significado más amplio a las respuestas mediante su trabazón con otros conocimientos disponibles" (Selltiz, 1970) que permitan la definición y clarificación de los conceptos y las relaciones entre éstos y los hechos materia de la investigación.

La relación entre análisis e interpretación y la forma específica que toman, tanto separada como conjuntamente, varían de un estudio a otro”, dependiendo de los distintos esquemas o niveles de investigación y, fundamentalmente, del diseño propuesto.

Los datos, a partir de los cuales el investigador inicia el análisis, son diferentes según el nivel de elaboración realizado, el cual depende de la naturaleza del problema de investigación y, consecuentemente, del tipo de investigación; también de las técnicas y procedimientos seguidos en la elaboración.

De acuerdo a estas consideraciones, los datos que se utilizan en el análisis pueden ser:

Datos cuantificados  

Datos no cuantificados

Datos no estructurados.


Algunos tipos de estudios, por su naturaleza, aportan datos elaborados, es decir, cuantificados. El tratamiento estadístico de los datos permite un análisis adecuado que puede tener diversos alcances, los cuales dependen de los objetivos de la investigación y de las hipótesis formuladas.

Según Selltiz (1970), al análisis puede estar orientado a:

Determinar lo que es típico en el grupo estudiado. (Se utiliza algunas de las medidas de tendencia central, según el caso). S Indicar si existen variaciones entre los sujetos del grupo, señalando de qué tipo y magnitud son. (Se utiliza alguna de las medidas de variabilidad; cada una proporciona datos sobre un aspecto diferente).

Mostrar la forma cómo están distribuidos los individuos con respecto a la variable que se mide. (Se utiliza el desarrollo de una curva de distribución). Mostrar la relación existente entre dos o más variables. (Se aplica el coeficiente de variabilidad).

Describir las diferencias existentes comparando dos grupos de individuos.


No todos los aspectos del material recogido pueden ser categorizados y, consecuentemente, cuantificados, debidos, en algunos casos, a la falta de precisión en la definición de las categorías, lo que dificulta el análisis de los resultados. Por este motivo, se recomienda considerar que cada categoría propuesta comprenda un amplio margen de criterios para las respuestas.

De todos modos, los datos sin elaborar, "pueden ser utilizados en el análisis e interpretación sin tener en cuenta si han sido o no cuantificados en todos los aspectos", pues cumplen una función importante:

Ayudan a entender el significado de las categorías;

Aclaran la naturaleza de las relaciones entre las variables determinadas estadísticamente; y  permiten orientar al investigador a formular nuevas hipótesis para futuras investigaciones.


El material no estructurado es el que proviene, por ejemplo, de observaciones o entrevistas no estructuradas, en las cuales se recoge mucho material, a veces valiosa, pero sin ninguna pauta que permita alguna forma de organización y menos de clasificación.

En algunos casos, los estudios de nivel exploratorio, que no se inician con hipótesis, cubren aspectos diversos, los cuales conducen al acopio de datos en cantidad excesiva y no estructurado.

El problema que plantea este tipo de datos es doble: primero porque se necesita determinar qué aspectos del material requieren ser categorizados, y segundo, saber qué principios de clasificación pueden utilizarse.

Selltiz (1970) propone, como soluciones al problema expuesto, elaborar, en primer término, hipótesis de trabajo que permitan establecer principios de clasificación y, en segundo lugar, utilizar algunos procedimientos que puedan ayudar en el análisis, tales como:

Estudiar el material correspondiente a un grupo que contrasta con el que se está investigando, con el objeto de obtener elementos que sugieran ideas sobre las diferencias significativas entre ambos grupos, respecto de la característica que se analiza.

Otro procedimiento consiste en formar grupos con lo casos motivo de estudio sobre características comunes; después se analizan para ver si aquellos que tienen características semejantes han pasado por experiencias parecidas.

También, pueden formarse grupos sobre la base de aquellos que han tenido experiencias similares, y ver en qué medida, son semejantes respecto de las características comunes que presentan.

sábado, 9 de marzo de 2013


NOCIÓN Y ESTRUCTURA DEL DATO

La palabra dato tiene su origen etimológico en el término latino "Datum" que significa "lo dado". Sin embargo, en sentido estricto, en el ámbito de la investigación científica, como señala Gil Flores, J. (1) "La mayoría de los autores asumen que el investigador desempeña un papel activo respecto de los datos: el dato es el resultado de un proceso de elaboración, es decir, el dato hay que construirlo."

Siguiendo al mencionado autor, aunque no textualmente, la noción de Dato, se puede definir como aquella información extraída de la realidad que tiene que ser registrada en algún soporte físico o simbólico, que implica una elaboración conceptual y además que se pueda expresar a través de alguna forma de lenguaje. Los principales componentes enumerados por Gil Flores, J., se incluyen en esta definición, los cuales giran alrededor de la noción de dato, ellos son los que a continuación se exponen: 

1) Una elaboración conceptual. 
2) Un contenido informativo. 
3) Un registro en algún soporte físico y 
4) La expresión de los mismos en alguna forma de lenguaje, ya sea numérica o no numérica. 

Tales componentes operan durante todo el proceso de la investigación, esto es, desde la elección del tema, la elaboración del diseño hasta el informe final, pero se plasman durante la etapa de recolección de datos a través de la administración de las técnicas de investigación, ya sean cuantitativas o cualitativas. En efecto, una entrevista producirá datos de naturaleza verbal, un test de inteligencia datos de naturaleza numérica. También esta la alternativa a través de la cuál el investigador encuentra los datos que han sido producidos por "otros", ya sea por los sujetos investigados o por otros investigadores. A pesar de ello, el dato obtenido es el resultado de una interacción entre el investigador, con sus supuestos básicos subyacentes, su enfoque del problema, los objetivos del estudio y su adhesión a algún paradigma teórico y/o metodológico. 

Galtung, J. define el término "dato" de la siguiente manera (2): "Se obtienen datos sociológicos cuando un sociólogo registra hechos acerca de algún sector de la realidad social o recibe hechos registrados para él." 

También sostiene que todo dato tiene una estructura compuesta por tres elementos: unidades de análisis, variables y valores. Cualquier dato consistirá en: 

1) Una unidad de análisis que
2) En una variable asumirá
3) Un determinado valor. 

Así lo que constituye un dato, para este autor, son estos tres elementos considerados en forma conjunta a través de las relaciones que mantienen entre sí. 

Ahora bien, es necesario definir estos tres términos que en forma conjunta constituyen un dato. Las Unidades de Análisis son los elementos menores y no divisibles que componen el universo de estudio de una investigación. Sobre dichos elementos se estudia el comportamiento de las variables. Las unidades de análisis se establecen de manera previa a la etapa de recolección de datos, por ende, su definición forma parte del marco teórico. Las mismas se pueden clasificar según Mayntz, R.(3) en: 

1) "Individuos como seres sociales. 
2) Determinados productos de la acción humana, tanto de tipo material como inmaterial (por ejemplo, ideas, representaciones valorativas, normas), 
3) Colectivos sociales o grupos: a saber desde conglomerados pequeños y efímeros hasta grandes colectividades organizadas con inclusión de las sociedades globales". 

Generalmente, cuando las unidades son colectivos sociales, se distingue entre unidades de análisis y unidades de observación, estas últimas son las que van a aportar la información que se va a registrar y luego se va a comunicar a través de un lenguaje numérico o no numérico. Por ejemplo: si en un estudio las unidades de análisis son las escuelas, las unidades de observación pueden ser las autoridades de la escuela, los docentes y los alumnos. 

En lo que atañe al término Variable, el mismo tiene un origen matemático y luego por extensión en las ciencias sociales se convirtió en sinónimo de aspecto o dimensión, Korn F. (4) lo define de la siguiente manera: " En otros términos, el significado completo de la palabra "variable", tal como es usada en ciencias sociales, contiene no sólo la connotación de "aspecto" o "dimensión" de un fenómeno, sino también la propiedad de estos aspectos o dimensiones de asumir diferentes valores." 

También se puede definir el término variable, como un concepto acerca de algún aspecto y/o magnitud de un elemento o unidad de análisis capaz de asumir diferentes cualidades y/o valores. 

Mientras que un Valor o categoría es una de las diferentes posiciones o alternativas que presenta la variable y adopta alguna unidad de análisis y se puede expresar cualitativamente a través de una clasificación por ausencia y presencia, por jerarquía u orden o sino cuantitativamente, es decir, a través de magnitudes. 

Cabe señalar, que Samaja, J. (5), contrariamente a lo que dice Galtung, sostiene que la estructura general del dato científico tiene cuatro componentes, a saber: 

1) Unidad de análisis
2) Variables
3) Valores 
4) Indicadores. 

Estos cuatro elementos del dato científico se relacionan con cuatro funciones que cumplen los enunciados descriptivos: 

1) La Unidad de análisis corresponde al componente "argumento" (X); 
2) La Variable, a la función misma (F); 
3) El Valor coincide, incluso en el nombre, con el valor de la función (Y), y
4) El Indicador con las operaciones de que está construida y que permiten calcular el valor de la función. 

El autor lo ejemplifica a través de un diálogo sacado de una escena entre Sherlock Holmes y el Dr. Watson: "Por lo que veo, ha estado usted en Afganistán". Según Samaja "Independientemente de las características coloquiales que tiene la afirmación anterior, en ella hay dato." Y más adelante afirma: "La unidad de análisis (UA) es, en este caso concreto el Dr. Watson. La función de descripción (que en la jerga metodológica se denomina "variable" (V) es "lugar de residencia". El valor (R) es Afganistán. Y por último, el indicador (I) (Por lo que veo ...") es "observación de indicios físicos". 

Si bien la propuesta elaborada por el autor es interesante, cabe señalar que en la jerga metodológica un Indicador, en principio, es una variable de nivel empírico que se deduce y representa a la variable teórica. Según Díez Nicolás, J. (6) "El indicador es un signo (propiedad, atributo, variable) mediante el cual nos aproximamos al conocimiento de ciertas características de un objeto que no se pueden medir directamente (de aquí que se hable de inferencia)." Por lo expuesto y como se podrá apreciar más adelante, los indicadores se ubican, en una matriz de datos, en las columnas como el resto de las variables. Por ello, se opta en este trabajo por la concepción de Galtung acerca del dato, o sea, por la estructura tripartita del dato. Además, esta postura es la que goza de mayor consenso entre los autores que abordan el tema, como por ejemplo, para citar algunos de ellos: Baranger, D. (7), Errandonea, A. (8), Yalour, M.(9), Ghiglione, R. y Matalón, B. (10). 

CLASIFICACIÓN DE LOS DATOS:

Sierra Bravo, R. (11), establece ciertos criterios de clasificación de las investigaciones científicas, a saber: según su fin, alcance temporal, amplitud, nivel de profundidad, carácter, marco, naturaleza y fuentes. Precisamente, las fuentes de datos son clasificadas, según el último criterio mencionado como: primarias, secundarias y mixtas. 

1) Fuentes Primarias: son aquellos datos que son relevados por el investigador para realizar el estudio. La principal ventaja es que los mismos responden al problema, delimitación, objetivos y perspectiva teórica elaborada por el investigador. La desventaja principal que tienen los estudios con datos primarios es que los costos suelen ser muy elevados, por ello, en el diseño de los mismos hay que contemplar cuidadosamente los aspectos económicos y administrativos. 

2) Fuentes Secundarias: son aquellos que no han sido relevados por el investigador pero que son usados por él para realizar la investigación. La principal ventaja que tienen es que los costos son reducidos o nulos. En cambio, entre los inconvenientes que pueden presentar, se pueden destacar los siguientes: es muy probable que dichos datos hayan sido recogidos en función de otra problemática, otros objetivos y perspectiva teórica. Además hay que analizar cuál fue el universo de estudio, las unidades de análisis, la delimitación temporal y geográfica, la definición de las variables, el sistema de categorías, etc. Lo que antecede implica efectuar una evaluación de la calidad de los datos para así determinar si se ajustan o no al enfoque que un investigador pretende dar al tema en cuestión. 

Ambos tipos de fuentes pueden incluir a su vez, Datos Numéricos que se rigen por técnicas estadísticas, también denominados "Datos Duros" y Datos No Numéricos o cualitativos, como por ejemplo, notas de campo, fotos, transcripción de entrevistas, documentos oficiales y personales, diarios, películas, etc. También se los denomina "Datos Blandos", esto es, difícilmente manejables mediante procedimientos estadísticos, aunque a través de posteriores elaboraciones, como por ejemplo, con una adecuada codificación y análisis de contenido, puedan expresarse mediante números. De acuerdo con lo expuesto precedentemente, se puede elaborar una Tipología de los Datos, en la misma se cruza la clasificación de los datos en primarios y secundarios, con la clasificación de los datos en numéricos y no numéricos. El resultado de la combinación brinda un tipo de dato para cada celda, como se puede observar en la siguiente tabla: 
                                                 TIPOLOGÍA DE LOS  DATOS 
                                                        PRIMARIOS                                    SECUNDARIOS
NUMÉRICOS                        PRIMARIOS NUMÉRICOS          SECUNDARIOS  NUMÉRICOS

NO NUMÉRICOS         PRIMARIOS NO NUMÉRICOS          SECUNDARIOS NO NUMÉRICOS

3) Fuentes mixtas: este tipo de fuentes implica la combinación en un mismo estudio de datos primarios y datos secundarios, tanto cuantitativos como cualitativos. 

sábado, 23 de febrero de 2013


PRUEBA DE HIPÓTESIS
El proceso de prueba de hipótesis puede hacerse de dos maneras: mediante técnicas estadísticas o mediante técnicas que no requieren el empleo de la estadística.
Se ha dado en llamar investigación cuantitativa cuando se usan técnicas estadísticas y se denomina investigación cualitativa cuando no se usan técnicas estadísticas. En la actualidad se desarrolla una polémica muy intensa en torno a la validez de estas técnicas, pero parece ser que algunas variables, necesariamente deben ser estudiadas con métodos cuantitativos, porque es posible medir o cuantificar sus magnitudes o propiedades, mientras que otras variables, por su propia naturaleza, no pueden estimarse cuantitativamente, entonces se deben emplear, necesariamente, los métodos cualitativos. En muchos casos, las últimas investigaciones científico sociales se realizan integrando el análisis cuantitativo con el cualitativo, lo que permite una mejor comprensión de los fenómenos que se estudian. En lo que sigue, se explicará la metodología que emplea técnicas estadísticas.
Cuando se emplean métodos estadísticos o cuantitativos, se dispone de dos tipos de pruebas estadísticas: las paramétricas y las no paramétricas. Las pruebas paramétricas sirven para analizar eventos producidos por el azar o la suerte, mientras que las pruebas no paramétricas sirven para analizar eventos producidos por la intención, la voluntad o los propósitos. En la investigación de la conducta, campo en el que predomina la voluntad y la intención de los individuos, las hipótesis se contrastan con pruebas no paramétricas. En cambio, las pruebas paramétricas se usan cuando las hipótesis tienen que ver con situaciones en las que no actúa la voluntad o la intención de las personas, es decir, cuando los hechos se producen al azar. Es más
plausible usar pruebas paramétricas en la investigación en ciencias naturales.

4. NIVEL DE SIGNIFICACIÓN
En todo proceso de investigación cabe suponer que los eventos pueden ocurrir por causa del azar o de la intención. El problema radica en determinar cuándo un evento se produce por causas del azar o cuándo un evento se produce por causas de la intención. El nivel de significación proporciona los criterios para decidir acerca de esta situación.
El nivel de significación es el margen de tolerancia aceptable para establecer los límites, dentro de los cuales, se debe decidir si los eventos ocurren por causas del azar o por causas de la intención. El nivel de significación se expresa en términos de porcentajes. Para el caso de la investigación de la conducta el porcentaje aceptable es del 5%, lo que significa que para aceptar una hipótesis alterna tendrá que ser
necesario que los eventos sucedan en el 95% de los casos, y sólo en el 5% sucedan por causas del azar. Por ejemplo, si el investigador postula la siguiente hipótesis: el método didáctico de trabajo en equipo permite mejorar el nivel de aprendizaje de los estudiantes, y encuentra que en el grupo en el que ha aplicado la variable método didáctico de trabajo en equipo, el nivel de aprendizaje del grupo, en promedio, es 13,45, mientras que en el grupo en el que no ha aplicado dicha variable el promedio del grupo llega a 13,06, debe decidir si la diferencia entre estas dos puntuaciones, que sólo es de 0,39 centésimos, ha sido producida por la aplicación de la variable método didáctico de trabajo en equipo o simplemente ha sido producida por la casualidad o el azar. En estas situaciones, el investigador no tiene elementos de juicio para decidir si los hechos se han producido por el azar o por la aplicación de la variable, que es la situación intencionada. Como es natural, si las diferencias que halla son mínimas, cabe suponer que los hechos se producen por la
casualidad o el azar. En cambio, si las diferencias son notorias, cabe suponer que los hechos se han producido como consecuencia de la aplicación de la variable. El problema que tiene el investigador, en esta etapa del proceso, radica en establecer a qué llama pequeña diferencia o diferencia no significativa o diferencia grande o significativa. El nivel de significación es el criterio que le permite adoptar la decisión
más adecuada.
El nivel de significación también se puede expresar en términos decimales: En este caso, 5% equivale a 0,05 ya que el margen de confianza es 0,95. La suma de estas cifras da 1. En las Ciencias Sociales, el nivel de significación que generalmente se usa es de 0,05. En otras disciplinas científicas se usan niveles de significación más finos, es decir, se acepta que los hechos ocurran al azar en porcentajes menores
como por ejemplo: el 0,5%, 0,1% ó 0,01%, que en términos decimales, estos niveles de significación son del 0,005, 0,001 y 0,0001, respectivamente.
En cambio, en los estudios de opinión o de mercado, debido a que la voluntad de los sujetos es muy cambiante, se aceptan márgenes de error o niveles de significación más amplios, como por ejemplo del 10%, es decir, 0,10.

5. GRADOS DE LIBERTAD
Los grados de libertad son las posibilidades de libre variación que tienen las categorías de una variable. Si por ejemplo se debe expresar las categorías de variación de la variable rendimiento académico y se tienen los siguientes datos: matriculados 48, aprobados 41, los desaprobados ¿cuántos serán? Estos serán necesariamente 7, que es la diferencia entre estas dos cifras propuestas al azar. En este ejemplo existen tres categorías –matriculados, aprobados y desaprobados– y los grados de libertad son dos, porque 48 y 41 son cifras arbitrarias y 7 es la cifra que expresa la diferencia entre aquellas. Los grados de libertad se calculan aplicando la siguiente fórmula: gl = K–1
en este caso, gl = 3–1 = 2. Lo que significa que dadas tres categorías de variación, los grados de libertad son 2.
Tanto el establecimiento del nivel de significación como la identificación de los grados de libertad son tareas necesarias para poder interpretar los datos que se obtienen en el proceso de prueba de hipótesis. En la investigación cuantitativa, al realizar el proceso de prueba de hipótesis, se obtiene un dato, una cifra, a la que se denomina valor hallado que no tiene ningún sentido si no es comparada con otra cifra, llamada valor tabulado. Este valor tabulado, aparece en unas tablas que generalmente se publican como anexos de los libros de estadística inferencial. La tarea del investigador consiste en comparar el valor hallado, que es el que ha encontrado luego de hacer los respectivos cálculos, con el valor tabulado. En las tablas, se puede ubicar el valor tabulado identificando la intersección entre el nivel de significación y los grados de libertad previstos. De ahí que resultan muy importantes para la toma de decisiones con respecto a las hipótesis, los conceptos
de nivel de significación y grados de libertad.

martes, 19 de febrero de 2013


d. Selección de los procedimientos para el análisis de los datos
Referencia: Desarrollo de proyectos de investigación. Guía para un seminario. Universidad de Bremen, Servicio Alemán de Intercambio Académico (DAAD)
El análisis de los datos representa el siguiente paso en la planeación. En la investigación cuantitativa existen estándares claros, que por un lado simplifican la selección de las estadísticas correctas y, por el otro, reducen las posibilidades de selección:
Con la estadística descriptiva se pueden describir, preparar y resumir los datos obtenidos de manera adecuada. Con sus métodos se condensan los datos en tablas, representaciones gráficas y cifras características.
En la estadística inductiva (concluyente), a partir de los datos de una muestra se infieren características de la población. La teoría de probabilidades suministra los fundamentos para los procedimientos exitosos de estimación y comprobación.
La estadística explorativa (o generadora de hipótesis) es metodológicamente una forma intermedia entre ambos dominios mencionados, aunque como forma de aplicación está adquiriendo un significado creciente. Por medio de procedimientos descriptivos y métodos de comprobación sistemática busca asociaciones (o
diferencias) posibles entre los datos disponibles y evalúa los datos desde el punto de vista del poder explicativo y la seguridad de sus resultados. Los resultados obtenidos de esta manera pueden considerarse como hipótesis, que solamente cuando se confirmen con procedimientos inductivos de prueba construidos con base en ellos, con los correspondientes diseños (prospectivos) de investigación, tienen asegurada
su validez estadística.

La selección de un procedimiento estadístico concreto depende de algunos factores. En primer lugar, el tipo de hipótesis y la relación entre las variables (por diferencia, por asociación o por variación) determinan los procedimientos fundamentales (prueba de medias o de varianza, cálculos de correlación o análisis de regresión). Adicionalmente, el tipo y cantidad de muestras (independientes o dependientes, una, dos o más muestras) así como los momentos de medida (con o sin repetición) determinan selecciones adicionales.
Además deben tenerse en cuenta el tipo de los datos y su distribución. Las ayudas para la selección están descritas en todos los libros de consulta sobre métodos.
En las investigaciones cualitativas existen así mismo algunos estándares para el análisis. En general, las expresiones orales o escritas conseguidas con los portantes de características, tales como entrevistas, observaciones, fotos, películas, etc., constituyen la base para el análisis de los datos. La codificación del material tiene por objeto emprender una categorización y/o la construcción de una teoría. El análisis secuencial apunta a una reconstrucción de las estructuras del caso. Dentro de estas dos orientaciones se dan
variantes o formas mixtas.
El análisis de contenidos es un procedimiento clásico para el análisis de datos cualitativos. Un análisis de contenidos puede ser tanto cuantitativo como cualitativo y reviste formas diferentes. Los procedimientos cuantitativos clásicos del análisis de contenidos se orientan según los estándares comunes de la investigación empírico analítica (determinación de la unidad de análisis, construcción de la muestra y estadística) y tienen como objeto detectar la aparición de determinados contenidos textuales, cuantificarlos y analizarlos estadísticamente. El desarrollo de un esquema de codificación es una tarea central del método. Este define o transcribe qué palabras (u otro tipo de texto) deben ser clasificadas y cómo. En seguida se codifican los textos seleccionados de acuerdo con dicho esquema, se procesan y analizan los datos.
El análisis cualitativo de contenidos apunta básicamente a una reducción de la cantidad de datos, que debe ser realizada con pasos definidos. Una diferencia importante con otros procedimientos es la intención de llevar a cabo un análisis directamente del material, por lo cual se ha sugerido una construcción inductiva de categorías.
De manera análoga a lo que sucede con la recolección cuantitativa de datos, acontece también con el análisis de los datos cualitativos: que no todo procedimiento es adecuado, sino que debe ser seleccionado de acuerdo con las preguntas y el objetivo de investigación planteados, así como con el tipo de datos a recoger.
Suministramos las sugerencias siguientes relativas a la selección de procedimientos de análisis:
Ya desde el estudio del estado del arte en la investigación y el desarrollo de los métodos, debe haberse planteado la pregunta por un procedimiento adecuado de análisis en un ámbito concreto.
Un proceso adecuado de análisis debe siempre seleccionarse y fundamentarse de manera transparente a partir del planteamiento de las preguntas y de los objetivos del proyecto, así como del tipo de datos y de la estrategia para su recolección.
Es fundamental clarificar si los datos han de procesarse estadísticamente. En caso afirmativo, debe comprobarse qué procedimiento estadístico es el adecuado. Los textos de consulta de estadística y métodos de investigación contienen diversidad de métodos estandarizados.
Los procedimientos de análisis deben comprobarse en una prueba piloto o en el estudio del primer caso, en los diseños cualitativos.
Para el análisis de contenidos recomendamos un software adecuado de análisis de datos cualitativos (por ejemplo el MaxQDA). Para los datos recolectados en video existen igualmente programas (software) muy
poderosos.


martes, 12 de febrero de 2013


ANÁLISIS DE LOS DATOS .
Si bien el análisis e interpretación de los resultados es la última etapa del proceso de investigación, todas las anteriores, comprendidas en el diseño, concurren hacia la realización
de esta importante operación.

a. Análisis de los datos.
Como dice Encinas (1993), los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", en ello consiste, en esencia, el análisis e interpretación de los datos.
"El propósito del análisis es resumir las observaciones llevadas a cabo de forma tal que proporcionen respuesta a la interrogantes de la investigación. La interpretación, más que una operación distinta, es un aspecto especial del análisis su objetivo es "buscar un significado más amplio a las respuestas mediante su trabazón con otros conocimientos disponibles” (Selltiz, 1970) que permitan la definición y clarificación de los conceptos y las relaciones entre éstos y los hechos materia de la investigación.
La relación entre análisis e interpretación y la forma específica que toman, tanto separada como conjuntamente, varían de un estudio a otro" , dependiendo de los distintos esquemas o niveles de investigación y, fundamentalmente, del diseño propuesto.
Los datos, a partir de los cuales el investigador inicia el análisis, son diferentes según el nivel
de elaboración realizado, el cual depende de la naturaleza del problema de investigación y, consecuentemente, del tipo de investigación; también de las técnicas y procedimientos
seguidos en la elaboración.
De acuerdo a estas consideraciones, los datos que se utilizan en el análisis pueden ser:
􀀹 datos cuantificados
􀀹 datos no cuantificados
􀀹 datos no estructurados.

1) Análisis de los datos cuantificados.
Algunos tipos de estudios, por su naturaleza, aportan datos elaborados, es decir, cuantificados.
El tratamiento estadístico de los datos permite un análisis adecuado que puede tener diversos
alcances, los cuales dependen de los objetivos de la investigación y de las hipótesis formuladas.
Según Selltiz (1970), al análisis puede estar orientado a:
􀀹 Determinar lo que es típico en el grupo estudiado. (Se utiliza algunas de las medidas de tendencia central, según el caso) .
􀀹 Indicar si existen variaciones entre los sujetos del grupo, señalando de qué tipo y magnitud son. (Se utiliza alguna de las medidas de variabilidad; cada una proporciona datos sobre un aspecto diferente).
􀀹 Mostrar la forma cómo están distribuidos los individuos con respecto a la variable que se mide. (Se utiliza el desarrollo de una curva de distribución).
􀀹 Mostrar la relación existente entre dos o más variables. (Se aplica el coeficiente de variabilidad).
􀀹 Describir las diferencias existentes comparando dos grupos de individuos.


2) Análisis de los datos no cuantificados.
No todos los aspectos del material recogido pueden ser categorizados y, consecuentemente, cuantificados, debido, en algunos casos, a la falta de precisión en la definición de las categorías, lo que dificulta el análisis de los resultados. Por este motivo, se recomienda considerar que cada categoría propuesta comprenda un amplio margen de criterios para las respuestas.
De todos modos, los datos sin eloborar, "pueden ser utilizados en el análisis e interpretación sin tener en cuenta si han sido o no cuantificados en todos los aspectos", pues cumplen una función importante:
􀀹 ayudan a entender el significado de las categorías;
􀀹 aclaran la naturaleza de las relaciones entre las variables determinadas estadísticamente; y
􀀹 permiten orientar al investigador a formular nuevas hipótesis para futuras investigaciones.

3) Análisis de los datos no estructurados.
El material no estructurado es el que proviene, por ejemplo, de observaciones o entrevistas no estructuradas, en las cuales se recoge mucho material, a veces valioso, pero sin ninguna pauta
que permita alguna forma de organización y menos de clasificación.
En algunos casos, los estudios de nivel exploratorio, que no se inician con hipótesis, cubren
aspectos diversos, los cuales conducen al acopio de datos en cantidad excesiva y no estructurado.
El problema que plantea este tipo de datos es doble: primero porque se necesita determinar qué aspectos del material requieren ser categorizados, y segundo, saber qué principios de clasificación pueden utilizarse.
Selltiz (1970) propone, como soluciones al problema expuesto, elaborar, en primer término, hipótesis de trabajo que permitan establecer principios de clasificación y, en segundo lugar, utilizar algunos procedimientos que puedan ayudar en el análisis, tales como:
Estudiar el material correspondiente a un grupo que contrasta con el que se está investigando, con el objeto de obtener elementos que sugieran ideas sobre las diferencias significativas entre ambos grupos, respecto de la característica que se analiza.
Otro procedimiento consiste en formar grupos con lo casos motivo de estudio sobre características comunes; después se analizan para ver si aquellos que tienen características semejantes han pasado por experiencias parecidas.
También, pueden formarse grupos sobre la base de aquellos que han tenido experiencia similares, y ver en qué medida, son semejantes respecto de las características comunes que presentan.

jueves, 7 de febrero de 2013

Validez

Pregunta: ¿el cuestionario mide los que se supone debe medir?
•Validez relacionada a la teoría
–Validez de presencia
–Validez de contenido
–Validez de constructo
•Validez relacionada a criterios
–Validez concurrente
–Validez predictiva

Teoría relacionada a la validez

•Validez de presencia
•Validez de contenido (observable)
–Blue print
–Lista de herramientas
•Validez de constructo (no observable)
–Diferencias de grupo
–Cambios de tiempos
–Análisis de correlaciones/factor

  – credibilidad del participante

CRITERIOS RELACIONADOS A VALIDEZ

•Concurrente
Mide dos variables y las correlaciona para demostrar que la medida 1 está midiendo lo mismo que la medida 2 – en el mismo punto del tiempo.
•Predictivo
–Medición de dos variables, una ahora y la otra en el futuro, las correlaciona para demostrar que la medida 1 es predictiva de la medida 2, en el futuro.



Recuerde:
Validez de diseño
  ¿El diseño de la investigación permite al investigador probar su hipótesis? (amenazas de validez interna y externa)

Validez del instrumento
  ¿El instrumento mide lo que se supone debe medir?



Confiabilidad del instrumento
Pregunta: ¿Puede confiar en los datos?
Estabilidad – cambio en el tiempo
Consistencia – concordancia dentro de preguntas
Calificación de confiabilidad – calificación de concordancia
Confiabilidad prueba – re-prueba (estabilidad)
Correlaciones de Pearson
Alfa de Cronbach (consistencia) – un punto en el tiempo, mediciones de correlaciones entre-ítems o concordancias.
Calificación de confiabilidad (corregir para cambio de concordancia)
Confiabilidad inter-observador Kapa de Cohen
Confiabilidad intra-observador Pi de Scott

Estimaciones de confiabilidad del alfa de Cronbach:
> 0.90 Excelente confiabilidad, requerido para toma de decisiones al nivel individual.
0.80 Buena confiabilidad, requerido para toma de decisiones al nivel grupal.
0.70 Adecuada confiabilidad, cercana a no aceptable por demasiados errores en los datos ¿Por qué?