sábado, 23 de febrero de 2013


PRUEBA DE HIPÓTESIS
El proceso de prueba de hipótesis puede hacerse de dos maneras: mediante técnicas estadísticas o mediante técnicas que no requieren el empleo de la estadística.
Se ha dado en llamar investigación cuantitativa cuando se usan técnicas estadísticas y se denomina investigación cualitativa cuando no se usan técnicas estadísticas. En la actualidad se desarrolla una polémica muy intensa en torno a la validez de estas técnicas, pero parece ser que algunas variables, necesariamente deben ser estudiadas con métodos cuantitativos, porque es posible medir o cuantificar sus magnitudes o propiedades, mientras que otras variables, por su propia naturaleza, no pueden estimarse cuantitativamente, entonces se deben emplear, necesariamente, los métodos cualitativos. En muchos casos, las últimas investigaciones científico sociales se realizan integrando el análisis cuantitativo con el cualitativo, lo que permite una mejor comprensión de los fenómenos que se estudian. En lo que sigue, se explicará la metodología que emplea técnicas estadísticas.
Cuando se emplean métodos estadísticos o cuantitativos, se dispone de dos tipos de pruebas estadísticas: las paramétricas y las no paramétricas. Las pruebas paramétricas sirven para analizar eventos producidos por el azar o la suerte, mientras que las pruebas no paramétricas sirven para analizar eventos producidos por la intención, la voluntad o los propósitos. En la investigación de la conducta, campo en el que predomina la voluntad y la intención de los individuos, las hipótesis se contrastan con pruebas no paramétricas. En cambio, las pruebas paramétricas se usan cuando las hipótesis tienen que ver con situaciones en las que no actúa la voluntad o la intención de las personas, es decir, cuando los hechos se producen al azar. Es más
plausible usar pruebas paramétricas en la investigación en ciencias naturales.

4. NIVEL DE SIGNIFICACIÓN
En todo proceso de investigación cabe suponer que los eventos pueden ocurrir por causa del azar o de la intención. El problema radica en determinar cuándo un evento se produce por causas del azar o cuándo un evento se produce por causas de la intención. El nivel de significación proporciona los criterios para decidir acerca de esta situación.
El nivel de significación es el margen de tolerancia aceptable para establecer los límites, dentro de los cuales, se debe decidir si los eventos ocurren por causas del azar o por causas de la intención. El nivel de significación se expresa en términos de porcentajes. Para el caso de la investigación de la conducta el porcentaje aceptable es del 5%, lo que significa que para aceptar una hipótesis alterna tendrá que ser
necesario que los eventos sucedan en el 95% de los casos, y sólo en el 5% sucedan por causas del azar. Por ejemplo, si el investigador postula la siguiente hipótesis: el método didáctico de trabajo en equipo permite mejorar el nivel de aprendizaje de los estudiantes, y encuentra que en el grupo en el que ha aplicado la variable método didáctico de trabajo en equipo, el nivel de aprendizaje del grupo, en promedio, es 13,45, mientras que en el grupo en el que no ha aplicado dicha variable el promedio del grupo llega a 13,06, debe decidir si la diferencia entre estas dos puntuaciones, que sólo es de 0,39 centésimos, ha sido producida por la aplicación de la variable método didáctico de trabajo en equipo o simplemente ha sido producida por la casualidad o el azar. En estas situaciones, el investigador no tiene elementos de juicio para decidir si los hechos se han producido por el azar o por la aplicación de la variable, que es la situación intencionada. Como es natural, si las diferencias que halla son mínimas, cabe suponer que los hechos se producen por la
casualidad o el azar. En cambio, si las diferencias son notorias, cabe suponer que los hechos se han producido como consecuencia de la aplicación de la variable. El problema que tiene el investigador, en esta etapa del proceso, radica en establecer a qué llama pequeña diferencia o diferencia no significativa o diferencia grande o significativa. El nivel de significación es el criterio que le permite adoptar la decisión
más adecuada.
El nivel de significación también se puede expresar en términos decimales: En este caso, 5% equivale a 0,05 ya que el margen de confianza es 0,95. La suma de estas cifras da 1. En las Ciencias Sociales, el nivel de significación que generalmente se usa es de 0,05. En otras disciplinas científicas se usan niveles de significación más finos, es decir, se acepta que los hechos ocurran al azar en porcentajes menores
como por ejemplo: el 0,5%, 0,1% ó 0,01%, que en términos decimales, estos niveles de significación son del 0,005, 0,001 y 0,0001, respectivamente.
En cambio, en los estudios de opinión o de mercado, debido a que la voluntad de los sujetos es muy cambiante, se aceptan márgenes de error o niveles de significación más amplios, como por ejemplo del 10%, es decir, 0,10.

5. GRADOS DE LIBERTAD
Los grados de libertad son las posibilidades de libre variación que tienen las categorías de una variable. Si por ejemplo se debe expresar las categorías de variación de la variable rendimiento académico y se tienen los siguientes datos: matriculados 48, aprobados 41, los desaprobados ¿cuántos serán? Estos serán necesariamente 7, que es la diferencia entre estas dos cifras propuestas al azar. En este ejemplo existen tres categorías –matriculados, aprobados y desaprobados– y los grados de libertad son dos, porque 48 y 41 son cifras arbitrarias y 7 es la cifra que expresa la diferencia entre aquellas. Los grados de libertad se calculan aplicando la siguiente fórmula: gl = K–1
en este caso, gl = 3–1 = 2. Lo que significa que dadas tres categorías de variación, los grados de libertad son 2.
Tanto el establecimiento del nivel de significación como la identificación de los grados de libertad son tareas necesarias para poder interpretar los datos que se obtienen en el proceso de prueba de hipótesis. En la investigación cuantitativa, al realizar el proceso de prueba de hipótesis, se obtiene un dato, una cifra, a la que se denomina valor hallado que no tiene ningún sentido si no es comparada con otra cifra, llamada valor tabulado. Este valor tabulado, aparece en unas tablas que generalmente se publican como anexos de los libros de estadística inferencial. La tarea del investigador consiste en comparar el valor hallado, que es el que ha encontrado luego de hacer los respectivos cálculos, con el valor tabulado. En las tablas, se puede ubicar el valor tabulado identificando la intersección entre el nivel de significación y los grados de libertad previstos. De ahí que resultan muy importantes para la toma de decisiones con respecto a las hipótesis, los conceptos
de nivel de significación y grados de libertad.

martes, 19 de febrero de 2013


d. Selección de los procedimientos para el análisis de los datos
Referencia: Desarrollo de proyectos de investigación. Guía para un seminario. Universidad de Bremen, Servicio Alemán de Intercambio Académico (DAAD)
El análisis de los datos representa el siguiente paso en la planeación. En la investigación cuantitativa existen estándares claros, que por un lado simplifican la selección de las estadísticas correctas y, por el otro, reducen las posibilidades de selección:
Con la estadística descriptiva se pueden describir, preparar y resumir los datos obtenidos de manera adecuada. Con sus métodos se condensan los datos en tablas, representaciones gráficas y cifras características.
En la estadística inductiva (concluyente), a partir de los datos de una muestra se infieren características de la población. La teoría de probabilidades suministra los fundamentos para los procedimientos exitosos de estimación y comprobación.
La estadística explorativa (o generadora de hipótesis) es metodológicamente una forma intermedia entre ambos dominios mencionados, aunque como forma de aplicación está adquiriendo un significado creciente. Por medio de procedimientos descriptivos y métodos de comprobación sistemática busca asociaciones (o
diferencias) posibles entre los datos disponibles y evalúa los datos desde el punto de vista del poder explicativo y la seguridad de sus resultados. Los resultados obtenidos de esta manera pueden considerarse como hipótesis, que solamente cuando se confirmen con procedimientos inductivos de prueba construidos con base en ellos, con los correspondientes diseños (prospectivos) de investigación, tienen asegurada
su validez estadística.

La selección de un procedimiento estadístico concreto depende de algunos factores. En primer lugar, el tipo de hipótesis y la relación entre las variables (por diferencia, por asociación o por variación) determinan los procedimientos fundamentales (prueba de medias o de varianza, cálculos de correlación o análisis de regresión). Adicionalmente, el tipo y cantidad de muestras (independientes o dependientes, una, dos o más muestras) así como los momentos de medida (con o sin repetición) determinan selecciones adicionales.
Además deben tenerse en cuenta el tipo de los datos y su distribución. Las ayudas para la selección están descritas en todos los libros de consulta sobre métodos.
En las investigaciones cualitativas existen así mismo algunos estándares para el análisis. En general, las expresiones orales o escritas conseguidas con los portantes de características, tales como entrevistas, observaciones, fotos, películas, etc., constituyen la base para el análisis de los datos. La codificación del material tiene por objeto emprender una categorización y/o la construcción de una teoría. El análisis secuencial apunta a una reconstrucción de las estructuras del caso. Dentro de estas dos orientaciones se dan
variantes o formas mixtas.
El análisis de contenidos es un procedimiento clásico para el análisis de datos cualitativos. Un análisis de contenidos puede ser tanto cuantitativo como cualitativo y reviste formas diferentes. Los procedimientos cuantitativos clásicos del análisis de contenidos se orientan según los estándares comunes de la investigación empírico analítica (determinación de la unidad de análisis, construcción de la muestra y estadística) y tienen como objeto detectar la aparición de determinados contenidos textuales, cuantificarlos y analizarlos estadísticamente. El desarrollo de un esquema de codificación es una tarea central del método. Este define o transcribe qué palabras (u otro tipo de texto) deben ser clasificadas y cómo. En seguida se codifican los textos seleccionados de acuerdo con dicho esquema, se procesan y analizan los datos.
El análisis cualitativo de contenidos apunta básicamente a una reducción de la cantidad de datos, que debe ser realizada con pasos definidos. Una diferencia importante con otros procedimientos es la intención de llevar a cabo un análisis directamente del material, por lo cual se ha sugerido una construcción inductiva de categorías.
De manera análoga a lo que sucede con la recolección cuantitativa de datos, acontece también con el análisis de los datos cualitativos: que no todo procedimiento es adecuado, sino que debe ser seleccionado de acuerdo con las preguntas y el objetivo de investigación planteados, así como con el tipo de datos a recoger.
Suministramos las sugerencias siguientes relativas a la selección de procedimientos de análisis:
Ya desde el estudio del estado del arte en la investigación y el desarrollo de los métodos, debe haberse planteado la pregunta por un procedimiento adecuado de análisis en un ámbito concreto.
Un proceso adecuado de análisis debe siempre seleccionarse y fundamentarse de manera transparente a partir del planteamiento de las preguntas y de los objetivos del proyecto, así como del tipo de datos y de la estrategia para su recolección.
Es fundamental clarificar si los datos han de procesarse estadísticamente. En caso afirmativo, debe comprobarse qué procedimiento estadístico es el adecuado. Los textos de consulta de estadística y métodos de investigación contienen diversidad de métodos estandarizados.
Los procedimientos de análisis deben comprobarse en una prueba piloto o en el estudio del primer caso, en los diseños cualitativos.
Para el análisis de contenidos recomendamos un software adecuado de análisis de datos cualitativos (por ejemplo el MaxQDA). Para los datos recolectados en video existen igualmente programas (software) muy
poderosos.


martes, 12 de febrero de 2013


ANÁLISIS DE LOS DATOS .
Si bien el análisis e interpretación de los resultados es la última etapa del proceso de investigación, todas las anteriores, comprendidas en el diseño, concurren hacia la realización
de esta importante operación.

a. Análisis de los datos.
Como dice Encinas (1993), los datos en sí mismos tienen limitada importancia, es necesario "hacerlos hablar", en ello consiste, en esencia, el análisis e interpretación de los datos.
"El propósito del análisis es resumir las observaciones llevadas a cabo de forma tal que proporcionen respuesta a la interrogantes de la investigación. La interpretación, más que una operación distinta, es un aspecto especial del análisis su objetivo es "buscar un significado más amplio a las respuestas mediante su trabazón con otros conocimientos disponibles” (Selltiz, 1970) que permitan la definición y clarificación de los conceptos y las relaciones entre éstos y los hechos materia de la investigación.
La relación entre análisis e interpretación y la forma específica que toman, tanto separada como conjuntamente, varían de un estudio a otro" , dependiendo de los distintos esquemas o niveles de investigación y, fundamentalmente, del diseño propuesto.
Los datos, a partir de los cuales el investigador inicia el análisis, son diferentes según el nivel
de elaboración realizado, el cual depende de la naturaleza del problema de investigación y, consecuentemente, del tipo de investigación; también de las técnicas y procedimientos
seguidos en la elaboración.
De acuerdo a estas consideraciones, los datos que se utilizan en el análisis pueden ser:
􀀹 datos cuantificados
􀀹 datos no cuantificados
􀀹 datos no estructurados.

1) Análisis de los datos cuantificados.
Algunos tipos de estudios, por su naturaleza, aportan datos elaborados, es decir, cuantificados.
El tratamiento estadístico de los datos permite un análisis adecuado que puede tener diversos
alcances, los cuales dependen de los objetivos de la investigación y de las hipótesis formuladas.
Según Selltiz (1970), al análisis puede estar orientado a:
􀀹 Determinar lo que es típico en el grupo estudiado. (Se utiliza algunas de las medidas de tendencia central, según el caso) .
􀀹 Indicar si existen variaciones entre los sujetos del grupo, señalando de qué tipo y magnitud son. (Se utiliza alguna de las medidas de variabilidad; cada una proporciona datos sobre un aspecto diferente).
􀀹 Mostrar la forma cómo están distribuidos los individuos con respecto a la variable que se mide. (Se utiliza el desarrollo de una curva de distribución).
􀀹 Mostrar la relación existente entre dos o más variables. (Se aplica el coeficiente de variabilidad).
􀀹 Describir las diferencias existentes comparando dos grupos de individuos.


2) Análisis de los datos no cuantificados.
No todos los aspectos del material recogido pueden ser categorizados y, consecuentemente, cuantificados, debido, en algunos casos, a la falta de precisión en la definición de las categorías, lo que dificulta el análisis de los resultados. Por este motivo, se recomienda considerar que cada categoría propuesta comprenda un amplio margen de criterios para las respuestas.
De todos modos, los datos sin eloborar, "pueden ser utilizados en el análisis e interpretación sin tener en cuenta si han sido o no cuantificados en todos los aspectos", pues cumplen una función importante:
􀀹 ayudan a entender el significado de las categorías;
􀀹 aclaran la naturaleza de las relaciones entre las variables determinadas estadísticamente; y
􀀹 permiten orientar al investigador a formular nuevas hipótesis para futuras investigaciones.

3) Análisis de los datos no estructurados.
El material no estructurado es el que proviene, por ejemplo, de observaciones o entrevistas no estructuradas, en las cuales se recoge mucho material, a veces valioso, pero sin ninguna pauta
que permita alguna forma de organización y menos de clasificación.
En algunos casos, los estudios de nivel exploratorio, que no se inician con hipótesis, cubren
aspectos diversos, los cuales conducen al acopio de datos en cantidad excesiva y no estructurado.
El problema que plantea este tipo de datos es doble: primero porque se necesita determinar qué aspectos del material requieren ser categorizados, y segundo, saber qué principios de clasificación pueden utilizarse.
Selltiz (1970) propone, como soluciones al problema expuesto, elaborar, en primer término, hipótesis de trabajo que permitan establecer principios de clasificación y, en segundo lugar, utilizar algunos procedimientos que puedan ayudar en el análisis, tales como:
Estudiar el material correspondiente a un grupo que contrasta con el que se está investigando, con el objeto de obtener elementos que sugieran ideas sobre las diferencias significativas entre ambos grupos, respecto de la característica que se analiza.
Otro procedimiento consiste en formar grupos con lo casos motivo de estudio sobre características comunes; después se analizan para ver si aquellos que tienen características semejantes han pasado por experiencias parecidas.
También, pueden formarse grupos sobre la base de aquellos que han tenido experiencia similares, y ver en qué medida, son semejantes respecto de las características comunes que presentan.

jueves, 7 de febrero de 2013

Validez

Pregunta: ¿el cuestionario mide los que se supone debe medir?
•Validez relacionada a la teoría
–Validez de presencia
–Validez de contenido
–Validez de constructo
•Validez relacionada a criterios
–Validez concurrente
–Validez predictiva

Teoría relacionada a la validez

•Validez de presencia
•Validez de contenido (observable)
–Blue print
–Lista de herramientas
•Validez de constructo (no observable)
–Diferencias de grupo
–Cambios de tiempos
–Análisis de correlaciones/factor

  – credibilidad del participante

CRITERIOS RELACIONADOS A VALIDEZ

•Concurrente
Mide dos variables y las correlaciona para demostrar que la medida 1 está midiendo lo mismo que la medida 2 – en el mismo punto del tiempo.
•Predictivo
–Medición de dos variables, una ahora y la otra en el futuro, las correlaciona para demostrar que la medida 1 es predictiva de la medida 2, en el futuro.



Recuerde:
Validez de diseño
  ¿El diseño de la investigación permite al investigador probar su hipótesis? (amenazas de validez interna y externa)

Validez del instrumento
  ¿El instrumento mide lo que se supone debe medir?



Confiabilidad del instrumento
Pregunta: ¿Puede confiar en los datos?
Estabilidad – cambio en el tiempo
Consistencia – concordancia dentro de preguntas
Calificación de confiabilidad – calificación de concordancia
Confiabilidad prueba – re-prueba (estabilidad)
Correlaciones de Pearson
Alfa de Cronbach (consistencia) – un punto en el tiempo, mediciones de correlaciones entre-ítems o concordancias.
Calificación de confiabilidad (corregir para cambio de concordancia)
Confiabilidad inter-observador Kapa de Cohen
Confiabilidad intra-observador Pi de Scott

Estimaciones de confiabilidad del alfa de Cronbach:
> 0.90 Excelente confiabilidad, requerido para toma de decisiones al nivel individual.
0.80 Buena confiabilidad, requerido para toma de decisiones al nivel grupal.
0.70 Adecuada confiabilidad, cercana a no aceptable por demasiados errores en los datos ¿Por qué?