Course Description

Modalidad: Curso Online
Formato:
Lecciones de Aprendizaje Rápido ("Rapid Learning")
Duración Total:
8 horas
Fechas:
Sin fecha de inicio o fin, sigue el curso a tu ritmo.
Resolución de Dudas:
Sobre los contenidos del curso a través de la sección Preguntas o Respuestas o Mail.
Nivel:
Básico
Evaluación:
Contenido bajo demanda sin evaluaciones ni exámenes.
Certificado:
Nuestro objetivo es ayudar a profesionales del Siglo XXI a ser más eficientes y productivos. No proporcionamos un papel que diga que has hecho el curso, el valor reside en demostrar lo aprendido.

Course Content

1.- INTRODUCCIÓN AL CURSO Y SOFTWARE ESTADÍSTICO

foro

En la sección "Introducción al Análisis de Datos", los estudiantes aprenderán conceptos fundamentales como estadística descriptiva e inferencial, así como los tipos de variables e instrumentos de medida. Además, se enseñará cómo organizar datos utilizando hojas de cálculo y cómo importar, verificar y dar formato a variables en programas de análisis estadístico como SPSS, Jasp y Jamovi. Finalmente, se abordará la transformación de variables, asignación de etiquetas, inclusión y exclusión de valores perdidos, y conversión de variables continuas a categóricas.

1.1. Introducción al Curso
1.2.- Ejemplo estadística descriptiva e inferencial y variables
1.3.- Tipos de variable e instrumentos de medida
1.4.- (Excel y Libre Office) Organización de Datos con Hojas de Cálculo
1.5.- (SPSS, Jasp y Jamovi) Comprobación de Datos e Importación al Software
1.6.- (SPSS, Jasp y Jamovi) Creación y Formato de Variables
1.7.- (SPSS, Jasp y Jamovi) Asignación de etiquetas e inclusión de valores perdidos
1.8.- (SPSS, Jasp y Jamovi) Exclusión de valores perdidos por variable o por lista
1.9.- (SPSS, JASP, Jamovi) Transformación de variables continuas a categóricas

2.- ESTADÍSTICA DESCRIPTIVA

En esta sección de "Estadística Descriptiva", los estudiantes aprenderán a describir y analizar variables categóricas y cuantitativas utilizando índices y gráficos. Se enseñará cómo trabajar con programas de análisis estadístico como SPSS, Jasp y Jamovi para generar y editar tablas, figuras y gráficos de barras agrupados, así como tablas de contingencia.

Además, se abordarán las distribuciones de frecuencias en variables cuantitativas a través de histogramas, así como los índices de centralidad y dispersión en dichas variables. Los estudiantes aprenderán a crear histogramas e índices descriptivos para variables cuantitativas utilizando SPSS, Jasp y Jamovi.

Finalmente, se introducirán conceptos como cuantiles y diagramas de cajas y bigotes (boxplots) para variables cuantitativas, y se enseñará a los estudiantes cómo calcular cuantiles y crear diagramas de cajas y bigotes utilizando los programas mencionados. Al finalizar esta sección, los estudiantes habrán adquirido habilidades sólidas en estadística descriptiva y visualización de datos.

2.1.- Introducción a la Estadística Descriptiva
2.2.- Descripción de variables categóricas mediante índices y gráficos
2.3.- (SPSS) Índices, gráficos para variables categóricas, y edición de tablas o figuras
2.4.- (Jasp y Jamovi) Índices, gráficos para variables categóricas, y edición de tablas o figuras
2.5.- (SPSS, Jasp y Jamovi) Gráficos de barras agrupados y tablas de contingencia
2.6.- Distribución de Frecuencias con Histogramas en variables cuantitativas
2.7.- Índices de centralidad y dispersión en variables cuantitativas
2.8.- (SPSS, Jasp y Jamovi) Histogramas e índices descriptivos para variables
2.9.- Cuantiles y Diagramas de Cajas y Bigotes para variables cuantitativas
2.10.- (SPSS, Jasp y Jamovi) Cálculo de cuantiles y Diagramas de Cajas y Bigotes

3.- ESTADÍSTICA INFERENCIAL: ESTIMACIÓN DE PARÁMETROS POBLACIONALES

Esta sección se enfoca en la comprensión de los parámetros de una población y los estimadores de una muestra. Se introducirán conceptos fundamentales como distribución normal y se enseñará cómo calcular las frecuencias en 1, 2 y 3 desviaciones estándar (SD), así como la simetría y curtosis utilizando SPSS.

Se presentará el Teorema del Límite Central y se explorará el concepto de Error Estándar. Los estudiantes podrán comprender cómo el teorema del límite central se aplica a situaciones prácticas a través de ejemplos concretos.

Además, se abordará el tema de los Intervalos de Confianza al 95 por ciento, que son fundamentales en la interpretación de los resultados estadísticos en investigaciones científicas. Por último, se introducirá el concepto de estadístico, ayudando a los estudiantes a comprender su importancia en la estadística inferencial.

Al completar esta sección, los alumnos habrán adquirido un conocimiento sólido sobre parámetros, estimadores y conceptos clave en la estadística inferencial, lo que les permitirá aplicar estos conceptos en sus propias investigaciones y análisis de datos.

3.1.- Conceptos de Parámetro de una Población y Estimador de una Muestra
3.2.- Estimadores, Parámetros y Distribución Normal
3.3.- (SPSS) Práctica calculo de frecuencias en 1, 2, 3 SD. Simetría y Curtosis.
3.4.- Introducción al Teorema del Límite Central y Concepto de Error Estándar
3.5.- Ejemplo práctico que demuestra el Teorema del Límite Central
3.6.- ¿Qué es el Intervalo de Confianza al 95 por ciento?
3.7.- El concepto de estadístico

4.- ESTADÍSTICA INFERENCIAL: CONTRASTE DE HIPÓTESIS

En esta sección, los estudiantes aprenderán sobre el contraste de hipótesis y el cálculo del p-valor. Se explorarán conceptos como el contraste a una y dos colas, y se discutirán aspectos importantes más allá del p-valor. Además, se realizará un ejercicio práctico utilizando SPSS, Jasp y Jamovi para aplicar estos conceptos en situaciones reales.

Se abordará el tema del tamaño muestral y los errores en el contraste de hipótesis, explicando el error alfa y la potencia mediante un ejemplo. Los estudiantes aprenderán a calcular el tamaño muestral utilizando GPower y a entender el concepto de tamaño de efecto.

Por último, se ofrecerán pautas para seleccionar el test adecuado en estudios de diferencia entre grupos y en estudios de asociación o predicción. Al finalizar esta sección, los alumnos habrán adquirido habilidades valiosas para aplicar el contraste de hipótesis y elegir el test estadístico apropiado en función de sus necesidades de investigación.

4.1.- Introducción al contraste de hipótesis y cálculo del p-valor
4.2.- Contraste a una y dos colas Más allá del p-valor
4.3.- (SPSS, Jasp y Jamovi) Ejercicio práctico contraste de hipótesis para una muestra
4.4.- Tamaño Muestral y Errores en el Contraste de Hipótesis
4.5.- Explicación del error alfa y potencia mediante un ejemplo
4.6.- Cálculo del Tamaño Muestral con GPower y Tamaño de Efecto
4.7.- Seleccionar un Test para Estudios de Diferencia Entre Grupos
4.8.- Seleccionar un Test para Estudios de Asociación o Predicción

5.- DIFERENCIA ENTRE 2 GRUPOS INDEPENDIENTES

5.1.- Cuándo utilizar los test estadísticos de diferencias entre grupos independientes
5.2.- (SPSS, Jasp, Jamovi) Oganización de datos en función del diseño de estudio (independientes y relacionados)
5.3.- Comparativa PARAMÉTRICA t-Student muestras independientes
5.4.- (SPSS, Jasp, Jamovi) t-Student muestras independientes.
5.5.- (SPSS, Jasp, Jamovi) Filtrado o estratificación de la variable dependiente por niveles de la independiente
5.6.- Cálculo del tamaño del efecto y tamaño muestral necesario (familia d)
5.7.- (Redacción) Redacción de Métodos y Resultados con la t-Student.
5.7.- Comparativa NO PARAMÉTRICA U de Mann-Whitney
5.8.- (SPSS) U de Mann-Whitney diferencias no significativas
5.9.- (Redacción) U de Mann-Whitney.
5.10.- (SPSS) Cálculo de la normalidad a través de índices
5.11.- (SPSS) Método visual para estimar la normalidad
5.12.- El Número Mágico, con 30 sujetos se acabaron mis problemas
5.13.- ¿Qué decisión tomar tras estos hechos, paramétrico o no paramétrico?

6.- DIFERENCIA ENTRE 2 GRUPOS RELACIONADOS

6.1.- Comparativa PARAMÉTRICA t-test de medidas pareadas
6.2.- (SPSS) t-test muestras pareadas
6.3.- (Redacción) t-test pareadas.
6.4.- Comparativa NO PARAMÉTRICA Wilcoxon de medidas pareadas
6.5.- (SPSS) Caso práctico Test de Wilcoxon con SPSS
6.6.- (SPSS) Test de Signos
6.7.- (Redacción) Test de Wilcoxon
6.8.- Introducción al Test de Mc Nemar
6.9.- (SPSS) Caso práctico Test de McNemar
6.10.- (Redacción) Test de McNemar
6.11.- (SPSS) Test de McNemar-Bowker y test de Bhapkar para variable politómica

7.- DIFERENCIA ENTRE 3 O MÁS GRUPOS INDEPENDIENTES

7.1.- Comparativa PARAMÉTRICA ANOVA de medidas independientes
7.2.- (SPSS) ANOVA de medidas independientes y un factor Igualdad varianzas
7.3.- (Redacción) ANOVA de una vía para grupos independientes
7.4.- (SPSS) ANOVA de medidas independientes No igualdad varianzas
7.5.- Tests post-hoc liberales y conservadores
7.6.- (SPSS) Cambio en las conclusiones en función del test pot-hoc
7.7.- ¿Normalidad de los datos o de los residuales como supuesto?
7.8.- Tamaño del efecto en ANOVA con Eta Parcial al Cuadrado
7.9.- Test de KRUSKAL-WALLIS
7.10.- (SPSS) Test de KRUSKAL-WALLIS Medidas independientes no paramétrico
7.11.- (Redacción) Test de KRUSKAL-WALLIS
7.12.- Test de Jonckheere-Terpstra
7.13.- (SPSS) Test de Jonckheere-Terpstra

8.- DIFERENCIA ENTRE 3 O MÁS GRUPOS RELACIONADOS

8.1.- Comparativa PARAMÉTRICA ANOVA de medidas repetidas
8.2.- (SPSS) ANOVA de medidas repetidas y un factor
8.3.- (Redacción) ANOVA medidas repetidas (Diferencias no significativas)
8.4.- (SPSS) Ejemplo ANOVA de medidas repetidas con diferencias significativas
8.5.- (SPSS) Representación gráfica tras post hoc de Bonferroni
8.6.- (Redacción) ANOVA medidas repetidas (Diferencias significativas)
8.7.- Comparativa NO PARAMÉTRICA Test de FRIEDMAN Medidas repetidas
8.8.- (SPSS) Test de FRIEDMAN Medidas repetidas no paramétrico
8.9.- (SPSS) Test de FRIEDMAN Comparativa por pares
8.10.- Introducción al Test de Cochran
8.11.- (SPSS) Test de Cochran cuando se cumple supuesto tamaño muestra
8.12.- (SPSS) Test de Cochran cuando NO se cumple supuesto tamaño muestra
8.13.- (Redacción) Test de Cochran

9.- ASOCIACIÓN ENTRE VARIABLES

9.1.- Coeficiente de correlación de Pearson
9.2.- (SPSS) Coeficiente de correlación de Pearson
9.3.- (SPSS) Interpretación de resultados
9.4.- (SPSS) Correlación Parcial de Pearson Control por una segunda variable
9.5.- (SPSS) Bootstrapping en coeficiente de correlación de Pearson
9.6.- (Matlab) Ejemplo de explicación de Bootstrapping con un histograma
9.7.- Coeficiente de correlación de Spearman
9.8.- Relación monótona Tamaño de Punto según frecuencia (Scatter Plot)
9.9.- Coeficiente Tau b de Kendall
9.10.- (SPSS) Coeficientes de Spearman y Tau b de Kendall
9.11.- (Redacción) Coeficiente de Correlación de Pearson o Spearman
9.12.- Otros test asociación entre Ordinales Gamma, Tau C y d de Somers
9.13.- Redacción otros test asociación. Gamma, Tau C y d de Somers
9.14.- Test Chi-Cuadrado Asociación entre dos variables categóricas
9.15.- (SPSS) Test Chi-Cuadrado Asociación entre dos variables categóricas
9.16.- (Redacción) Test chi cuadrado o Fisher
9.17.- (SPSS) Mantel-Haezel de tendencia para dos variables ordinales
9.18.- (SPSS) Cochran-Armitage de tendencia para una dicotómica y otra ordinal
9.19. - (Redacción) Test tendencias de Cochran-Armitage y Mantel-Haezel
9.20.- Correlación punto biseral Variable continua y dicotómica
9.21.- (SPSS) Correlación punto biseral Variable continua y dicotómica
9.22.- Coeficiente Eta para asociación entre una var nominal y otra contínua
9.23.- Referencias

10.- PREDICCIÓN DE VARIABLES / REGRESIÓN LINEAL

10.1.- Introducción al modelo de regresión lineal simple
10.2.- ¿Qué son los residuales y el coeficiente de determinación?
10.3.- (SPSS) Regresión Lineal Simple
10.4.- Introducción al modelo de Regresión Lineal Múltiple
10.5.- (SPSS) Ejecución de la Regresión Lineal Múltiple
10.6.- (SPSS) Evaluación de los supuestos de la Regresión Lineal Múltiple
10.7.- (SPSS) Evaluación de los resultados de la Regresión Lineal Múltiple
10.8.- Regresión Lineal Múltiple Secuencial o Jerárquica
10.9.- (SPSS) Modelo de Regresión Lineal Múltiple Secuencial o Jerárquica