Ejemplos ?
Sus publicaciones más importantes fueron su papel de 1918 The Correlation between Relatives on the Supposition of Mendelian Inheritance, lo cual era el primero en usar el término estadístico varianza, su obra clásica de 1925 Statistical Methods for Research Workers y su 1935 The Design of Experiments, donde desarrolló los modelos rigorosos de diseño experimental.
Algunos tests y procedimientos para investigación de observaciones bien conocidos son: Prueba t de Student Prueba de χ² Análisis de varianza (ANOVA) U de Mann-Whitney Análisis de regresión Correlación Iconografía de las correlaciones Frecuencia estadística Análisis de frecuencia acumulada Prueba de la diferencia menos significante de Fisher Coeficiente de correlación de Pearson Coeficiente de correlación de Spearman Análisis factorial exploratorio Análisis factorial confirmatorio Gráfica estadística Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada.
Considérese el caso de variables que siguen una distribución de Cauchy: En este caso puede demostrarse que la distribución asintótica de S n viene dada por otra distribución de Cauchy, con menor varianza: Para otras distribuciones de varianza infinita no es fácil dar una expresión cerrada, par su distribución de proababilidad aunque su función característica si tiene una forma sencilla, dad apor el teorema de Lévy-Khintchine: donde c ge 0, -1 ge gamma ge 1, 0 y: Las condiciones anteriores equivalen a que una distribución de probabilidad sea una distribución estable.
n estadística, el análisis de la varianza (ANOVA, AN alysis O f VA riance, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.
El análisis de la varianza permite superar las limitaciones de hacer contrastes bilaterales por parejas que son un mal método para determinar si un conjunto de variables con n 2 difieren entre sí.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
Así, parece que gran parte de la varianza del rasgo hiperactividad-impulsividad (70-90%) se debe a causas genéticas del TDAH, pudiendo incrementarse dicha contribución cuanto más extrema sea la manifestación clínica de dicho rasgo.
Un análisis multivariante de la varianza (MANOVA), extendiendo el análisis de la varianza (ANOVA), cubre los casos en los que se conozca la existencia de más de una variable dependiente sin poderse simplificar más el modelo.
l teorema del límite central o teorema central del límite indica que, en condiciones muy generales, si S n es la suma de n variables aleatorias independientes y de varianza no nula pero finita, entonces la función de distribución de S n «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss).
Sea mathcal N (mu, sigma2) la función de densidad de la distribución normal definida como; e - frac (x- mu)2 2 sigma2, left con una media µ y una varianza σ 2.
La neguentropía puede ser entendida intuitivamente como la información que puede ser guardada cuando se representa p χ de forma eficiente: si p χ fuera una variable aleatoria (con distribución gausiana) con misma media y varianza, se necesitaría una máxima longitud de datos para ser representada, incluso en su forma más eficiente.
Se define S n como la suma de n variables aleatorias, independientes, idénticamente distribuidas, y con una media µ y varianza σ 2 finitas (σ 2 ≠0): de manera que, la media de S n es n · µ y la varianza n· σ 2, dado que son variables aleatorias independientes.