








































































Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Una introducción detallada a la distribución gamma, incluyendo su definición, propiedades y relaciones con otras distribuciones. Se explica cómo calcular la función de densidad, la función de distribución, los momentos y la función generadora de momentos de la distribución gamma. También se aborda la inferencia sobre los parámetros de la distribución gamma utilizando el método de máxima verosimilitud. Se proporcionan fórmulas y ejemplos para calcular intervalos de confianza para los parámetros. Además, se discute la relación de la distribución gamma con el proceso de poisson y la distribución chi-cuadrado. En general, este documento ofrece una comprensión profunda de las características y aplicaciones de la distribución gamma, lo que lo hace útil para estudiantes y profesionales en áreas como estadística, matemáticas, física y ciencias de la computación.
Tipo: Ejercicios
1 / 80
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Área de Conocimiento: Estadística e Investigación Operativa
Título: La distribución Gamma
Breve descripción del contenido A pesar de no ser tan conocida como la Bernoulli o la normal, la distribución Gamma aparece en múltiples ocasiones como mo- delo para el cálculo de probabilidades y para el ajuste de datos reales. En la práctica, la distribución Gamma es el modelo de referencia para variables continuas y positivas, como pueden ser los flujos de agua, consumos de productos a granel, rentas, reco- gidas de residuos urbanos, y tantos otros. Sus dos parámetros, uno de forma y otro de escala, le dan una gran versatilidad, y de hecho contiene como casos particulares otros modelos de distri- bución tan famosos como la exponencial o la ji cuadrado. En este trabajo se revisarán las propiedades de la distribución Gamma, se estudiarán los métodos de inferencia para sus parámetros, y se considerarán modelos de regresión con respuesta de tipo Gamma. Todo ello se realizará apoyándose en ejemplos con datos reales o simulados, que permitirán entender la utilidad de la distribución Gamma y analizar las propiedades de los métodos considerados.
iii
Resumen viii
viii ÍNDICE GENERAL
En este trabajo trataremos sobre la distribución Gamma. Esta es una distri- bución poco utilizada en la práctica porque presenta una mayor complejidad que otras distribuciones. Esta es una distribución biparamétrica y nos centraremos en obtener métodos sencillos para calcular las estimaciones de estos parámetros y sus intervalos de confianza. Asimismo, estudiaremos métodos para la validación de la distribución Gamma tanto gráfica como analíticamente. Finalmente, explicamos la regresión sobre una variable respuesta que sigue una distribución Gamma.
In this projet we will talk about Gamma distribution. In practice, this distribu- tion is not correntsly used because of its complexity. Gamma distribution has two parameters and we will focus on some simple methods in order to obtain estima- tors and their confidence intervals. In addition, we will explain goodness of fit test for Gamma. Finally, we will study the regression when the response variable is a Gamma.
ix
Este trabajo trata sobre la distribución Gamma. Aunque esta distribución es muy conocida no es la más habitual para trabajar. Sin embargo, esta distribución resalta por su importancia ya que algunas de las distribuciones más utilizadas en la práctica, en realidad, son un caso particular de la Gamma, como por ejemplo la exponencial o la χ^2. Esta es una distribución estadística continua y biparamétrica (α, β) siendo α el parámetro de forma y β el parámetro de escala. La distribución Gamma se encar- ga de modelizar el comportamiento de variables aleatorias continuas con asimetría positiva. Esto quiere decir, que tiene una mayor densidad a la izquierda de la dis- tribución respecto de la media. Veamos algunos casos donde esta distribución es aplicable:
Tiempos de espera en la Teoría de Colas.
En la meteorología para ajustar los datos de las precipitaciones.
Análisis de supervivencia: el estudio estadístico del tiempo que pasa hasta que ocurre un evento. Ajusta la distribución de la renta.
Modeliza los datos de consumo de productos a granel.
La distribución Gamma debe su nombre a la función Gamma. Ésta es muy conocida en diferentes ramas de las matemáticas desde la Teoría de Ecuaciones Diferenciales hasta la Estadística. Sin embargo, el origen de esta función se encuentra en la unión de un problema de interpolación con otro de cálculo integral. La función Gamma fue descubierta por Leonhard Euler en 1729 entre la correspondencia que mantenía con Goldbach.
xi
xii INTRODUCCIÓN
En el Capítulo 1 veremos la definición de la función y distribución Gamma y algunas propiedades interesantes sobre ellas. Al final de este capítulo estudiaremos dos conjuntos de datos y veremos si la distribución Gamma se ajusta adecuadamente a estos conjuntos de observaciones de manera gráfica. En el Capítulo 2 estudiaremos las estimaciones de los parámetros de forma y escala por diferentes métodos: el método de máxima verosimilitud y el método de los momentos. Veremos algún método iterativo para obtener estas estimaciones y para terminar este capítulo, proporcionaremos intervalos de confianza para las esti- maciones de estos parámetros. En el Capítulo 3 estudiaremos el test Lilliefors. Ésta es una prueba que sirve para estudiar de forma analítica si un conjunto de datos sigue una distribución Gamma. Explicaremos brevemente este método y luego lo aplicaremos a los conjuntos de datos mencionados en el primer capítulo. En el Capítulo 4 explicaremos cómo realizar la regresión sobre la Gamma. Esta regresión es un caso particular de los modelos lineales generalizados, con lo cual, primeramente explicaremos este tipo de modelos y luego lo particularizaremos para la Gamma.
Demostración. Si aplicamos reiteradamente la proposición anterior obtenemos que
Γ(α) = (α − 1)(α − 2)Γ(α − 2) =... = (α − 1)(α − 2)... Γ(1)
Calculemos Γ(1). Por definición
0
e−xdx = (^) Ml´ım →∞
0
e−xdx = (^) Ml´ım →∞
−e−x
0 =^ Ml´ım →∞ −e
−M (^) + e (^0) = 1
Con lo cual, para n ∈ N se tiene que Γ(n) = (n − 1)!Γ(1) = (n − 1)!
Proposición 1.4. Γ(^12 ) =
π
Demostración. Tenemos que introducir el concepto de la función β para realizar esta demostración. Tenemos β(p, q) =
0
xp−^1 (1 − x)q−^1 dx para p,q>0. Para resolver esta integral
realizamos un cambio de variable de la siguiente forma
x = sin^2 t −→ dx = 2 sin t cos tdt 1 − x = 1 − sin^2 t = cos^2 t Además, los límites de integración quedarían de la siguiente manera
x = sin^2 t −→ t = arcsin
x −→
x = 0 → t = 0 x = 1 → t = π 2
Realizando este cambio obtenemos
β(p, q) =
∫ π 2 0
(sin^2 t)p−^1 (cos^2 t)q−^1 2 sin t cos tdt
Con lo cual obtenemos que la función β es
β(p, q) = 2
∫ π 2
0
(sin t)^2 p−^1 (cos t)^2 q−^1 dt
A continuación, calculemos β
1 2
. Por un lado, calculamos la función beta por definición con esos valores y obtenemos
β
∫ π 2 0
1 dt = 2
(π 2
= π
Y además, por una propiedad de esta función sabemos que β (p, q) = Γ(Γ(pp)Γ(+qq)) y que Γ(1) = 1. Con lo cual
β
= π
Así ya queda demostrado que Γ(^12 ) =
π
En esta sección trataremos sobre la función de densidad de la distribución Gam- ma y sus parámetros α y β.
Definición 1.5. Decimos que X es una variable aleatoria que sigue una distribución Gamma de parámetros α > 0 y β > 0 , si su función de densidad es
fX (x) =
βαΓ(α) x α− (^1) e−^ xβ (^) x > 0 0 otro caso
Ahora veamos el papel que desempeñan los parámetros α y β en esta distribución.
Comencemos analizando la influencia del parámetro α. Este se conoce como el “parámetro de forma”. Cuando toma valores pequeños, α ≤ 1 , podemos observar que fX (x) es decreciente en todo su soporte. Por otro lado, para α > 1 el máximo valor de la función de densidad se consigue en x = (α − 1)β. Conseguimos este máximo derivando fX (x) e igualándolo a 0. El valor máximo de la función de densidad es (α−1)α−^1 e−(α−1) βΓ(α).
Figura 1.2: Funciones de densidad de la Gamma con α = 2 y distintos valores de β
La función de distribución indica la probabilidad de que la variable aleatoria ten- ga un valor menor o igual que un cierto x. Por ello, también es conocida como función de probabilidad acumulada. A continuación, veremos la función de probabilidad de la distribución Gamma que conseguimos integrando por partes (1.1).
Definición 1.7. Sea X v Ga(α, β) la función de distribución asociada a X es
FX (t) = P (X ≤ t) = (^) βαΓ(^1 α)
∫ (^) t 0
xα−^1 e−^ xβ dx
Trataremos ahora sobre la esperanza y la varianza de la Gamma.
Proposición 1.8. Sea X una variable aleatoria tal que X ∼ Ga(α, β) entonces E(X) = αβ.
Demostración.
E(X) =
−∞
xfX (x)dx =
0
x (^) βαΓ(^1 α)xα−^1 e−^ βx dx = (^) βαΓ(^1 α)
0
xαe−^ βx dx (1.2)
Hagamos un cambio de variable, de manera que
u = xβ −→ x = βu du = dxβ −→ dx = βdu
Así, realizando este cambio en (1.2) tenemos que
E(X) = (^) βαΓ(^1 α)
0
(uβ)αe−uβdu = (^) Γ(βα)
0
uαe−udu = βΓ(Γ(αα^ + 1)) = βαΓ(Γ(αα))
De esta forma concluimos que
E(X) = αβ
Proposición 1.9. Sea X una variable aleatoria tal que X ∼ Ga(α, β) entonces V ar(X) = αβ^2.
Demostración. Sabemos que V ar(X) = E(X^2 ) − E(X)^2 , con lo cual calculemos E(X^2 ).
E(X^2 ) =
−∞
x^2 fX (x)dx =
0
x^2 βαΓ(^1 α)xα−^1 e−^ xβ dx = (^) βαΓ(^1 α)
0
xα+1e−^ xβ dx (1.3) Hagamos un cambio de variable, de la forma
u = xβ −→ x = βu du = dxβ −→ dx = βdu
Así, realizando este cambio en (1.3) tenemos que
E(X^2 ) = (^) βαΓ(^1 α)
0
(uβ)α+1e−uβdu = β
2 Γ(α)
0
uα+1e−udu = β
(^2) α(α + 1)Γ(α) Γ(α)
Entonces obtenemos que E(X^2 ) = (α + 1)αβ^2. Con lo cual, como V ar(X) = E(X^2 ) − E(X)^2 podemos concluir que
V ar(X) = (α + 1)αβ^2 − (αβ)^2 = αβ^2