Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Definición y propiedades de la distribución Gamma - Prof. Torres, Ejercicios de Probabilidad

Una introducción detallada a la distribución gamma, incluyendo su definición, propiedades y relaciones con otras distribuciones. Se explica cómo calcular la función de densidad, la función de distribución, los momentos y la función generadora de momentos de la distribución gamma. También se aborda la inferencia sobre los parámetros de la distribución gamma utilizando el método de máxima verosimilitud. Se proporcionan fórmulas y ejemplos para calcular intervalos de confianza para los parámetros. Además, se discute la relación de la distribución gamma con el proceso de poisson y la distribución chi-cuadrado. En general, este documento ofrece una comprensión profunda de las características y aplicaciones de la distribución gamma, lo que lo hace útil para estudiantes y profesionales en áreas como estadística, matemáticas, física y ciencias de la computación.

Tipo: Ejercicios

2023/2024

Subido el 29/05/2024

sheyla-ivonne-hernandez-villegas
sheyla-ivonne-hernandez-villegas 🇲🇽

2 documentos

1 / 80

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Trabajo Fin de Grado
La distribución Gamma
Rita Troncoso de la Cuesta
2020/2021
UNIVERSIDAD DE SANTIAGO DE COMPOSTELA
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
pf33
pf34
pf35
pf36
pf37
pf38
pf39
pf3a
pf3b
pf3c
pf3d
pf3e
pf3f
pf40
pf41
pf42
pf43
pf44
pf45
pf46
pf47
pf48
pf49
pf4a
pf4b
pf4c
pf4d
pf4e
pf4f
pf50

Vista previa parcial del texto

¡Descarga Definición y propiedades de la distribución Gamma - Prof. Torres y más Ejercicios en PDF de Probabilidad solo en Docsity!

Trabajo Fin de Grado

La distribución Gamma

Rita Troncoso de la Cuesta

UNIVERSIDAD DE SANTIAGO DE COMPOSTELA

Trabajo propuesto

Área de Conocimiento: Estadística e Investigación Operativa

Título: La distribución Gamma

Breve descripción del contenido A pesar de no ser tan conocida como la Bernoulli o la normal, la distribución Gamma aparece en múltiples ocasiones como mo- delo para el cálculo de probabilidades y para el ajuste de datos reales. En la práctica, la distribución Gamma es el modelo de referencia para variables continuas y positivas, como pueden ser los flujos de agua, consumos de productos a granel, rentas, reco- gidas de residuos urbanos, y tantos otros. Sus dos parámetros, uno de forma y otro de escala, le dan una gran versatilidad, y de hecho contiene como casos particulares otros modelos de distri- bución tan famosos como la exponencial o la ji cuadrado. En este trabajo se revisarán las propiedades de la distribución Gamma, se estudiarán los métodos de inferencia para sus parámetros, y se considerarán modelos de regresión con respuesta de tipo Gamma. Todo ello se realizará apoyándose en ejemplos con datos reales o simulados, que permitirán entender la utilidad de la distribución Gamma y analizar las propiedades de los métodos considerados.

iii

Índice general

Resumen viii

    1. Definición y propiedades de la Gamma Introducción xi
    • 1.1. Función Gamma
    • 1.2. Función de densidad
      • 1.2.1. Función de distribución
    • 1.3. Esperanza y varianza de la Gamma
    • 1.4. Función generatriz de momentos de la Gamma
    • 1.5. Reproductividad de la Gamma
    • 1.6. Relación con otras distribuciones
      • 1.6.1. Distribución exponencial
      • 1.6.2. Distribución de Erlang
      • 1.6.3. Distribución χ
    • 1.7. Relación con el proceso de Poisson
    • 1.8. Ejemplos con datos reales
    1. Inferencia sobre los parámetros
    • 2.1. Introducción
    • 2.2. Método de momentos
    • 2.3. Método de máxima verosimilitud
      • 2.3.1. Elementos generales de la estimación por máxima verosimilitud
      • 2.3.2. Ecuaciones de máxima verosimilitud
      • 2.3.3. Método de Newton
      • 2.3.4. Máxima verosimilitud en R
    • 2.4. Estimación por intervalos de confianza vi ÍNDICE GENERAL
      • 2.4.1. Intervalos de confianza (método pivotal)
      • 2.4.2. Intervalos de confianza asintóticos
      • 2.4.3. Intervalos de confianza en R
    1. Criterios de bondad del ajuste
    • 3.1. Introducción
    • 3.2. Test de Kolmogorov-Smirnov
    • 3.3. Prueba de Lilliefors
      • 3.3.1. Tabla de valores críticos
    1. Regresión Gamma
    • 4.1. Componentes de un modelo lineal generalizado
    • 4.2. Proceso de estimación de los GLM
    • 4.3. Deviance del modelo
    • 4.4. Regresión Gamma
  • Comandos R: Capítulo
  • Comandos R: Capítulo
  • Comandos R: Capítulo

viii ÍNDICE GENERAL

Resumen

En este trabajo trataremos sobre la distribución Gamma. Esta es una distri- bución poco utilizada en la práctica porque presenta una mayor complejidad que otras distribuciones. Esta es una distribución biparamétrica y nos centraremos en obtener métodos sencillos para calcular las estimaciones de estos parámetros y sus intervalos de confianza. Asimismo, estudiaremos métodos para la validación de la distribución Gamma tanto gráfica como analíticamente. Finalmente, explicamos la regresión sobre una variable respuesta que sigue una distribución Gamma.

Abstract

In this projet we will talk about Gamma distribution. In practice, this distribu- tion is not correntsly used because of its complexity. Gamma distribution has two parameters and we will focus on some simple methods in order to obtain estima- tors and their confidence intervals. In addition, we will explain goodness of fit test for Gamma. Finally, we will study the regression when the response variable is a Gamma.

ix

Introducción

Este trabajo trata sobre la distribución Gamma. Aunque esta distribución es muy conocida no es la más habitual para trabajar. Sin embargo, esta distribución resalta por su importancia ya que algunas de las distribuciones más utilizadas en la práctica, en realidad, son un caso particular de la Gamma, como por ejemplo la exponencial o la χ^2. Esta es una distribución estadística continua y biparamétrica (α, β) siendo α el parámetro de forma y β el parámetro de escala. La distribución Gamma se encar- ga de modelizar el comportamiento de variables aleatorias continuas con asimetría positiva. Esto quiere decir, que tiene una mayor densidad a la izquierda de la dis- tribución respecto de la media. Veamos algunos casos donde esta distribución es aplicable:

Tiempos de espera en la Teoría de Colas.

En la meteorología para ajustar los datos de las precipitaciones.

Análisis de supervivencia: el estudio estadístico del tiempo que pasa hasta que ocurre un evento. Ajusta la distribución de la renta.

Modeliza los datos de consumo de productos a granel.

La distribución Gamma debe su nombre a la función Gamma. Ésta es muy conocida en diferentes ramas de las matemáticas desde la Teoría de Ecuaciones Diferenciales hasta la Estadística. Sin embargo, el origen de esta función se encuentra en la unión de un problema de interpolación con otro de cálculo integral. La función Gamma fue descubierta por Leonhard Euler en 1729 entre la correspondencia que mantenía con Goldbach.

xi

xii INTRODUCCIÓN

En el Capítulo 1 veremos la definición de la función y distribución Gamma y algunas propiedades interesantes sobre ellas. Al final de este capítulo estudiaremos dos conjuntos de datos y veremos si la distribución Gamma se ajusta adecuadamente a estos conjuntos de observaciones de manera gráfica. En el Capítulo 2 estudiaremos las estimaciones de los parámetros de forma y escala por diferentes métodos: el método de máxima verosimilitud y el método de los momentos. Veremos algún método iterativo para obtener estas estimaciones y para terminar este capítulo, proporcionaremos intervalos de confianza para las esti- maciones de estos parámetros. En el Capítulo 3 estudiaremos el test Lilliefors. Ésta es una prueba que sirve para estudiar de forma analítica si un conjunto de datos sigue una distribución Gamma. Explicaremos brevemente este método y luego lo aplicaremos a los conjuntos de datos mencionados en el primer capítulo. En el Capítulo 4 explicaremos cómo realizar la regresión sobre la Gamma. Esta regresión es un caso particular de los modelos lineales generalizados, con lo cual, primeramente explicaremos este tipo de modelos y luego lo particularizaremos para la Gamma.

2 CAPÍTULO 1. DEFINICIÓN Y PROPIEDADES DE LA GAMMA

Demostración. Si aplicamos reiteradamente la proposición anterior obtenemos que

Γ(α) = (α − 1)(α − 2)Γ(α − 2) =... = (α − 1)(α − 2)... Γ(1)

Calculemos Γ(1). Por definición

0

e−xdx = (^) Ml´ım →∞

∫ M

0

e−xdx = (^) Ml´ım →∞

−e−x

∣∣M

0 =^ Ml´ım →∞ −e

−M (^) + e (^0) = 1

Con lo cual, para n ∈ N se tiene que Γ(n) = (n − 1)!Γ(1) = (n − 1)!

Proposición 1.4. Γ(^12 ) =

π

Demostración. Tenemos que introducir el concepto de la función β para realizar esta demostración. Tenemos β(p, q) =

0

xp−^1 (1 − x)q−^1 dx para p,q>0. Para resolver esta integral

realizamos un cambio de variable de la siguiente forma

x = sin^2 t −→ dx = 2 sin t cos tdt 1 − x = 1 − sin^2 t = cos^2 t Además, los límites de integración quedarían de la siguiente manera

x = sin^2 t −→ t = arcsin

x −→

x = 0 → t = 0 x = 1 → t = π 2

Realizando este cambio obtenemos

β(p, q) =

∫ π 2 0

(sin^2 t)p−^1 (cos^2 t)q−^1 2 sin t cos tdt

Con lo cual obtenemos que la función β es

β(p, q) = 2

∫ π 2

0

(sin t)^2 p−^1 (cos t)^2 q−^1 dt

A continuación, calculemos β

2 ,^

1 2

. Por un lado, calculamos la función beta por definición con esos valores y obtenemos

β

2 ,^

∫ π 2 0

1 dt = 2

(π 2

= π

1.2. FUNCIÓN DE DENSIDAD 3

Y además, por una propiedad de esta función sabemos que β (p, q) = Γ(Γ(pp)Γ(+qq)) y que Γ(1) = 1. Con lo cual

β

2 ,^

Γ(^12 )Γ(^12 )

= π

Así ya queda demostrado que Γ(^12 ) =

π

1.2. Función de densidad

En esta sección trataremos sobre la función de densidad de la distribución Gam- ma y sus parámetros α y β.

Definición 1.5. Decimos que X es una variable aleatoria que sigue una distribución Gamma de parámetros α > 0 y β > 0 , si su función de densidad es

fX (x) =

βαΓ(α) x α− (^1) e−^ xβ (^) x > 0 0 otro caso

Ahora veamos el papel que desempeñan los parámetros α y β en esta distribución.

Comencemos analizando la influencia del parámetro α. Este se conoce como el “parámetro de forma”. Cuando toma valores pequeños, α ≤ 1 , podemos observar que fX (x) es decreciente en todo su soporte. Por otro lado, para α > 1 el máximo valor de la función de densidad se consigue en x = (α − 1)β. Conseguimos este máximo derivando fX (x) e igualándolo a 0. El valor máximo de la función de densidad es (α−1)α−^1 e−(α−1) βΓ(α).

1.3. ESPERANZA Y VARIANZA DE LA GAMMA 5

Figura 1.2: Funciones de densidad de la Gamma con α = 2 y distintos valores de β

1.2.1. Función de distribución

La función de distribución indica la probabilidad de que la variable aleatoria ten- ga un valor menor o igual que un cierto x. Por ello, también es conocida como función de probabilidad acumulada. A continuación, veremos la función de probabilidad de la distribución Gamma que conseguimos integrando por partes (1.1).

Definición 1.7. Sea X v Ga(α, β) la función de distribución asociada a X es

FX (t) = P (X ≤ t) = (^) βαΓ(^1 α)

∫ (^) t 0

xα−^1 e−^ xβ dx

1.3. Esperanza y varianza de la Gamma

Trataremos ahora sobre la esperanza y la varianza de la Gamma.

Proposición 1.8. Sea X una variable aleatoria tal que X ∼ Ga(α, β) entonces E(X) = αβ.

Demostración.

E(X) =

−∞

xfX (x)dx =

0

x (^) βαΓ(^1 α)xα−^1 e−^ βx dx = (^) βαΓ(^1 α)

0

xαe−^ βx dx (1.2)

6 CAPÍTULO 1. DEFINICIÓN Y PROPIEDADES DE LA GAMMA

Hagamos un cambio de variable, de manera que

u = xβ −→ x = βu du = dxβ −→ dx = βdu

Así, realizando este cambio en (1.2) tenemos que

E(X) = (^) βαΓ(^1 α)

0

(uβ)αe−uβdu = (^) Γ(βα)

0

uαe−udu = βΓ(Γ(αα^ + 1)) = βαΓ(Γ(αα))

De esta forma concluimos que

E(X) = αβ

Proposición 1.9. Sea X una variable aleatoria tal que X ∼ Ga(α, β) entonces V ar(X) = αβ^2.

Demostración. Sabemos que V ar(X) = E(X^2 ) − E(X)^2 , con lo cual calculemos E(X^2 ).

E(X^2 ) =

−∞

x^2 fX (x)dx =

0

x^2 βαΓ(^1 α)xα−^1 e−^ xβ dx = (^) βαΓ(^1 α)

0

xα+1e−^ xβ dx (1.3) Hagamos un cambio de variable, de la forma

u = xβ −→ x = βu du = dxβ −→ dx = βdu

Así, realizando este cambio en (1.3) tenemos que

E(X^2 ) = (^) βαΓ(^1 α)

0

(uβ)α+1e−uβdu = β

2 Γ(α)

0

uα+1e−udu = β

(^2) α(α + 1)Γ(α) Γ(α)

Entonces obtenemos que E(X^2 ) = (α + 1)αβ^2. Con lo cual, como V ar(X) = E(X^2 ) − E(X)^2 podemos concluir que

V ar(X) = (α + 1)αβ^2 − (αβ)^2 = αβ^2