Nacimiento y Muerte, Yule, Martingalas, renovación y confiabilidad

 

PROCESO DE NACIMIENTO Y MUERTE

     Los procesos de nacimiento y muerte representan sistemas cuyo estado en cada instante representa el numero de individuos en el mismo. Si este es n, se producen llegadas con tasa exponencial λn, y salidas con tasa exponencial µn, de forma independiente. Un proceso de nacimiento y muerte es una CMTC con espacio de estados {0, 1, 2, . . . , }, tasas de permanencia v0 = λ0, vi = λi + µi , i > 0, y probabilidades de transicion´ pi,i+1 = λi λi + µi , pi,i−1 = µi λi + µi , p01 = 1 pi,j = 0 para cualesquiera otros i, j.

REPRESENTACIÓN GRÁFICA


Los procesos de nacimiento y muerte se enmarcan dentro de la teoría de colas.

EJEMPLOS

·         Un proceso de Poisson es un proceso de nacimiento y muerte con tasas λn = λ, µn = 0 para todo n.

·         I Un proceso de Yule es un proceso de nacimiento y muerte con tasas λn = nλ, µn = 0 para todo n.

En general, un proceso se dice de nacimiento puro cuando µn = 0 para todo n ≥ 1.

     La idea se puede generalizar a los procesos de nacimiento y muerte a tiempo discreto. Veremos un ejemplo en practicas.

ECUACIONES DE EQUILIBRIO

     En el caso de un proceso de nacimiento y muerte estacionario, las ecuaciones de equilibrio son:


     La primera ecuacion iguala la probabilidad de salir del estado n cuando estamos en el con la de llegar a ese estado cuando no estamos en el; la segunda se corresponde con el caso particular de n = 0, en cuyo caso solo podemos salir con un nacimiento y ´ llegar con una muerte.

TASAS DE SALTO Y DISTRIBUCIÓN ESTACIONARIA

Las tasas de salto son


para cualquier otro par i, j

La distribución estacionaria es: 


y existe si y sólo si

 


Si Ti denota el tiempo que tarda el sistema en pasar del estado i al estado i + 1, se cumple


PROCESO DE NACIMIENTO PURO

·   Este proceso esta definido por las siguientes probabilidades de transición



·    considerando que el proceso de nacimiento sea homogéneo resulta:



·   los elementos de la matriz generador infinitesimal resultan entonces:



El proceso de Poisson es un proceso de nacimiento puro con tasa de nacimiento constante e independiente del estado

Con λn = λ y la condición del estado inicial  X(t)/t =0 =0

resulta: dp0(t)/dt = - λ*p0(t) como ecuación diferencial marginal y

dpn(t)/dt = λ*[pn-1(t) – pn(t)] como ecuación diferencial general

este sistema de ecuaciones diferenciales se soluciona con un esquema de seis pasos usando las transformaciones de Z y Laplace

resulta como solución :

pn(t) = [(λ*t)n/n!]*exp(-λ*t) con E[X(t)] = λ*t ; V[X(t)] = λ*t

de que resulta: Id[X(t)] = 1 y C[X(t)] = (λ*t)-0.5

·         pn(t) indica la probabilidad de exactamente n nacimientos en el intervalo [0,t] bajo la condición que en t=0 no había ningún nacimiento { X(0) = 0 }

·         p0(t) indica la probabilidad que en un intervalo [0,t] no ha ocurrido ningún nacimiento bajo la condición que en t=0 no había ningún nacimiento { X(0) = 0 }

·         E[X(t)] indica el valor medio del número de nacimientos en el intervalo [0,t] y se desarrollo como una función lineal con parámetro λ

PROCESO DE MUERTE PURO

Este proceso esta definido por las siguientes probabilidades de transición



considerando que el proceso de nacimiento sea homogéneo resulta:


los elementos de la matriz generador infinitesimal resultan entonces:


·         Este proceso es la inversión del proceso de nacimiento puro desde un estando final N y resulta formulas similares como en el proceso de nacimiento puro

·         Durante su evolución temporal converge al estado cero que corresponde que ninguna petición se encuentra más en sistema

·         Su importancia reside sobre todo como parte del proceso de nacimiento y muerte

·         Como proceso puro en su dependencia temporal se estudia en el caso de vaciar un sistema de peticiones para realizar acciones de OAM (Operación, Mantenimiento, Administración)

·         Vamos a analizar los dos procesos de muerte puro más importante:

o   Proceso de muerte tipo Poisson con

μi = μ = const para todos los estados i

o   Proceso de muerte tipo Yule (lineal) con

μi = i*μ para todos los estados i

Se inicia en un estado N y describe su desarrollo temporal hasta el estado cero, resulta:

Con μn = μ y la condición del estado inicial X(t)/t =0=N resulta: dp0(t)/dt = - μ*p1(t) como primera ecuación diferencial marginal

dpn(t)/dt = μ*[-pn(t) + pn+1(t)] como ecuación diferencial general

dpN(t)/dt = - μ*pN(t) como segunda ecuación diferencial marginal

este sistema de ecuaciones diferenciales se soluciona con un esquema de seis pasos usando las transformaciones de Z y Laplace

resulta como solución : pn(t) = [( μ*t)N-n/(N-n)!]*exp(-μ*t) para n=1…N

p0(t)= 1- Σn=1…N pn(t)

pn(t) indica la probabilidad de exactamente N-n muertes en el intervalo [0,t] bajo la condición que en t=0 el proceso se inicia en un estando N> 0 resultando X(0) = N

p0(t) indica la probabilidad que en un intervalo [0,t] han ocurrido N muertes bajo la condición X(0) = N

pN(t) indica la probabilidad que en un intervalo [0,t] no ha ocurrido ningún muerte

como la expresión exp(-μ*t) converge con t →∞ contre cero y entonces P0(t) converge con t→∞ contre UNO resulta que desde el punto de vista practico el sistema se vacía ha partir de un tiempo suficiente largo

Relación con el proceso de nacimiento tipo Poisson

En vede de enumerar el estado del proceso desde n=0…N se puede considerar un proceso de muerte Y(t) que cuenta el numero de muerto, resulta:

m= N-n con m=0…N Y(t)/t=0 = 0

pm(t)= [(μ*t)m/m!]*exp(-μ*t)

pN(t) = 1- Σm=0…N-1 [(μ*t)m/m!]*exp(-μ*t)

que es equivalente al proceso de nacimiento troncado tipo Poissano

PROCESO YULE

El proceso de Yule es un proceso de nacimiento lineal con λ=n* λ y n >0

entonces el proceso debe ser ya activo en el tiempo inicial t=0 X(t)/t=0 = no > 0

Para n0 = 1 resulta como solución con el esquema de seis pasos visto en el proceso de nacimiento Poisson

pn(t) = [exp(-λ*t)]*[1-exp(-λ*t)]n-1 con a(t) = exp(-λ*t) resulta pn(t) = a(t)*[1-a(t)]n-1

que es para una t fija la distribución geométrica resultando por los primeros momentos estadísticos E[X(t)] = exp(λ*t) V[X(t)] =[ exp(λ*t)]*[exp(λ*t)-1]

Para el caso más general n0 ≥ 1 y y para los dos primeros momentos estadísticos resultan las siguientes expresiones


E[X(t)] = n0*exp(λ*t)

V[X(t)] =[n0*exp(λ*t)]*[exp(λ*t)-1]

APLICACIONES:

En la práctica el tráfico de llegadas desde sistemas de “Party Line”, sistemas de marketing televisado o a la llegada de un avión desde los teléfonos móviles se puede modelar con un proceso de nacimiento de Yule

BIOGRAFIA DE JOSEPH DOOB

     Doob nació en Cincinnati, Ohio, 27 de febrero de 1910, hijo de una pareja judía, Leo Doob y Mollie Doerfler Doob. La familia se mudó a Nueva York antes de los tres años. Los padres sintieron que estaba teniendo un bajo rendimiento en la escuela primaria y lo colocaron en el Escuela de Cultura Ética, de la cual se graduó en 1926. Luego pasó a Harvard donde recibió una licenciatura en 1930, una maestría en 1931 y un doctorado (Valores límite de funciones analíticas, asesor Joseph L. Walsh) en 1932. Después de una investigación postdoctoral en Columbia y Princeton, se incorporó al Departamento de Matemáticas de la Universidad de Illinois en 1935 y sirvió hasta su jubilación en 1978. Fue miembro del Centro de Estudios Avanzados del campus de Urbana desde su inicio en 1959. Durante la Segunda Guerra Mundial, trabajó en Washington, DC y Guam como consultor civil de la Marina desde 1942 a 1945; estaba en el Instituto de estudios avanzados para el año académico 1941-1942 cuando Oswald Veblen se acercó a él para trabajar en la guerra de minas para la Marina. Finalmente fallecido el 7 de junio del 2004 a la edad de 94 años en Urbana, Illinois.

Honores:

·         Presidente de la Instituto de Estadística Matemática en 1950.

·         Presidente de la Sociedad matemática americana 1963–1964.

·         Elegido para Academia Estadounidense de Artes y Ciencias 1965.

·         Asociado de la Academia Francesa de Ciencias 1975.

·         Premiado el Medalla Nacional de Ciencias por el presidente de los Estados Unidos Jimmy Carter 1979.

·         Premiado el Premio Steele por la American Mathematical Society. 1984.

 

MARTINGALAS

Vamos a estudiar una clase de procesos que pueden verse como la fortuna de un jugador que juega repetidamente un juego justo. Así que, pensemos que Mn es la fortuna luego de n rondas.

Decimos que M0, M1, . . . es una martingala si para cualquier n ≥ 0

1.  E|Mn| < ∞

2.  para cualquier sucesión de posibles valores m0, m1, . . . , mn

E[Mn+1|M0 = m0, M1 = m1, . . . , Mn = mn] = mn

La segunda propiedad equivalente a

0 = E[Mn+1 − mn|M0 = m0, M1 = m1, . . . , Mn = mn]              (1)

   = E[Mn+1 − Mn|M0 = m0, M1 = m1, . . . , Mn = mn]

Es decir, condicionando al pasado, la ganancia neta esperada luego del turno siguiente es cero. Lo cual se entiende como que el juego es justo.

ESPERANZA CONDICIONAL

     Como el estudio de martingalas recae fuertemente en el concepto de esperanza condicional, es conveniente comprenderla en forma correcta.

     En los cursos introductorios de probabilidad, si X, Y son variables aleatorias, la esperanza de X dado Y = y se entiende como el valor esperado de la distribuci´on de X dado Y = y,


En este curso, la esperanza condicional de X dado Y es una variable aleatoria que denotaremos por E[X|Y], y que viene definido por

E[X|Y] = ψ(Y),

Siendo

ψ(y) = E[X|Y = y].

ESPERANZA CONDICIONAL CON RESPECTO A UN EVENTO

Sea (Ω, F, P) un espacio de probabilidad y Y una variable aleatoria. Para cada A F, la función


se llama función indicatriz del conjunto A. Con la notación E(Y , A) indicamos la esperanza de la variable aleatoria Y 1A, i.e.

E(Y, A) = E(Y1A)

Note que si Y y A son independientes, es decir si para todo B se tiene P(Y B, A) = P(Y B)P(A) entonces

E(Y|A) = E(Y)

Def. Sea A F un evento tal que P(A) > 0. La Esperanza Condicional con respecto a un evento A se define como

PROPIEDADES DE LA ESPERANZA CONDICIONAL CON RESPECTO A UN EVENTO

Propiedad 1 (Linealidad de la esperanza condicional )

E(αX + Y|A) = αE(X|A) + E(Y|A)

Propiedad 2 Si X es igual a una constante c en A entonces

E(XY|A) = cE(Y|A)

Propiedad 3 (desigualdad de Jensen) Si φ es convexa entonces

E(φ(X)|A) ≥ φ(E(X|A))

Propiedad 4 Sea A1, . . . , Ak una familia disjunta de conjuntos tal que B = kj=1Aj. Entonces


EJEMPLO: PRECIO DE ACCIONES

Sean Y0, Y1, . . . , Yn, ... variables aleatorias independientes y positivas. Suponemos que una acci´on tiene precio M0 a tiempo 0.

Un modelo popular para modelar el precio de la acción a tiempo n es

Mn+1 = MnYn

donde (Yn − 1) × 100 representa (en porcentaje) la variabilidad de la acción.

Usando las propiedades de la esperanza condicional, es muy sencillo demostrar que

E[Mn+1|M0, . . . , Mn] = MnE[Yn]

En particular, si Y1, . . . , Yn son identicamente distribuidas con E[Y1] = µ, tenemos que Mn es

·         una martingala si µ = 1

·         una submartingala si µ > 1

·         una s´upermartingala si µ < 1

Dos ejemplos famosos del modelo anterior son:

·         Black-Scholes discreto. Y1, . . . , Yn, ... definidas por

Yn = eZn

siendo Z1, Z2, . . . variables aleatorias independientes normales N(µ, σ2 ).

·         Modelo Binomial. Y1, . . . , Yn, ... definidas por

P Yi = (1 + t)e−r  = p y P (Yi = (1 + t)−1 e−r)  = 1 − p,

La constante r es la tasa de interés y los factores (1 + t) y 1/(1 + t) modelan las variaciones del mercado y garantizan que el precio tiene la forma M0(1 + t)y e−nr , con |y| ≤ n. La volatilidad del precio está asociada a p.

PROCESO DE RENOVACIÓN Y CONFIABILIDAD

     La teoría de renovación estudia una clase de procesos estocásticos conocidos como procesos de conteo, es decir, procesos que registran el número de repeticiones de cierto evento, con la característica de que los tiempos de ocurrencia entre dos eventos consecutivos son variables aleatorias nonegativas, independientes e idénticamente distribuidas.

     Denotemos por Xn al tiempo transcurrido entre la n-ésima y la (n — 1) sima ocurrencia del evento y supongamos que estas variables son nonegativas, independientes e idénticamente distribuidas. Entonces

   (1.1)

es el tiempo de espero para la ocurrencia del n-ésimo evento. Por otra parte, la variable

N(t) = sup {n : Sn ≤ t} Vt > 0,                                           (1.2)

     Representa el número de repeticiones del evento en el intervalo [O, t]. Nos referiremos al proceso definido en (1.1) como el proceso de renovación y al proceso (1.2) como el proceso de conteo.

     En particular, observe que si la distribución de las variables Xn, ϵ N, tiene distribución exponencial con parámetro λ, entonces {N(t) : t ≥ 0} es un proceso de Poisson, es decir,

Denotaremos por F a la función de distribución común de las variables {Xn} , esto es,

y por p al valor esperado, es decir,

En todos los desarrollos subsecuentes supondremos que

para evitar renovaciones instantáneas o procesos de renovación triviales.

     Dado que las variables aleatorias X1, X2 ,... son independientes e idénticamente distribuidas con esperanza µ, entonces se cumple Ley Fuerte de los Grandes Números:

     La confiabilidad se define como la probabilidad de que una unidad o componente realice la función para la cual fue diseñado, bajo ciertas condiciones de uso especificadas, por un periodo de tiempo determinado. Las condiciones de uso son importantes para definir la confiabilidad, por ejemplo: no duran los mismo unos neumáticos si se usan en autopista, que si se usan en un camino rural.

La función de confiabilidad R(t), es la probabilidad de que la variable aleatoria T sea mayor a t:

Esta función es continua y monótona decreciente. Para ésta se cumple que:

·       R(0) = 1

·       R(∞) = límt→∞(1 − F(t)) = 0

     Por su definición, la función de confiabilidad se utiliza en otras disciplinas tales como: Medicina, Actuaría o Finanzas en las que se realizan análisis de supervivencia. En estas disciplinas, la función de confiabilidad se conoce como función de supervivencia. Dentro de las finanzas, el análisis de supervivencia tiene aplicaciones en diversas áreas, en particular en la de seguros, ya sean de vida, de autos, de casas o de desempleo. Por ejemplo, para calcular el monto las primas de seguros de vida es importante realizar un estudio de las tasas de mortalidad de los asegurados. Entre otros estudios, se analiza la probabilidad de muerte en las diferentes edades dadas ciertas condiciones de salud; a partir de este análisis, es fácil calcular la probabilidad de que el asegurado fallezca durante la vigencia de la póliza del seguro de vida.


REFERENCIAS BIBLIOGRÁFICAS


·         Acuña, I. (2004). Teoría de Renovación y Procesos de Renovación Markovianos [Ebook] (1st ed., pp. 1-2). México: Izrael Acuña. Obtenido de: https://lic.mat.uson.mx/tesis/123TesisTarazon.PDF

·         Miranda, E. (2016). Procesos estocásticos Sesión 9. Cadenas de Markov a tiempo continuo [Ebook] (1st ed.). Calle de San Francisco, 1 Oviedo, España: Enrique Miranda. Obtenido de: http://ocw.uniovi.es/pluginfile.php/5770/mod_resource/content/1/sesi%C3%B3n9.pdf

·         Garcia, A. (2006). Estadística y Procesos Estocásticos Tema 5: Procesos de Nacimiento y muerte [Ebook] (1st ed.). España: Adan Garcia. Obtenido de: https://estadistica-dma.ulpgc.es/EyPE/pdf/Tema_5_%20Procesos_de_Nacimiento_y_Muerte.pdf


Autor: Moises Carta

V - 27.049.003 






Comentarios

Entradas populares de este blog

CADENA DE MARKOV A TIEMPO CONTINUO

PROCESO DE POISSON MIXTO