/tareas/problemas.tex

https://bitbucket.org/gerouribe/2013-ii · LaTeX · 462 lines · 406 code · 46 blank · 10 comment · 0 complexity · 1bd2c58bbc953fe6df5f646b69014e4b MD5 · raw file

  1. \documentclass[a5paper,oneside]{amsart}
  2. \usepackage[scale={.9,.8}]{geometry}
  3. \usepackage{mathrsfs}
  4. \theoremstyle{plain}
  5. \newtheorem{theorem}{Theorem}
  6. \newtheorem{lemma}{Lemma}
  7. \newtheorem{corollary}{Corollary}
  8. \newtheorem{proposition}{Proposition}
  9. \newtheorem{conjecture}{Conjecture}
  10. \theoremstyle{definition}
  11. \newtheorem{problema}{Problema}
  12. %\newtheorem{problema}{Ejercicio}
  13. \newtheorem*{definition}{Definition}
  14. \newtheorem*{remark}{Remark}
  15. \usepackage{enumitem}
  16. \usepackage{listings}
  17. \lstset{
  18. language=R,
  19. basicstyle=%\scriptsize
  20. \ttfamily,
  21. commentstyle=\ttfamily\color{gray},
  22. numbers=none,
  23. numberstyle=\ttfamily\color{gray}\footnotesize,
  24. stepnumber=1,
  25. numbersep=5pt,
  26. backgroundcolor=\color{white},
  27. showspaces=false,
  28. showstringspaces=false,
  29. showtabs=false,
  30. frame=none,
  31. tabsize=4,
  32. captionpos=b,
  33. breaklines=true,
  34. breakatwhitespace=false,
  35. title=\lstname,
  36. escapeinside={},
  37. keywordstyle={},
  38. morekeywords={}
  39. }
  40. \title[Problemas de Procesos I]{Problemas de Procesos Estoc\'asticos I\\ Semestre 2013-II\\ Posgrado en Ciencias Matem\'aticas\\ Universidad Nacional Aut\'onoma de M\'exico}
  41. \author{Ger\'onimo Uribe Bravo}
  42. %\address{}
  43. \usepackage[colorlinks,citecolor=blue,urlcolor=blue]{hyperref}
  44. \input{definitions.tex}
  45. %\usepackage[colorlinks,citecolor=blue,urlcolor=blue]{hyperref}
  46. \begin{document}
  47. \maketitle
  48. \begin{problema}
  49. Sean $\paren{X_n}_{n\in\na}$ un proceso estoc\'astico con valores reales y $A\subset\re$ un boreliano. Pruebe que si\begin{esn}
  50. T_0=0\quad\text{y}\quad T_{n+1}=\min\set{k>T_n: X_k\in A}
  51. \end{esn}entonces $T_n$ es un tiempo de paro para toda $n$ y $T_n\to \infty$ puntualmente conforme $n\to\infty$.
  52. \defin{Categor\'ias: } Tiempos de paro
  53. \end{problema}
  54. \begin{problema}[Lo que siempre tiene una posibilidad razonable de suceder lo har\'a; (casi seguramente)-- y pronto]
  55. \emph{Tomado de \cite[E10.5, p.223]{MR1155402}}
  56. Suponga que \(T\) es un tiempo de paro tal que para alg\'un \(N\in\na\) y \(\varepsilon>0\) se tiene que para toda \(n\in\na\):
  57. $$
  58. \p (T\leq N+ n|\F_n)>\varepsilon \text{ casi seguramente}
  59. $$
  60. Al verificar la desomposici\'on
  61. $$
  62. \p (T>kN)= \p (T>kN,T>(k-1)N),
  63. $$pruebe por inducci\'on que para cada \(k=1,2,\ldots\):
  64. $$
  65. \p (T>kN)\leq \paren{1-\eps}^k.
  66. $$Pruebe que \( \esp{T}<\infty \).
  67. \defin{Categor\'ias:} Tiempos de paro.
  68. \end{problema}
  69. \begin{problema}
  70. \emph{Tomado de Mathematical Tripos, Part III, Paper 33, 2012, \url{http://www.maths.cam.ac.uk/postgrad/mathiii/pastpapers/}}
  71. Sean $\paren{X_i,i\in\na}$ variables aleatorias independientes con $\proba{X_i=\pm 1}=1/2$. Sean $S_0=0$ y $S_n=\sum_{i=1}^n X_i$.
  72. \begin{enumerate}
  73. \item Sea $T_1=\min\set{n\geq 0:S_n=1}$. Explique por qu\'e $T_1$ es un tiempo de paro y calcule su esperanza.
  74. \item Mediante el inciso anterior, construya una martingala que converge casi seguramente pero no lo hace en $L_1$.
  75. \item Sea $M_n$ la martingala obtenida al detener a $-S$ en $T_1$. Utilice la soluci\'on al Problema de la Ruina para probar que $\proba{\max_n M_n\geq M}=1/M$ para todo $M\geq 1$. Concluya que \(\esp{\max_m M_m}=\infty\) y que por lo tanto \(\esp{\max_{m\leq n}M_n}\to\infty\) conforme \(n\to\infty\). Finalmente, deduzca que no puede haber una desigualdad tipo Doob cuando \(p=1\).
  76. \item Sea $T=\min\set{n\geq 2:S_n=S_{n-2}+2}$ y $U=T-2$. ?`Son $T$ y $U$ tiempos de paro? Justifique su respuesta.
  77. \item Para la variable $T$ que hemos definido, calcule $\esp{T}$.
  78. \end{enumerate}
  79. \defin{Categor\'ias: } Tiempos de paro, problema de la ruina
  80. \end{problema}
  81. \begin{problema}[Extensiones del teorema de paro opcional]
  82. Sea \(M=\paren{M_n,n\in\na}\) una (super)martingala respecto de una filtraci\'on \(\paren{\F_n,n\in\na}\) y sean \(S\) y \(T\) tiempos de paro.
  83. \begin{enumerate}
  84. \item Pruebe que \(S\wedge T\), \(S+T\) y \(S\vee T\) son tiempos de paro.
  85. \item Sea \begin{esn}\F_T=\set{A\in\F:A\cap\set{T\leq n}\in\F_n\text{ para toda } n}\end{esn}es una \(\sigma\)-\'algebra, a la que nos referimos como la \(\sigma\)-\'algebra detenida en \(\tau\). Comente qu\'e puede fallar si \(T\) no es tiempo de paro. Pruebe que \(T\) es \(F_T\)-medible.
  86. \item Pruebe que si \(T\) es finito, entonces \(M_T\) es \(\F_T\)-medible.
  87. \item Pruebe que si \(S\leq T\leq n\) entonces \(\F_S\subset\F_T\). Si adem\'as \(T\) es acotado entonces \(X_S,X_T\in L_1\) y \begin{esn}\espc{M_T}{\F_S}\leq M_S.\end{esn}
  88. \item Si \(X=\paren{X_n,n\in\na}\) es un proceso estoc\'astico \(\paren{\F_n}\)-adaptado y tal que \(X_n\in L_1\) y tal que para cualesquiera tiempos de paro acotados \(S\) y \(T\) se tiene que \(\esp{X_S}=\esp{X_T}\) entonces \(X\) es una martingala. Sugerencia: considere tiempos de paro de la forma \(n\indi{A}+(n+1)\indi{A^c}\) con \(A\in\F_n\).
  89. \item Pruebe que el proceso $M^T$ obtenido al detener a $M$ al instante $T$ y dado por $M^T_n=M_{T\wedge n}$ es una martingala respecto de $\paren{\F_{T\wedge n},n\geq 0}$ pero tambi\'en respecto de $\paren{\F_{n},n\geq 0}$. Sugerencia: basta probar el resultado respecto de $\paren{\F_n}$ y para esto es \'util el inciso anterior.
  90. \end{enumerate}
  91. \defin{Categor\'ias: }Tiempos de paro, Muestreo opcional
  92. \end{problema}
  93. \begin{problema}
  94. Sea \(S_n=X_1+\cdots+X_n\) una caminata aleatoria con saltos \(X_i\in \{-1,0,1,\ldots\}\). Sea \(C_p\) una variable aleatoria geom\'etrica de par\'ametro \(p\) independiente de \(S\) y definimos $$ M_p=-\min_{n\leq C_p} S_n. $$El objetivo del ejercicio es determinar la distribuci\'on de \(M_p\).
  95. (A las caminatas aleatorias como \(S\) se les ha denominado Skip-free random walks Para aplicaciones de este tipo de procesos, ver \cite{MR1978607}. Tambi\'en aparecen en el estudio de Procesos Galton-Watson. Este ejercicio es el resultado b\'asico del estudio de sus extremos, denominado teor\'ia de fluctuaciones.)
  96. \begin{enumerate}
  97. \item Sea$$g(\lambda)=E(e^{- \lambda X_1}).$$Pruebe que \(g(\lambda)\in (0,\infty)\) y que$$M_n=e^{-\lambda S_n}g(\lambda)^{-n},n\geq 0$$es una martingala.
  98. \item Pruebe que \(g\) es log-convexa al aplicar la desigualdad de H\"older. Pruebe que si \(P(X_1=-1)>0\) (hip\'otesis que se utilizar\'a desde ahora) entonces \(g(\lambda)\to\infty\) conforme \(\lambda\to\infty\). Utilice esta informaci\'on para esbozar la gr\'afica de \(g\). Defina \( f(s)=\inf \{ \lambda>0:g(\lambda)^{-1} < s\} \). Note que \(1/g\circ f=Id\) en \((0,1)\). Pruebe que si \(g(\lambda)>1\), la martingala \(M\) es acotada hasta el tiempo de arribo de \(S\) a \(-k\) dado por $$ T_k =\min \{n\in\na:S_n=-k\} $$(donde se utiliza la convenci\'on \(\inf\emptyset=\infty\) ). Aplique el teorema de muestreo opcional de Doob para mostrar que$$E(s^{T_k})=e^{-k f(s)} .$$Justifique MUY bien por qu\'e la f\'ormula es v‡lida aun cuando \(T_k\) puede tomar el valor \(\infty\) y deduzca que de hecho \(\p (T_k=\infty)=0\).
  99. \item Argumente que$$ P(M_p\geq n)=P(T_n\leq C_p)=E((1-p)^{T_n})$$ para demostrar que \(M_p\) tiene distribuci\'on geom\'etrica de par\'ametro \(1-e^{-f(1-p)}\)
  100. \item Tome el l’mite conforme \(p\to 0\) para mostrar que la variable aleatoria $$M=-\min_{n\geq 0}S_n$$tiene una distribuci\'on geom\'etrica de par\'ametro \(1-e^{-f(1)}\). Interprete esto cuando \(f(1)=0\).
  101. \end{enumerate}
  102. \defin{Categor\'ias:} Caminatas aleatorias, muestreo opcional, fluctuaciones.
  103. \end{problema}
  104. \begin{problema}\mbox{}
  105. \begin{enumerate}
  106. \item Instale \href{www.octave.org}{Octave} en su computadora
  107. \item \'Echele un ojo a la documentaci\'on
  108. \item Ejecute el siguiente c\'odigo linea por linea:
  109. \lstinputlisting[caption=]{polya1.R}
  110. \item Lea las secciones sobre \href{http://www.gnu.org/software/octave/doc/interpreter/Simple-Examples.html#Simple-Examples}{simple examples}, \href{http://www.gnu.org/software/octave/doc/interpreter/Ranges.html#Ranges}{ranges}, \href{http://www.gnu.org/software/octave/doc/interpreter/Random-Number-Generation.html#Random-Number-Generation}{random number generation} y \href{http://www.gnu.org/software/octave/doc/interpreter/Comparison-Ops.html#Comparison-Ops}{comparison operators} y escriba su interpretaci\'on de lo que hace el c\'odigo anterior. Nota: est\'a relacionado con uno de los ejemplos del curso.
  111. \item Vuelva a correr el c\'odigo varias veces y escriba sus impresiones sobre lo que est\'a sucediendo.
  112. \end{enumerate}
  113. \end{problema}
  114. \begin{problema}[Ejercicios sueltos sobre martingalas]
  115. \mbox{}\begin{enumerate}
  116. \item Sea $\paren{X_n,n\geq 0}$ una sucesi\'on $\paren{\F_n}$-adaptada. Pruebe que\begin{esn}
  117. \sum_{k=1}^n X_k-\espc{X_k}{\F_{k-1}}, \quad n\geq 0
  118. \end{esn}es una $\paren{\F_n}$-martingala.
  119. \item{Descomposici\'on de Doob para submartingalas}: Sea Sea \(X=\paren{X_n}_{n\in\na}\) una submartingala. Pruebe que \(X\) se puede descomponer de manera \'unica como \(X=M+A\) donde \(M\) es una martingala y \(A\) es un proceso previsible con \(A_0=0\). Sugerencia: Asuma que ya tiene la descomposici\'on y calcule esperanza condicional de \(X_{n+1}\) dada \(X_n\).
  120. \item Sea \(S_n=\xi_1+\cdots+\xi_n\) donde las variables \(\xi\) son independientes y \(\xi_i\) tiene media cero y varianza finita \(\sigma_i^2\). Pruebe que si \(\sum_i \sigma_i^2<\infty\) entonces \(S_n\) converge casi seguramente y en \(L_2\) conforme \(n\to\infty\). Construya un ejemplo de variables aleatorias \(\xi_i\) tales que la serie \(\sum_i \xi_i\) sea casi seguramente absolutamente divergente y casi seguramente condicionalmente convergente (considere ejemplos simples!). Explique heur\'isticamente por qu\'e cree que suceda esto.
  121. %Ser\'a que \sum_i\abs{x_i}=\infty casi seguramente si \sum_i\abs\esp{\xi_i}=\infty?
  122. \item Sean \(X\) y \(Y\) dos martingalas (respecto de la misma filtraci\'on) y tales que \(\esp{X_i},\esp{Y_i}<\infty\) para toda \(i\). Pruebe la siguiente f\'ormula de integraci\'on por partes: $$ \esp{X_nY_n}-\esp{X_0Y_0}=\sum_{i=1}^n \esp{\paren{X_i-X_{i-1}}\paren{Y_i-Y_{i-1}}} . $$
  123. \item{Desigualdad de Azema-Hoeffding, tomado de \cite[E14.2, p.237]{MR1155402}}
  124. \begin{enumerate}
  125. \item Muestre que si \(Y\) es una variable aleatoria con valores en \([-c,c]\) y media cero entonces, para \(\theta\in\re\)
  126. $$\esp{e^{\theta Y}}\leq\imf{\cosh}{\theta c}\leq \imf{\exp}{\frac{1}{2}\theta^2c^2}. $$
  127. \item Pruebe que si \(M\) es una martingala nula en cero tal que para algunas constantes \(\paren{c_n,n\in\na}\) se tiene que
  128. $$\abs{M_n-M_{n-1}}\leq c_n\quad\forall n $$
  129. entonces, para \(x>0\)
  130. $$
  131. \proba{\max_{k\leq n} M_k\geq x}\leq \imf{\exp}{\frac{x^2}{2\sum_{k=1}^n c_k^2}}.
  132. $$
  133. \end{enumerate}
  134. \end{enumerate}
  135. \end{problema}
  136. \begin{problema}
  137. Sea $S_n=\sum_{i=1}^n X_i$ donde $X_1,X_2,\ldots$ son iid. Sea\begin{esn}
  138. \imf{\phi}{\lambda}=\esp{e^{\lambda S_n}}\in (0,\infty].
  139. \end{esn}
  140. \begin{enumerate}
  141. \item Pruebe que si existen $\lambda_1<0<\lambda_2$ tales que $\imf{\phi}{\lambda_i}<\infty$ entonces $\imf{\phi}{\lambda}<\infty$ para toda $\lambda\in [\lambda_1,\lambda_2]$. Sugerencia: escriba $\lambda=a\lambda_1+(1-a)\lambda_2$ para alg\'un $a\in [0,1]$ y aplique la desigualdad de H\"older. A partir de ahora se asume la premisa de este inciso.
  142. \item Pruebe que $\esp{\abs{S_n}^k}<\infty$ para toda $k\geq 0$.
  143. \item Sea $M^\lambda_t=e^{\lambda S_t}/\imf{\phi}{\lambda}$. Argumente que si $M^n$ es el proceso dado por\begin{esn}
  144. M^n_t=\left.\frac{\partial^n}{\partial \lambda^n}\right|_{\lambda=0}M^\lambda_t,
  145. \end{esn}entonces $M^n$ es una martingala para toda $n$.
  146. \item Calcule las primeras $4$ martingalas resultantes si $\proba{X_i=\pm 1}=1/2$. Util\'icelas para calcular el valor de $\esp{T^2}$ donde\begin{esn}
  147. T=\min\set{n\geq 0: S_n\in\set{-a,b}}
  148. \end{esn}y $a,b>0$.
  149. \end{enumerate}
  150. \defin{Categor\'ias:} Caminatas aleatorias, muestreo opcional, ejemplos de martingalas.
  151. \end{problema}
  152. \begin{problema}
  153. Sea $M$ una $\paren{\F_n}$-martingala. Pruebe que si $T$ es un tiempo de paro finito entonces $\esp{M_T}=\esp{M_0}$ bajo cada una de las siguientes condiciones:
  154. \begin{enumerate}
  155. \item $M$ es acotada.
  156. \item $T$ es integrable y la sucesi\'on $\paren{M_n-M_{n-1}}$ es acotada.
  157. \item $\paren{M_{n\wedge T}}$ es uniformemente integrable.
  158. \end{enumerate}
  159. \defin{Categor\'ias: } Muestreo opcional.
  160. \end{problema}
  161. \begin{problema}
  162. Sea $M$ una $\paren{\F_n}$-martingala con saltos acotados. Sean\begin{esn}
  163. C=\set{\limsup M_n=\liminf M_n\in\re}\quad\text{y}\quad D=\set{\limsup M_n=-\infty\text{ y }\limsup M_n=\infty}.
  164. \end{esn}Pruebe que $\proba{C\cup D}=1$. Deduzca que las caminatas aleatorias centradas con saltos acotados oscilan. Sugerencia: Para cada $K>0$ defina\begin{esn}
  165. T=\min\set{n\geq 0: \abs{M_n}\geq K}
  166. \end{esn}y aplique el teorema de convergencia de martingalas a $M^T$.
  167. Sea $M$ una caminata aleatoria no trivial con saltos integrables en $-1,0,1,\ldots$ y media cero. Pruebe que $\proba{M\text{ converge en }\na}=0$ y concluya que $\liminf M_n=-\infty$ casi seguramente. (Este resultado permitir\'a dar una prueba adicional de que un Galton-Watson cr\'itico se extingue). Sugerencia: proceda como en el p\'arrafo anterior y pruebe la integrabilidad uniforme de $M_{T\wedge n},n\in\na$.
  168. \defin{Categor\'ias: } Teoremas de convergencia de martingalas
  169. \end{problema}
  170. \begin{problema}
  171. Sean $X_1,X_2,\ldots$ variables aleatorias intercambiables:\begin{esn}
  172. \paren{X_1,\ldots, X_n}\stackrel{d}{=}\paren{X_{\pi_1},\ldots, X_{\pi_n}}
  173. \end{esn}para cada permutaci\'on $\sigma$ de $\set{1,\ldots,n}$.
  174. \begin{enumerate}
  175. \item Para $\G,\h$ sub$\sigma$-\'algebras de $\F$ definimos a $\G\vee\h=\sag{\G\cup\h}$. Sea \begin{esn}
  176. \G^n=\sag{\imf{f}{X_1,\ldots, X_n}: \fun{f}{\re^n}{\re}\text{ es sim\'etrica}}\vee\sag{X_{n+1},X_{n+2},\ldots}.
  177. \end{esn}Pruebe que $\G^n,n\geq 1$ es una filtraci\'on al rev\'es. Sea $\G$ su intersecci\'on.
  178. \item Para cada $A\in\mc{B}_{\re}$, defina a\begin{esn}
  179. \imf{\Xi_n}{A}=\frac{1}{n}\sum_{i=1}^n \indi{X_i\in A}.
  180. \end{esn}Pruebe que\begin{esn}
  181. \probac{X_1\in A}{\G^n}=\imf{\Xi_n}{A}.
  182. \end{esn}?`Por qu\'e puede definir a $\imf{\Xi}{A}=\lim_{n\to\infty}\imf{\Xi_n}{A}$?
  183. \item Al considerar a la martingala\begin{esn}
  184. \frac{1}{n\paren{n-1}}\sum_{1\leq i<j\leq n}\indi{X_i\in A}\indi{X_j\in A},
  185. \end{esn}pruebe que $\probac{X_1\in A,X_2\in A}{\G}=\probac{X_1\in A}{\G}\probac{X_2\in A}{\G}$. Extienda la afirmaci\'on de independencia condicional anterior a $X_1,\ldots, X_n$.
  186. \end{enumerate}
  187. \defin{Cagegor\'ias: }Teorema de convergencia de martingalas, variables intercambiables, teorema de de Finetti.
  188. \end{problema}
  189. \begin{problema}
  190. \mbox{}
  191. \begin{enumerate}
  192. \item Ejecute y explique la funci\'on del siguiente c\'odigo en Octave. Comente qu\'e teoremas del curso (y del curso de probabilidad) son importantes para interpretar la figura.
  193. \lstinputlisting[caption=]{polya2.R}
  194. \item Ejecute y explique la funci\'on del siguiente c\'odigo en Octave. Incluya una gr\'afica en la que la longitud de la variable k sea mayor a 1000. (Puede modificar el programa...) En la gr\'afica observara un esbozo de la trayectoria de un proceso de ramificaci\'on continuo (en una escala distinta...).
  195. \lstinputlisting[caption=]{binaryGW.R}
  196. \end{enumerate}
  197. \end{problema}
  198. %
  199. \begin{problema}
  200. Sean $\F_1,\F_2,\ldots $ y $\G$ sub\sa s de $\F$. Decimos que $\F_1,\F_2,\ldots$ son condicionalmente independientes dada $\G$ si para cualquier $H_i$ que sea $\F_i$ medible y acotada se tiene que\begin{esn}
  201. \espc{H_1\cdots H_n}{\G}=\espc{H_1}{\G}\cdots \espc{H_n}{\G}.
  202. \end{esn}
  203. \begin{enumerate}
  204. \item ?`Qu\'e quiere decir la independencia condicional cuando $\G=\set{\oo,\emptyset}$?
  205. \item Pruebe que $F_1$ y $\F_2$ son condicionalmente independientes dada $\G$ (denotado $\condind{\F_1}{\F_2}{\G}$) si y s\'olo si para cualquier $H$ que sea $\F_1$-medible y acotada se tiene que\begin{esn}
  206. \espc{H}{\F_2,\G}=\espc{H}{\G}.
  207. \end{esn}
  208. \item Pruebe que $\F_1,\F_2,\ldots, $ son condicionalmente independientes dada $\G$ si y s\'olo si para cada $n\geq 1$, $\F_{n+1}$ es condicionalmente independiente de $\F_1,\ldots, \F_n$ dada $\G$.
  209. \end{enumerate}
  210. \defin{Categor\'ias: } Esperanza condicional, Independencia condicional.
  211. \end{problema}
  212. %
  213. \begin{problema}
  214. Sea $\mu$ una distribuci\'on de progenie y defina $\tilde \mu_j=\mu_{j+1}$. Sea $S=\paren{S_n}$ una caminata aleatoria con distribuci\'on de salto $\tilde\mu$. Sea $k$ un entero no-negativo y defina recursivamente\begin{esn}
  215. Z_0=k=C_0,\quad Z_{n+1}=k+S_{C_n}\quad\text{y} C_{n+1}=C_n+Z_{n+1}.
  216. \end{esn}
  217. \begin{enumerate}
  218. \item Pruebe que $Z_n\geq 0$ para toda $n$ y que si $Z_n=0$ entonces $Z_{n+1}=0$.
  219. \item Pruebe que $C_n$ es un tiempo de paro para la filtraci\'on can\'onica asociada a $S$.
  220. \item Pruebe que $Z$ es un proceso de Galton-Watson con ley de progenie $\mu$.
  221. \item Pruebe que si $S$ alcanza $-1$ entonces existe $n$ tal que $Z_n=0$. Deduzca que si la media de $\mu$ es $1$ entonces $Z$ se extingue. (Sugerencia: utilice un ejercicio anterior sobre martingalas con saltos acotados hacia abajo.)
  222. \end{enumerate}
  223. \defin{Categor\'ias: } Caminatas aleatorias, Procesos de Galton-Watson%, Propiedad de Markov fuerte.
  224. \end{problema}
  225. \begin{problema}
  226. El objetivo de este ejercicio es ver ejemplos de cadenas de Markov $X$ y de funciones $f$ tales que $\imf{f}{X}=\paren{\imf{f}{X_n},n\in\na}$ sean o no cadenas de Markov.
  227. \begin{enumerate}
  228. \item Considere el hipercubo $n$-dimensional $E=\set{0,1}^n$. A $E$ lo pensaremos como la composici\'on de la primera de dos urnas que tienen en total $n$ bolas etiquetadas del $1$ al $n$. Si $x=\paren{x_1,\ldots, x_n}\in E$, interpretaremos $x_i=1$ como que la bola $i$ est\'a en la urna $1$. Considere el siguiente experimento aleatorio: inicialmente la composici\'on de las urnas est\'a dada por $x$ y a cada instante de tiempo escogemos una bola al azar y la cambiamos de urna. Modele esta situaci\'on por medio de una cadena de Markov $X$ en $E$. Sea $\fun{f}{E}{\set{0,\ldots, n}}$ dada por $\imf{f}{x}=\sum_i x_i$. Pruebe que $\imf{f}{X}=\paren{\imf{f}{X_n},n\in\na}$ es una cadena de Markov cuya matriz de transici\'on determinar\'a.
  229. \item Sea $\paren{S_n}_{n\in\na}$ una cadena de Markov con espacio de estados $\z$ y matriz de transici\'on\begin{esn}
  230. P_{i,i+1}=p\quad P_{i,i-1}=1-p
  231. \end{esn}donde $p\in [0,1]$. D\'e una condici\'on necesaria y suficiente para que $\paren{\abs{S_n},n\in\na}$ sea una cadena de Markov.
  232. \end{enumerate}
  233. \defin{Categor\'ias:} proyecciones de cadenas de Markov
  234. \end{problema}
  235. \begin{problema}
  236. Sean $\p$ y $\q$ dos medidas de probabilidad en el espacio can\'onico $E^\na$ para sucesiones con valores en un conjunto a lo m\'as numerable $E$. Decimos que $\q$ es \defin{localmente absolutamente continua} respecto de $\p$ si para cada $n\in\na$, $\q|_{\F_n}\ll\p|_{\F_n}$. Sea\begin{esn}
  237. D_n=\frac{d \q|_{\F_n}}{d \p|_{\F_n}}.
  238. \end{esn}
  239. \begin{enumerate}
  240. \item Pruebe que $D$ es una martingala bajo $\p$. Pruebe que si $D$ es uniformemente integrable entonces $\q\ll\p$.
  241. \item Pruebe que si $T$ es un tiempo de paro finito entonces $\q|_{\F_T}\ll\p|_{\F_T}$.
  242. \item Sea $\p^p$ la distribuci\'on de una caminata aleatoria simple que comienza en $0$ y va de $k$ a $k+1$ con probabilidad $p$, donde $p\in (0,1)$. Pruebe que $\p^p$ es localmente absolutamente continua respecto de $\p^{1/2}$ y encuentre la martingala $D_n$ asociada.
  243. \item Para $a,b>0$, sea $T=\min\set{n\in\na: X_n\in \set{-a,b}}$. Pruebe que $T$ y $X_T$ son independientes bajo $\p^{1/2}$. Al utilizar la continuidad absoluta local, pruebe que $T$ y $X_T$ tambi\'en son independientes bajo $\p^p$. Utilice alguna martingala de ejercicios anteriores para calcular $\esp{T^2}$.
  244. \end{enumerate}
  245. \defin{Categor\'ias: }Cambio de medida, Caminata aleatoria simple.
  246. \end{problema}
  247. \begin{problema}
  248. Sea $N$ un proceso Poisson de par\'ametro $\lambda$ y sea $T_n$ el tiempo de su en\'esimo salto.
  249. \begin{enumerate}
  250. \item Pruebe que condicionalmente a $T_2$, $T_1$ es uniforme en $[0,T_2]$.
  251. \item Pruebe que si $W_1$ y $W_2$ son exponenciales de par\'ametro $\lambda$ independientes entre si y de una variable uniforme $U$, entonces $U\paren{W_1+W_2}$ es una variable aleatoria exponencial de par\'ametro $\lambda$.
  252. \item Conjeture c\'omo se generaliza lo anterior con $T_n$ y $T_1$.
  253. \item Escriba dos programas en Octave que simulen al proceso de Poisson de par\'ametro $\lambda$ en el intervalo $[0,1]$. En uno utilizar\'a s\'olo variables exponenciales y en el otro puede utilizar una variable Poisson.
  254. \end{enumerate}
  255. \end{problema}
  256. \begin{problema}
  257. %Simulaci\'on de un proceso Poisson puntual... subordinador...
  258. Sea $\Xi$ una medida de Poisson aleatoria en $(0,\infty)\times (0,\infty)$ cuya medida de intensidad $\nu$ est\'a dada por $\imf{\nu}{ds,dx}=\indi{x>0}C/x^{1+\alpha}\, ds\,dx$.
  259. \begin{enumerate}
  260. \item Determine los valores de $\alpha$ para los cuales $\int 1\wedge x\,\imf{\nu}{dx}<\infty$.
  261. \end{enumerate}
  262. Nos restringimos ahora a valores de $\alpha$ para los cuales la integral anterior sea finita. Sean $\imf{f_t}{s,x}=\indi{s\leq t}x$ y $X_t=\Xi f_t$.
  263. \begin{enumerate}[resume]
  264. \item Determine los valores de $\alpha$ para los cuales $X_t<\infty$ para toda $t\geq 0$ casi seguramente.
  265. \end{enumerate}
  266. Nos restringiremos a dichos valores de $\alpha$.
  267. \begin{enumerate}[resume]
  268. \item Calcule $\esp{e^{-\lambda X_t}}$ y pruebe que $X_{t}$ tiene la misma distribuci\'on que $t^{1/\alpha}X_1$.
  269. \item Diga por qu\'e el siguiente c\'odigo en Octave simula la trayectoria aproximada del proceso $X$ en el intervalo $[0,1]$.
  270. \lstinputlisting{SuborEst.m}
  271. \end{enumerate}
  272. \end{problema}
  273. \begin{problema}
  274. Pruebe que si $X$ tiene incrementos independientes entonces el proceso $X^t$ dado por $X^t_s=X_{t+s}-X_t$ es independiente de $\F^X_t=\sag{X_s:s\geq 0}$.
  275. Calcular la esperanza y varianza del proceso de Poisson y de Poisson compuesto (en t\'erminos de la intensidad y la distribuci\'on de salto). Probar que si $X$ es\begin{esn}
  276. \esp{e^{iu Z_t}}=e^{-\lambda t\paren{1-\imf{\psi}{u}}}\quad\text{donde}\quad \imf{\psi}{u}=\esp{e^{iu \xi_1}}.
  277. \end{esn}
  278. Sea $N$ un proceso de L\'evy tal que $N_t$ tiene distribuci\'on de par\'ametro $\lambda t$.
  279. \begin{enumerate}
  280. \item Pruebe que casi seguramente las trayectorias de $N$ son no-decrecientes.
  281. \item Sea $\Xi$ la \'unica medida en $\mc{B}_{\re_+}$ tal que $\imf{\Xi}{[0,t]}=N_t$. Pruebe que $\Xi$ es una medida de Poisson aleatoria de intensidad $\lambda \cdot\leb$.
  282. \item Concluya que $N$ es un proceso de Poisson de intensidad $\lambda$.
  283. \end{enumerate}
  284. \end{problema}
  285. \begin{problema}
  286. Sea $P_t$ la probabilidad de transici\'on en $t$ unidades de tiempo para el proceso de Poisson de par\'ametro $\lambda$.
  287. Al utilizar el teorema del biniomio, pruebe directamente que las probabilidades de transici\'on del proceso de Poisson satisfacen las ecuaciones de Chapman-Kolmogorov $P_{t+s}=P_tP_s$. D\'e adem\'as un argumento probabil\'istico, basado en condicionar con lo que sucede al tiempo $s$, para probar dicha ecuaci\'on.
  288. Sea\begin{esn}
  289. \imf{Q}{i,j}=\begin{cases}
  290. -\lambda&j=i\\
  291. \lambda&j=i+1\\
  292. 0&j\neq i,i+1
  293. \end{cases}.
  294. \end{esn}Pruebe directamente que se satisfacen las ecuaciones de Kolmogorov\begin{equation*}
  295. %\label{CKEquationsForPoisson}
  296. \frac{d}{dt}\imf{P_t}{i,j}=\imf{QP_t}{i,j}=\imf{P_tQ}{i,j},
  297. \end{equation*}donde $QP_t$ es el producto de las matrices $Q$ y $P_t$.
  298. \end{problema}
  299. \begin{problema}[Tomado del examen general de probabilidad del Posgrado en Ciencias Matem\'aticas, UNAM, \href{http://www.posgradomatematicas.unam.mx/contenidoEstatico/archivo/files/pdf/Examenes_Generales/Probabilidad/Probabilidad2011-1.pdf}{Febrero 2011}]
  300. Una planta de producci\'on toma su energ\'ia de dos generadores. La cantidad de generadores al tiempo $t$ est\'a representado por una cadena de Markov a tiempo continuo $\set{X_t,t\geq 0}$ con espacio de estados $E=\set{0,1,2}$ y matriz infinit\'esimal $Q$ dada por\begin{esn}
  301. Q=\begin{pmatrix}
  302. -6&6&0\\
  303. 1&-7&6\\
  304. 0&2&-2
  305. \end{pmatrix}.
  306. \end{esn}
  307. \begin{enumerate}
  308. \item Encuentre la matriz de transici\'on de la cadena de Markov de los estados distintos que toma $X$, clasifique los estados, diga si existe una \'unica distribuci\'on invariante y en caso afirmativo, encu\'entrela. Calcule expl\'icitamente las potencias de la matriz de transici\'on. (Recuerde que de ser posible diagonalizar, esta es una buena estrategia.)
  309. \item ?`Cu\'al es la probabilidad de que ambos generadores est\'en trabajando al tiempo $t$ si s\'olo uno trabaja al tiempo cero?
  310. \item Si $\rho_2$ denota la primera vez que ambos generadores est\'an trabajando al mismo tiempo, encuentre la distribuci\'on de $\rho_2$ cuando s\'olo un generador est\'a trabajando al tiempo cero.
  311. \item Encuentre la proporci\'on de tiempo asint\'otica en que los dos generadores est\'an trabajando. Si cada generador produce 2.5 MW de energ\'ia por unidad de tiempo, ?`Cu\'al es la cantidad promedio de energ\'ia producida a largo plazo por unidad de tiempo?
  312. \end{enumerate}
  313. \end{problema}
  314. \begin{problema}[Procesos de ramificaci\'on a tiempo continuo]
  315. Sea $\mu$ una distribuci\'on en $\na$. A $\mu_k$ lo interpretamos como la probabilidad de que un individuo tenga $k$ hijos. Nos imaginamos la din\'amica de la poblaci\'on como sigue: a tasa $\lambda$, los individuos de una poblaci\'on se reproducen. Entonces tienen $k$ hijos con probabilidad $\mu_k$. Se pueden introducir dos modelos: uno en que el individuo que se reproduce es retirado de la poblaci\'on (nos imaginamos que muere) y otro en que no es retirado de la poblaci\'on (por ejemplo cuando se interpreta a la poblaci\'on como especies y a sus descendientes como mutaciones). En el caso particular del segundo modelo en que $\mu_1=1$, se conoce como proceso de Yule.
  316. \begin{enumerate}
  317. \item Especifique un modelo de cadenas de Markov a tiempo continuo para cada uno de los modelos anteriores. A estos procesos se les conoce como procesos de ramificaci\'on a tiempo continuo.
  318. \end{enumerate}
  319. Nuestro primer objetivo ser\'a encontrar una relaci\'on entre procesos de ramificaci\'on a tiempo continuo y procesos de Poisson compuestos. Sea $N$ un proceso de Poisson y $S$ una caminata aleatoria independiente de $N$ tal que $\proba{S_1=j}=\mu_{j-1}$ \'o $\mu_{j}$ dependiendo de si estamos en el primer caso o en el segundo. Sea $k\geq 0$ y definamos a $X_t=k+S_{N_t}$.
  320. \begin{enumerate}[resume]
  321. \item Diga brevemente por qu\'e $X$ es una cadena de Markov a tiempo continuo e identifique su matriz infinitesimal para ambos modelos.
  322. \end{enumerate}
  323. Sea ahora $\tau=\min\set{t\geq 0: X_t=0}$ y $Y_t=X_{t\wedge \tau}$.
  324. \begin{enumerate}[resume]
  325. \item Argumente por qu\'e $Y$ es una cadena de Markov a tiempo continuo e identifique su matriz infinitesimal.
  326. \item Argumente por qu\'e existe un \'unico proceso $Z$ que satisface\begin{esn}
  327. Z_t=Y_{\int_0^t Z_s\, ds}
  328. \end{esn}y que dicho proceso es un proceso de ramificaci\'on a tiempo continuo. Sugerencia: Recuerde que las trayectorias de $Y$ son constantes por pedazos.
  329. \end{enumerate}
  330. Ahora nos enfocaremos en el proceso de Yule.
  331. \begin{enumerate}[resume]
  332. \item Escriba las ecuaciones backward de Kolmogorov para las probabilidades de transici\'on $\imf{P_t}{x,y}$. Al argumentar por qu\'e $\imf{P_{t}}{x,x}=e^{-\lambda x}$, resuelva las ecuaciones backward por medio de la t\'ecnica de factor integrante (comenzando con $\imf{P_t}{x,x+1}$) y pruebe que\begin{esn}
  333. \imf{P_t}{x,y}=\binom{y-1}{y-x} e^{-\lambda x t}\paren{1-e^{-\lambda t}}^{y-x}.
  334. \end{esn}
  335. \item Al utilizar la f\'ormula para la esperanza de una variable binomial negativa, pruebe que\begin{esn}
  336. \imf{\se_x}{Z_t}= xe^{\lambda t}.
  337. \end{esn}
  338. \item Pruebe que $e^{-\lambda t}Z_t$ es una martingala no-negativa y que por lo tanto converge casi seguramente a una variable aleatoria $W$.
  339. \item Al calcular la transformada de Laplace de $e^{-\lambda t}Z_t$, pruebe que $W$ tiene distribuci\'on exponencial. Por lo tanto, argumente que casi seguramente $Z$ crece exponencialmente.
  340. %La distribuciÑn lÕmite està tomada de Beroin-Goldschmidt, ellos citan y corrigen un error de Athreya.
  341. \end{enumerate}
  342. \end{problema}
  343. \begin{problema}
  344. (Tomado del examen general de conocimientos del \'area de Probabilidad del Posgrado en Ciencias Matem\'aticas, UNAM, \href{http://www.posgradomatematicas.unam.mx/contenidoEstatico/archivo/files/pdf/Examenes_Generales/Probabilidad/Probabilidad2011-2.pdf}{Agosto 2011})
  345. Sea $N$ un proceso de Poisson homog\'eneo de par\'ametro $\lambda$. Sea $E=\paren{-1,1}$ y $X_0$ una variable aleatoria con valores en $E$ independiente de $N$. Se define el proceso\begin{esn}
  346. X_t=X_0 \times \paren{-1}^{N_t}, \quad t\geq 0.
  347. \end{esn}
  348. \begin{enumerate}
  349. \item Explique por qu\'e $X$ es una cadena de Markov a tiempo continuo con valores en $E$.
  350. \item Calcule sus probabilidades de transici\'on y su matriz infinitesimal.
  351. \item ?`Existe una distribuci\'on estacionaria para esta cadena? En caso afirmativo ?'Cu\'al es?
  352. \end{enumerate}
  353. \end{problema}
  354. \begin{problema}
  355. Sea\begin{esn}
  356. Q=\begin{pmatrix}
  357. -2&2\\
  358. 3&-3
  359. \end{pmatrix}.
  360. \end{esn}\begin{enumerate}
  361. \item Haga un programa en octave que permita simular las trayectorias de una cadena de Markov a tiempo continuo $X$ con matriz infinitesimal $Q$.
  362. \item Utilice su programa para generar 10000 trayectorias en el intervalo de tiempo $[0,10]$ comenzando con probabilidad $1/2$ en cada estado y obtenga la distribuci\'on emp\'irica de $X_10$.
  363. \item Calcule $e^{10Q}$ (utilizando alg\'un comando adecuado) y contraste con la distribuci\'on emp\'irica del inciso anterior.
  364. \item Codifique el siguiente esquema num\'erico, conocido como m\'etodo de Euler, para aproximar a $e^{10 Q}$: escoja $h>0$ peque\~no, defina a $P^h_0$ como la matriz identidad y recursivamente\begin{esn}
  365. P^h_{i+1}=P^h_i+hQP^h_i.
  366. \end{esn}corra hasta que $i=\floor{10/h}$ y compare la matriz resultante con $e^{10Q}$. Si no se parecen escoja a $h$ m\'as peque\~no. ?`Con qu\'e $h$ puede aproximar a $e^{10Q}$ a 6 decimales?
  367. \end{enumerate}
  368. \end{problema}
  369. \begin{problema}
  370. Un proceso estoc\'astico $B=\paren{B_t,t\geq 0}$ es un movimiento browniano en ley si y s\'olo si es un proceso gaussiano centrado y $\esp{B_sB_t}=s\wedge t$.
  371. \end{problema}
  372. \begin{problema}
  373. El objetivo de este problema es construir, a partir de movimientos brownianos en $[0,1]$, al movimiento browniano en $[0,\infty)$.
  374. \begin{enumerate}
  375. \item Pruebe que existe un espacio de probabilidad $\ofp$ en el que existe una sucesi\'on $B^1,B^2,\ldots$ de movimientos brownianos en $[0,1]$ independientes. (Sugerencia: utilice la construcci\'on del movimiento browniano de L\'evy para que la soluci\'on sea corta.)
  376. \item Defina a $B_t=B^1_1+\cdots+B^{\floor{t}}_1+B^{\ceil{t}}_{t-\floor{t}}$ para $t\geq 0$. Pruebe que $B$ es un movimiento browniano.
  377. %\item Pruebe que $\paren{B_t}^2-t$ no tiene incrementos independientes. Sugerencia: En el ejercicio anterior identific\'o la distribuci\'on de $\paren{B_t}^2$; calcule la transformada de Laplace conjunta de dos incrementos.
  378. \end{enumerate}
  379. \end{problema}
  380. \begin{problema}
  381. Pruebe que si $\tilde X$ es una modificaci\'on de $X$ entonces ambos procesos tienen las mismas distribuciones finito-dimensionales. Concluya que si
  382. $B$ es un movimiento browniano en ley y $\tilde B$ es una modificaci\'on de $B$ con trayectorias continuas entonces $\tilde B$ es un movimiento browniano.
  383. \end{problema}
  384. \begin{problema}
  385. Sea\begin{esn}
  386. M^\lambda_t=e^{\lambda B_t-\lambda^2t/2}.
  387. \end{esn}
  388. \begin{enumerate}
  389. \item Explique y pruebe formalmente por qu\'e, para toda $n\geq 1$, $\partial^n M^\lambda_t/\partial \lambda^n$ es una martingala.
  390. \item Sea $\imf{H_n}{x}=\paren{-1}^ne^{x^2/2}\frac{d^n}{dx^n}e^{-x^2/2}$. A $H_n$ se le conoce como en\'esimo polinomio de Hermite. Calc\'ulelo para $n\leq 5$. Pruebe que $H_n$ es un polinomio para toda $n\in\na$ y que $\partial^n M^\lambda_t/\partial \lambda^n=t^{n/2}\imf{H_n}{B_t/\sqrt{t}}M^\lambda_t$.
  391. \item Pruebe que $t^{n/2}\imf{H_n}{B_t/\sqrt{t}}$ es una martingala para toda $n$ y calc\'ulela para $n\leq 5$.
  392. \item Aplique muestreo opcional a las martingalas anteriores al tiempo aleatorio $T_{a,b}=\min\set{t\geq 0:B_t\in\set{-a,b}}$ (para $a,b>0$) con $n=1,2$ para calcular $\proba{B_{T_{a,b}}=b}$ y $\esp{T_{a,b}}$, ËQu\'e concluye cuando $n=3,4$? ?` Cree que $T_{a,b}$ tenga momentos finitos de cualquier orden? Justifique su respuesta.
  393. \item Aplique el teorema de muestreo opcional a la martingala $M^\lambda $ al tiempo aleatorio $T_a=\inf\set{t\geq 0:B_t\geq a}$ si $\lambda>0$. Diga por qu\'e es necesaria la \'ultima hip\'otesis y calcule la transformada de Laplace de $T_a$.
  394. \item Opcional (para subir calificaci\'on en esta u otra tarea):
  395. \begin{enumerate}
  396. \item Modifique el ejercicio para que aplique al proceso Poisson.
  397. \item Resu\'elva el ejercicio modificado.
  398. \end{enumerate}
  399. \end{enumerate}
  400. \end{problema}
  401. \begin{problema}\mbox{}
  402. \begin{enumerate}
  403. \item Al aplicar la desigualdad maximal de Doob sobre los racionales de orden $n$ y pasar al l\'imite conforme $n\to\infty$, pruebe que $\sup_{t\leq }\abs{B_t-B_1}$ es cuadrado integrable.
  404. \item Pruebe que la sucesi\'on de variables aleatorias\begin{esn}
  405. \paren{\sup_{t\in [0,1]}\abs{B_{n+t}-B_n},n\in\na}
  406. \end{esn}son independientes, id\'enticamente distribuidas y de media finita. (Utilice la propiedad de Markov.)
  407. \item Al utilizar Borel-Cantelli, pruebe que, para cualquier $C>0$ fija\begin{esn}
  408. \limsup_{n\to\infty}\sup_{t\in [0,1]}\abs{B_{n+t}-B_n}/n\leq C\end{esn} casi seguramente.
  409. \item Pruebe que $\paren{B_n/n,n\geq 1}$ converge casi seguramente a $0$ y deduzca que\begin{esn}
  410. \lim_{t\to\infty }B_t/t=0.
  411. \end{esn}
  412. \end{enumerate}
  413. \end{problema}
  414. \bibliography{GenBib}
  415. \bibliographystyle{amsalpha}
  416. \end{document}