miércoles, 1 de diciembre de 2010

Procesos Estocásticos

Muchas de las variables analizadas en la investigación biomédica muestran valores que cambian con el tiempo. En los modelos de cáncer mamario en ratas, la respuesta al carcinógeno puede ser evaluada observando mensualmente el número de animales que han desarrollado cáncer o midiendo cada semana el crecimiento del tumor hasta completar el periodo de experimentación (Thompson y Sporn, 2002). En humanos, la presión arterial, el número de células CD4 o el estado del paciente durante el transcurso de una enfermedad son variables con evolución temporal.
Habitualmente, el valor que toma la variable X en el tiempo t suele denotarse por X(t). Así, X(t1)... X(tk) forman una secuencia denominada proceso estocástico (Lindsey, 2004). Los valores que puede tomar la variable reciben el nombre de estados, de manera que durante su evolución en el tiempo el proceso estará sujeto a cambios de estado o transiciones entre diferentes estados. En la terminología habitual, se denomina espacio de estados a todos los posibles valores que pueda tomar la variable que define el proceso.


El análisis de procesos estocásticos permite predecir el estado en que se encontrará el proceso en el futuro a partir de la información disponible sobre su pasado. La complejidad de estas predicciones depende en gran medida del tipo de proceso; sin embargo, las características de algunos de ellos facilitan su análisis e interpretación. Un caso particular bien estudiado es el proceso de Markov, proceso estocástico cuyo estado futuro dependerá solo del estado en que se encuentre en el presente, pero no de su historia pasada (Feller, 1968; Drake, 1988).


Desde que, en 1906, el matemático ruso Andrei Andreyevich Markov definió por primera vez este tipo de procesos, sus aplicaciones en la investigación biomédica han sido múltiples (Basharin et al., 2004), tanto en la experimentación animal (Carey et al., 2005; Yang y Chao, 2005; Zhai y Morris, 2005; Uchida et al., 2006) como en los estudios en humanos (Trajstman, 2002; Alexandersson et al., 2003; Berg et al., 2004; Kopycka- Kedzierawski y Billings, 2006).
Dependiendo de las condiciones particulares de cada estudio, la metodología para el análisis de datos difiere. Cuando los valores que puede tomar el proceso son discretos suele hablarse de cadenas de Markov, mientras que el término proceso de Markov suele reservarse para procesos con espacio de estados continuo.

No hay comentarios:

Publicar un comentario