Cadenas de Markov.

Definición: Un proceso estocástico en el cual la probabilidad de distribución condicional para una situación en algun momento futuro, dada la situación presente, no es afectada por ningun conocimiento adicional de la historia pasada de sistema.

En castellano: Cadenas de Markov.

En inglés: Markov Chains.

En portugués: Cadeias de Markov.

Sinónimos: Proceso de Markov.