théorie des probabilités

  • Chaîne de Markov

    Une chaîne de Markov est un modèle stochastique de description d’une séquence d'événements possibles dans lesquelles la probabilité de chaque événement dépendent de seulement de l'état atteint dans le cas précédent.

Contenus liés

Search