processus de décision de Markov

  • Processus de décision de Markov

    Un processus de décision de Markov partiellement observable (POMDP) est une généralisation d'un processus de décision de Markov (MDP).

  • Système multi-agents

    Un système multi-agents est un système de composé de multiples agents (processus, bots, agents).

  • Markovian decision process (MDP)

    Un  Markovian decision process (ou processus de décision de Markov ou MDP) est un processus de contrôle stochastique temporel discret.

Contenus liés

Search