chaîne de Markov

Voir aussi : chaine de Markov

Français

Étymologie

D’après Andreï Markov.

Locution nominale

SingulierPluriel
chaîne de Markov chaînes de Markov
\ʃɛn də maʁ.kɔf\
Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.

chaîne de Markov \ʃɛn də maʁ.kɔf\ féminin (orthographe traditionnelle)

  1. (Probabilités) Représentation de la prédiction du futur grâce à l’état présent du processus.

Variantes orthographiques

Dérivés

Traductions

Prononciation

  • France (Toulouse) : écouter « chaîne de Markov »

Voir aussi

Cet article est issu de Wiktionary. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.