Engelsk ordbok



Info: Dette webstedet er basert på WordNet fra Princeton University.

Engelsk substantiv: Markov chain

1. Markov chain (om prosess) a Markov process for which the parameter is discrete time values


Ord med samme betydning (synonymer)Markoff chain


Mindre spesifikke uttrykkMarkoff process, Markov process









Basert på WordNet 3.0 copyright © Princeton University.
Teknikk og design: Orcapia v/ Per Bang. Norsk utgave: .
2025 onlineordbog.dk