cadena de Markov

sustantivo

Definición de cadena de Markov

: un proceso estocástico generalmente discreto como una caminata aleatoria en el que las probabilidades de ocurrencia de varios estados futuros dependen solo del estado actual del sistema o del estado inmediatamente anterior y no de la ruta por la cual se produjo el estado actuallogrado

- llamado también cadena de Markoff

primer uso conocido de cadena de Markov

1938, en el sentido definido arriba

Historia y etimología de cadena de Markov

AA Markov † 1922 matemático ruso

Sigue desplazándote para obtener más información

Más información sobre cadena de Markov

Viajero en el tiempo para cadena de Markov

El primer uso conocido de cadena de Markov fue en 1938

Ver más palabras del mismo año

Estadísticas para cadena de Markov

cite esta entrada

“Cadena de Markov” diccionario de Meaning88.com , es decir 88, http://www.meaning88.com/dictionary/Markov%20chain. Consultado el 1 de abril de 2021.

Estilo : MLA
MLA Chicago APA significado88

Comentarios sobre cadena de Markov

Qué te hizo querer mirar hacia arriba cadena de Markov ? Díganos dónde lo leyó o escuchó incluida la cita, si es posible.

PALABRA DEL DÍA

Pon a prueba tu vocabulario

Prueba de vocabulario avanzado

  • que es sinónimo de indolente ?

¡Pon a prueba tu vocabulario con nuestro cuestionario de 10 preguntas!

REALIZAR EL EXAMEN

Un desafío diario para los fanáticos de los crucigramas.

REALIZAR EL EXAMEN
¿Palabras de amor? ¿Necesitas aún más definiciones?

Suscríbase al diccionario más grande de Estados Unidos y obtenga miles de definiciones más y búsqueda avanzada, ¡sin publicidad!