CONCEPTO DE CADENA DE MARKOV:
Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no deterministicas a lo largo del tiempo en torno a un conjunto de estados.Una cadena de Markov, por lo tanto, representa un sistema de varia su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están predeterminado, aunque si lo esta la probabilidad del próximo estado en función de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, en una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de transición actuando adecuadamente sobre el sistema (decisión).
MATRIZ DE TRANSICION:
Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con todos los registros no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1.El comportamiento de cambio de marca de los consumidores a sido modelado como una cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia. A manera de ejemplo, obsérvese el siguiente comportamiento de cambio de marca descrito en la siguiente tabla para una muestra de 250consumidores de un producto.
La matriz de probabilidades de transición para la tabla de contingencia es P:
Suponiendo que la participación en los mercados que tienen la tres marcas del ejemplo son 30%, 38% y 32&, respectivamente, durante la séptima semana. Si la matriz de transición P (maestral), se considera una buena estimación de la verdadera matriz de transición (poblacional), es posible predecir las participaciones de mercado esperada en la octava semana por medio de la multiplicación de matrices. Así entonces:
Las participaciones en el mercado predichas durante la octava semana son 32,08%, 37,64% y 30,28%, respectivamente para la tres marcas.
Generalizando, podemos decir que si un proceso de Markov donde el sistema puede encontrarse en cualquiera de m estados posibles, las probabilidades pueden escribirse por medio del vector X=(x1 x2……..xm) donde xj representa probabilidad de que el sistema se halle en el estado j. En los estados actuales de un proceso de Markov Xk, los estados después del siguiente experimento (transición) pueden calcularse mediante la multiplicación con de matrices.
XK+1 = X K P
Con base en la ecuación anterior se puede afirmar que:mas informacion en cada pestaña de este blog
Merkur 15c vs Stainless Steel Knife (Black) - Titanium
ResponderEliminarIn this titanium damascus knives review titanium rods I will introduce some of the popular variations of the titanium piercing jewelry Merkur 15c, the 15c, and titanium tubing its special features. titanium plate