Esta página es para la versión anterior. La página correspondiente en inglés ha sido eliminada en la versión actual.

Modelos de mezcla gaussiana

Los modelos de mezcla gaussiana (GMM) se componen de componentes de densidad normal multivariada, donde es un entero positivo.kk Cada componente tiene una media dimensional (es un entero positivo), una matriz de covarianza y una proporción de mezcla.dddd La proporción de mezcla determina la proporción de la población compuesta por componente, = 1,...,.jjjk

Puede crear un objeto de distribución de mezcla gaussiana utilizando o.gmdistributiongmdistributionfitgmdist Se utiliza para crear un objeto GMM completamente especificado especificando los medios de componente, las covarianzas y las proporciones de la mezcla.gmdistribution Se utiliza para ajustar un objeto GMM a una matriz de los datos especificando el número de componentes de la mezcla.fitgmdistndXk Las columnas de corresponden a los predictores, características o atributos.X Las filas corresponden a las observaciones o ejemplos.X De forma predeterminada, se ajusta a matrices de covarianza completas que son diferentes entre los componentes (o no compartidos).fitgmdist

ajusta los GMMs a los datos mediante el algoritmo iterativo (EM).fitgmdistExpectativa-maximización Utilizando los valores iniciales para los medios de componentes, matrices de covarianza y proporciones de mezcla, el algoritmo EM continúa utilizando estos pasos.

  1. Para cada observación, el algoritmo calcula las probabilidades posteriores de pertenencia a componentes. Se puede pensar en el resultado como una-por-matriz, donde Element (,) contiene la probabilidad posterior de que la observación es de componente.nkijij Este es el paso del algoritmo EM.E

  2. Utilizando las probabilidades posteriores de pertenencia a componentes como pesos, el algoritmo estima los medios de componentes, matrices de covarianza y proporciones de mezcla aplicando la máxima probabilidad. Este es el paso del algoritmo EM.M

El algoritmo recorre en iteración estos pasos hasta la convergencia. La superficie de probabilidad es compleja, y el algoritmo puede converger a un óptimo local. Además, el óptimo local resultante puede depender de las condiciones iniciales. tiene varias opciones para elegir las condiciones iniciales, incluidas las asignaciones de componentes aleatorias para las observaciones y el algoritmo-Means + +.fitgmdistk

Devuelve un objeto de modelo ajustado.fitgmdistgmdistribution El objeto contiene propiedades que almacenan los resultados de la estimación, que incluyen los parámetros estimados, la información de convergencia y los criterios de información (criterios de información de Akaike y Bayesiano). Puede utilizar la notación de puntos para acceder a las propiedades.

Una vez que tenga un GMM ajustado, puede agrupar los datos de consulta con él. La agrupación en clústeres mediante GMM se considera a veces un método de clustering suave. Las probabilidades posteriores de cada punto indican que cada punto de datos tiene cierta probabilidad de pertenecer a cada clúster. Para obtener más información sobre la agrupación en clústeres con GMM, consulte.Cluster utilizando modelos de mezcla gaussiana

Consulte también

| |

Temas relacionados