Desarrollo y evaluación de modelos
Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).
La selección de características y el ajuste de los hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación de k particiones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.
Para extraer nuevas características antes de entrenar un modelo de clasificación, utilice gencfeatures.
Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la app Classification Learner.
Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilice fitcauto. Esta función prueba una selección de tipos de modelos de clasificación con diferentes valores en los hiperparámetros y devuelve un modelo final que se prevé que funcione bien con los nuevos datos. Utilice fitcauto cuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a sus datos.
Para ajustar los hiperparámetros de un modelo concreto, seleccione los valores de los hiperparámetros y realice una validación cruzada del modelo con dichos valores. Por ejemplo, para ajustar un modelo SVM, elija un conjunto de restricciones de cajas y escalas de kernel y, después, realice una validación cruzada de un modelo para cada par de valores. Determinadas funciones de clasificación de Statistics and Machine Learning Toolbox™ ofrecen un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria. bayesopt, la función principal para implementar la optimización bayesiana, es también lo suficientemente flexible para muchas otras aplicaciones. Consulte Bayesian Optimization Workflow.
Para interpretar un modelo de clasificación, puede utilizar lime, shapley y plotPartialDependence.
Apps
| Classification Learner | Entrenar modelos para clasificar datos usando machine learning supervisado |
Funciones
Objetos
Propiedades
| ConfusionMatrixChart Properties | Confusion matrix chart appearance and behavior |
| ROCCurve Properties | Receiver operating characteristic (ROC) curve appearance and behavior (Desde R2022a) |
Temas
App Classification Learner
- Train Classification Models in Classification Learner App
Workflow for training, comparing and improving classification models, including automated, manual, and parallel training. - Visualizar y evaluar el rendimiento de clasificadores en Classification Learner
Compare los valores de precisión de los modelos, visualice resultados representando predicciones de clase y compruebe el rendimiento por clase en la matriz de confusión. - Selección y transformación de características mediante la app Classification Learner
Identifique predictores útiles utilizando gráficas o algoritmos de clasificación de características, seleccione las características que desee incluir y transfórmelas con el PCA en Classification Learner.
Selección de características
- Introduction to Feature Selection
Learn about feature selection algorithms and explore the functions available for feature selection. - Sequential Feature Selection
This topic introduces sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfsfunction. - Neighborhood Component Analysis (NCA) Feature Selection
Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms. - Tune Regularization Parameter to Detect Features Using NCA for Classification
This example shows how to tune the regularization parameter infscncausing cross-validation. - Regularize Discriminant Analysis Classifier
Make a more robust and simpler model by removing predictors without compromising the predictive power of the model. - Select Features for Classifying High-Dimensional Data
This example shows how to select features for classifying high-dimensional data.
Ingeniería de características
- Automated Feature Engineering for Classification
Usegencfeaturesto engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.
Selección de modelos automatizados
- Automated Classifier Selection with Bayesian and ASHA Optimization
Usefitcautoto automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.
Optimización de hiperparámetros
- Bayesian Optimization Workflow
Perform Bayesian optimization using a fit function or by callingbayesoptdirectly. - Variables for a Bayesian Optimization
Create variables for Bayesian optimization. - Bayesian Optimization Objective Functions
Create the objective function for Bayesian optimization. - Constraints in Bayesian Optimization
Set different types of constraints for Bayesian optimization. - Optimize Cross-Validated Classifier Using bayesopt
Minimize cross-validation loss using Bayesian Optimization. - Optimize Classifier Fit Using Bayesian Optimization
Minimize cross-validation loss using theOptimizeParametersname-value argument in a fitting function. - Bayesian Optimization Plot Functions
Visually monitor a Bayesian optimization. - Bayesian Optimization Output Functions
Monitor a Bayesian optimization. - Bayesian Optimization Algorithm
Understand the underlying algorithms for Bayesian optimization. - Parallel Bayesian Optimization
How Bayesian optimization works in parallel.
Interpretación de modelos
- Interpret Machine Learning Models
Explain model predictions using thelimeandshapleyobjects and theplotPartialDependencefunction. - Shapley Values for Machine Learning Model
Compute Shapley values for a machine learning model using interventional algorithm or conditional algorithm. - Shapley Output Functions
Stop Shapley computations, create plots, save information to your workspace, or perform calculations while usingshapley.
Validación cruzada
- Implement Cross-Validation Using Parallel Computing
Speed up cross-validation using parallel computing.
Evaluación de la capacidad de la clasificación
- ROC Curve and Performance Metrics
Userocmetricsto examine the performance of a classification algorithm on a test data set. - Performance Curves by perfcurve
Learn how theperfcurvefunction computes a receiver operating characteristic (ROC) curve.