La version 11.0, incluse dans la mise à jour 2016b, comporte les améliorations suivantes :

  • Algorithmes de Big Data : Appliquez la réduction de dimension, les statistiques descriptives, la classification k-means, la régression linéaire, la régression logistique et l’analyse discriminante sur des données hors mémoire
  • Optimisation bayésienne : Réglez les algorithmes de Machine Learning en recherchant les hyperparamètres optimaux
  • Sélection des fonctions : Utilisez l’analyse NCA (Neighborhood Component Analysis) pour sélectionner les fonctions des modèles de Machine Learning
  • Génération de code : Générez du code C pour la prédiction en utilisant des modèles de régression logistique et SVM (nécessite MATLAB Coder)
  • Classification Learner : Entrainez des classificateurs en parallèle (nécessite Parallel Computing Toolbox)
  • Performances du Machine Learning : Accélérez la modélisation du mélange gaussien, la modélisation SVM avec observations dupliquées et les calculs des distances pour les données creuses
  • Analyse de survie : Ajustez les modèles de risques proportionnels de Cox avec de nouvelles options pour les résidus et les liens de gestion

Pour en savoir plus, reportez-vous aux Notes de mise à jour.

La version 10.2, incluse dans la mise à jour 2016a, comporte les améliorations suivantes :

  • Apprentissage automatique pour les données de grande dimension Effectuez un ajustement rapide des modèles de régression et de classification linéaire avec des techniques telles que la descente de gradient stochastique et la méthode (L)BFGS à l'aide des fonctions fitclinear et fitrlinear
  • Classification Learner : Entraînez automatiquement plusieurs modèles, visualisez les résultats par étiquette de classe et effectuez une classification de la régression logistique
  • Performances : Effectuez un clustering à l'aide des modèles k-moyennes, k-médoïdes et de mélange gaussien lorsque les données disposent d'un nombre élevé de clusters
  • Distributions de probabilités : Adaptez la densité du paramètre de lissage du noyau aux données multi-variées à l'aide des fonctions ksdensity et mvksdensity
  • Distributions stables : Modélisez des données financières et d'autres types qui requièrent des distributions à queue lourde

Pour en savoir plus, reportez-vous aux Notes de mise à jour.

La version 10.1, incluse dans la mise à jour 2015b, comporte les améliorations suivantes :

  • Classification Learner : Formation d'analyses discriminantes pour classifier les données, formation de modèles à l'aide de prédicteurs catégoriels et réduction de dimensions grâce à PCA
  • Régression non paramétrique : Ajustement des modèles grâce aux processus SVR (Support Vector Regression) ou gaussien (Kriging)​
  • Tableaux et données catégorielles pour l'apprentissage automatique : Utilisation des prédicteurs table et categorical dans les fonctions de classification et de régression non paramétriques et dans Classification Learner​
  • Génération de code : Génération automatique de code C et C++ pour les fonctions kmeans et randsample (à l'aide de MATLAB Coder)​
  • Accélération GPU : Augmentation de la vitesse de calcul de plus de 65 fonctions, dont les distributions de probabilités, les statistiques descriptives et les tests d'hypothèses (à l'aide de Parallel Computing Toolbox)​

Pour en savoir plus, reportez-vous aux Notes de mise à jour.

La version 10.0, incluse dans la mise à jour 2015a, comporte les améliorations suivantes :

  • Application de classification pour l'apprentissage des modèles et la classification des données à l'aide de l'apprentissage automatique supervisé
  • Tests statistiques pour comparer la précision respective de deux modèles de classification à l'aide des fonctions compareHoldout, testcholdoutet testckfold
  • Accélération des fonctions kmedoids, fitcknn et autres lors des calculs de cosinus, de corrélations ou de coefficients de distance Spearman
  • Améliorations des performances pour les arbres de décision et les courbes de performance​​
  • Option supplémentaire pour le contrôle de la profondeur de l'arbre de décision à l'aide de l'argument 'MaxNumSplits' dans les fonctions fitctree, fitrtreeet templateTree
  • Génération de code pour les fonctions kmeans et pca (à l'aide de MATLAB Coder)
  • Puissance et taille d'échantillon pour les tests tà deux échantillons à l'aide de la fonction sampsizepwr

Pour en savoir plus, reportez-vous aux Notes de mise à jour.

La version 9.1, incluse dans la mise à jour 2014b, comporte les améliorations suivantes :

  • Apprentissage multiclasses pour les machines à vecteurs de support et autres classificateurs grâce à la fonction fitcecoc
  • Modèles linéaires généralisés à effets mixtes grâce à la fonction fitglme
  • Mise en clusters robuste pour gérer les valeurs aberrantes grâce à la fonction kmedoids
  • Accélération de la mise en clusters des fonctions kmeans et gmdistribution grâce à l'algorithme kmeans++
  • Test exact de Fisher pour les tables de contingence 2x2

Pour en savoir plus, reportez-vous aux Notes de mise à jour.